skrip tla

241
Lineare Algebra und Analytische Geometrie I und II Vorlesung 2009/10 Prof. Dr. R. Dipper Universit¨ at Stuttgart Institut f¨ ur Algebra und Zahlentheorie

Upload: hamdi-harzallah

Post on 29-Nov-2015

98 views

Category:

Documents


12 download

TRANSCRIPT

Lineare Algebra undAnalytische Geometrie I und II

Vorlesung 2009/10Prof. Dr. R. Dipper

Universitat Stuttgart

Institut fur Algebra und Zahlentheorie

Inhaltsverzeichnis

1 Grundlagen 51.1 Mengen und Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Vollstandige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Analytische Geometrie der Ebene und des Raums 232.1 Vektoren in der Ebene und im Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2 Die euklidische Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3 Der euklidische Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.4 Das vektorielle Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 Reelle Vektorraume 353.1 Der n-dimensionale reelle Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.2 Linearkombinationen und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4 Struktur von Vektorraumen 404.1 Vektorraume und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.2 Erzeugende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.3 Summen von Unterraumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.4 Minimale Erzeugendensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.5 Basen und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514.6 Unterraume, Komplemente und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . 534.7 Faktorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5 Lineare Transformationen 605.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.2 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.3 Homomorphismen sind selbst Vektoren! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695.4 Komposition linearer Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 715.5 Endomorphismenringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.6 Automorphismen und invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 765.7 Der Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6 Lineare Gleichungssysteme 836.1 Theoretisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 836.2 Konkretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 856.3 Numerisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

2

7 Determinanten: Rechenregeln 927.1 Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 927.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 947.3 Eine Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

8 Eigenwerte und Eigenvektoren 998.1 Schone Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 998.2 Die charakteristische Gleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1008.3 Direkte Summen und Blockdiagonalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

9 Euklidische und Unitare Vektorraume 1099.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109.2 Euklidische Vektorraume: Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . . . . 1189.3 Hauptachsentheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1209.4 Unitare Abbildungen und das Hauptachsentheorem fur normale Endomorphismen . . . . 1239.5 Hyperflachen, Quadriken und quadratische Formen . . . . . . . . . . . . . . . . . . . . . . 125

10 Mehr uber Faktorraume und Korper 13010.1 Die Isomorphiesatze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13010.2 Mehr uber Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

11 Anwendungen 13511.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

11.1.1 Praktisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13511.1.2 Okonomisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

11.2 Differenzialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14111.3 Differenzialgleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

12 Etwas Multilineare Algebra 14912.1 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14912.2 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15312.3 Das Tensorprodukt: A First Go . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15612.4 Symmetrische Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16212.5 Multilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16512.6 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16912.7 Mehr Tensorprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

13 Die Jordansche Normalform 17213.1 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17213.2 Verallgemeinerte Eigenraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17413.3 Die Jordansche Normalform: Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . 17813.4 Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18713.5 e hoch Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19113.6 Lineare Schwingungen ohne Reibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19613.7 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

14 Ringe und Moduln 20314.1 Kommutative Ringe und KAlgebren: Setting the Stage . . . . . . . . . . . . . . . . . . . . 20314.2 Hauptidealringe (HIR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20714.3 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

3

15 Moduln uber Hauptidealringen 21915.1 Torsionsmoduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21915.2 Primarkomponenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22115.3 Elementarteiler und Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

16 Anwendungen 22916.1 Endlich erzeugte abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22916.2 Die kanonisch rationale Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

4

Kapitel 1

Grundlagen

1.1 Mengen und Relationen

Die”Sprache“ der modernen Mathematik ist die Mengenlehre, die auf Georg Cantor (1845-1918) zuruck-

geht. Sie hangt eng mit der Logik zusammen, auf der mathematisches Denken und Schließen beruht.Wir mussen uns auf eine einheitliche Notation und einheitliche Grundbegriffe stutzen, damit wir unsverstandigen konnen. Daher wollen wir hier einige wenige Grundbegriffe der Mengenlehre vorstellen undin spateren Kapiteln dann, wenn sie gebraucht werden, weiter entwickeln und erganzen.

1.1-1 Bemerkung: Kurz nach der Einfuhrung der Cantorschen Mengenlehre, um 1900 herum, stell-te sich heraus, dass diese zu einem grundsatzlichen Widerspruch fuhrt. Es resultierte die sogenannte

”Grundlagenkrise“ der Mathematik, die erst mit der axiomatischen Begrundung der Mengenlehre durch

Zermelo und Fraenkel zu einer Losung kam. Darauf hier genauer einzugehen, wurde zu weit fuhren, wirbeschranken uns auf die

”naive“ Mengenlehre.

1.1-2 Definition pCantorq: Eine Menge M ist eine Zusammenfassung von wohlunterschiedenen Ob-jekten der (mathematischen) Anschauung und des (mathematischen) Denkens.

Die Objekte von M werden Elemente genannt. Ist a ein Element der Menge M, so schreiben wir a P M

und sonst a RM.

1.1-3 Beispiele:

M ta, b, cuN Menge der naturlichen Zahlen t1, 2, 3, . . .uN0 Menge der ganzen, nichtnegativen Zahlen t0, 1, 2, 3, . . .uZ Menge der ganzen Zahlen t0,1,2, . . .uQ Menge der rationalen Zahlen p

qmit p, q P Z und q 0. Beachte: 2

1 2

42 . . . ist nur einmal Element von Q

R Menge der reellen ZahlenC Menge der komplexen Zahlen (spater)P t Punkte der Ebene u oder t Punkte im Raum uG t Geraden der Ebene u oder t Geraden im Raum uK tpα, βq P R2 |α ist rational, β ist irrational uL tQ,R,Cu. Wieviele Elemente hat L?A tx P R | 1 ¤ x ¤ 2u

5

B Punkte der koordinatisierten reellen x, y-Ebene R2 mit ganzzahligenKoordinaten (siehe Abb.)

C Punkte im R2 innerhalb einer geschlossenen Kurve (siehe Abb.)

x

y B

C

Die leere Menge H (oder tu geschrieben) ist die Menge, die kein Element enthalt.

1.1-4 Definition: Seien A und B Mengen. Wir sagen”A ist Teilmenge von B“, wenn jedes Element

von A auch Element von B ist. In Formeln: x P Añ x P B.

Beispiel: t1, 2u t1, 2, 4uBeachte: Die Implikation Aussage U ñ Aussage V ist nur dann falsch, wenn Aussage U wahr, aberAussage V falsch ist. Sonst ist sie immer richtig.

Diagramm:

U V U ñ V

w w ww f ff w wf f w

f falsch,w wahr

Die Aussage”Wenn 2 3 ist, dann bin ich der Papst“ ist ebenso richtig wie die Aussage

”Wenn 2 3

ist, dann bin ich nicht der Papst“ oder”Wenn 2 3 ist, ist 5 5“. Ist A t1, 2u t1, 2, 4u B,

dann ist die Aussage 3 P A ñ 3 P B richtig, obwohl 3 P A und 3 P B falsche Aussagen sind. Aber auch4 P A ñ 4 P B ist logisch korrekt, obwohl 4 P A falsch und 4 P B richtig ist. 1 P A ñ 1 P B ist korrekt,da 1 P A und 1 P B beides wahre Aussagen sind, und ahnlich ist 2 P Añ 2 P B wahr.

Allgemein: Seien A,B Mengen. Ist x irgendein Objekt und x R A, so ist die Implikation x P Añ x P Bwahr, da x P A schon falsch ist, unabhangig davon, ob nun x P B oder x R B gilt. Ist dagegen x P A, undist x P B, so ist x P Añ x P B ebenso wahr.Die Beziehung A B, d. h. x P A ñ x P B sagt nichts uber Objekte aus, die nicht in A liegen. Diesekonnen oder konnen nicht Elemente von B sein. Die einzig wirkliche Aussage hier geht uber die Elementevon A; diese mussen dann zwangslaufig auch Elemente von B sein.

1.1-5 Wahrheitstafeln pLogikq:1. Aussagen sind entweder wahr oder falsch (

”tertium non datur“, ein Drittes gibt es nicht).

2. Eine Aussage A kann negiert werden: A. Diese Negation ist genau dann wahr, wenn A falsch ist,hat also den entgegengesetzten Wahrheitswert:

A Aw ff w

6

3. Sind A,B Aussagen, so ist A ^ B die zusammengesetzte Aussage”A und B“, die nur dann wahr

ist, wenn beide Aussagen A und B wahr sind. A_B (”A oder B“) ist wahr, wenn mindestens eine

der beiden Aussagen A oder B wahr ist.

A B A^B A_B Añ B A B

w w w w w ww f f w f ff w f w w ff f f f w w

A ñ B bedeutet”A impliziert B“,

”B folgt aus A“,

”Wenn A, dann B“,

”B, falls A“ (siehe

oben). A B ist wahr, wenn beide Aussagen A und B denselben Wahrheitswert haben, also wennpAñ Bq ^ pB ñ Aq gilt. Man sagt:”A ist aquivalent zu B“,

”A und B sind aquivalent“,

”A dann

und nur dann, wenn B“ oder”A ist notwendig und hinreichend fur B“.

1.1-6 Probleme: Zeigen Sie:

1. pAñ Bq pA^ p Bqq p Aq _B2. pA^Bq p A_ Bq3. pA_Bq p A^ Bq4. A_ pB ^ Cq pA_Bq ^ pA_ Cq5. A^ pB _ Cq pA^Bq _ pA^ Cq6. Sei A eine Menge. Dann ist H A.

7. pAñ Bq p B ñ Aq p B ^Aq1.1-7 Bemerkung: 7. in 1.1-6 besagt: Wenn man A ñ B zeigen will, kann man statt dessen auch B ñ A zeigen. Dies nennt man dann Beweis durch Kontraposition.Ebenfalls 7. zeigt, dass man Añ B zeigen kann, indem man p B^Aq zeigt. Diese Form des Beweisesnennt man Widerspruchsbeweis . In der Praxis formuliert man das dann so:Es gelte A. Angenommen, B gilt nicht, dann gilt . . . , und irgenwann ergibt sich ein Widerspruch. Alsoist B ^A falsch, d. h. es gilt p B ^Aq.1.1-8 Notation: Mengen konnen als Listen von Elementen gegeben sein, wie in M ta, b, cu, auchals unendliche Liste wie etwa in N t1, 2, 3, . . .u, oder sie konnen durch Eigenschaften, genauer

”Aus-

sageformen“ beschrieben werden. Dabei ist eine Aussageform eine”Aussage“ mit Parametern, d. h. sie

involviert Variablen x, y, . . . so, dass sie zur (mathematischen) Aussage wird, sobald man die Variablendurch konkrete Objekte ersetzt.

Beispiel:”x ist großer als 5“ ist eine Aussage fur reelle Zahlen x, d. h. setzt man fur x irgendeine reelle

Zahl ein, so wird”x ist großer als 5“ zur Aussage, fur x 3 etwa ist 3 ¡ 5 falsch und fur x 7 ist 7 ¡ 5

wahr.Normalerweise bildet man Mengen, indem man aus einer Grundmenge durch eine Aussageform Elementeaussondert, z. B. ist tx P R | x ¡ 5u die Menge aller reellen Zahlen, die großer als 5 sind.

Beispiel: tgerade ganze Zahlenu t2k | k P Zu tm P Z | Dl P Z : m 2luD Abkurzung fur”Es gibt “ Abkurzung fur

”Fur alle “

Abstrakt: Sei eine Aussageform gegeben durch Apx, y, . . .q, durch tx PM | Apxqu ist dann eine Mengegegeben (zunachst mit einer Variablen x, spater mit mehr Variablen)

7

A

Veranschaulichung von Mengen als geometrische Objekte

1.1-9 Definition: Seien A,B, . . . Mengen.

1. A ist Teilmenge von B, falls gilt: a P A ñ a P B. Wir schreiben dann A B, bzw. A B, fallsB ein Element enthalt, das nicht in A enthalten ist. In diesem Fall sagen wir, dass A eine echteTeilmenge von B ist.

2. AXB tx | x P A und x P Bu ist der Durchschnitt von A und B.3. AYB tx | x P A oder x P Bu ist die Vereinigung von A und B.4. AzB tx P A | x R Bu (wobei B A nicht vorausgesetzt wird) ist die Differenzmenge von B in A.5. PpAq tB | B Au ist die Potenzmenge von A.

A

B

A B

A

B

AXBA

B

AYB A

B

AzB1.1-10 Problem: Seien A,B,C Mengen. Zeigen Sie:

1. AXpBYCq pAXBqYpAXCq”Der Durchschnitt von Mengen ist distributiv uber der Vereinigung.“

A

B

CB ∪ C

A

A ∩ (B ∪ C)

A

B

C

A ∩ C

A ∩B

AX pB Y Cq pAXBq Y pAX Cq8

2. AYpBXCq pAYBqXpAYCq”Die Vereinigung von Mengen ist distributiv uber dem Durchschnitt.“

A

B

C

A

B ∩ C

A

B

CA ∪ C

A ∪B

(A ∪B) ∩ (A ∪ C)

AY pB X Cq pAYBq X pAY Cq3. Was ist PpHq, PpPpHqq, PpPpPpHqqq, usw. ? Wieviele Elemente hat PpPp. . .PpHqqq (die i-te

Potenzmenge)?

4. A A fur alle Mengen A

5. A B A B und B A

6. A B und B C ñ A C

7. AXB A, AXB B

8. A AYB, B AYB9. Sei Apmq Aussageform uber einer Grundmenge M, und sei N M. Dann gilt:

(a) pm P N : Apmqq Dm P N : Apmq(b) pDm P N : Apmqq m P N : Apmq(a) sagt: Will man zeigen, dass eine bestimmte Aussage nicht fur alle Elemente der Menge N

zutrifft, muss man nur ein Gegenbeispiel finden.(b) Will man zeigen, dass es in N kein Element gibt, sodass fur dieses die Aussage zutrifft, so muss

man die Aussage fur alle Elemente von N falsifizieren.

1.1-11 Definition: Das kartesische Produkt zweier Mengen M,N ist die Menge aller geordneten Paarepm,nq mit m PM und n P N und wird mit MN bezeichnet:

MN tpm,nq | m PM, n P Nu .Dabei wird das geordnete Paar pm,nq fur m PM und n P N mengentheoretisch wie folgt definiert:pm,nq tm, tm,nuu .

M

NM ×N

Z. B. kann man R2 R R durch die x, y-Ebene darstellen:

9

Vorsicht: A B B A und fur a, b P A sind die Paare pa, bq und pb, aq in A A nur dann gleich,wenn a b ist!

1.1-12 Indizes pInformelle Einfuhrungq: Man kann Elemente, Mengen, . . . mit Indizes versehen, umsie zu unterscheiden, z. B.

R2 tpα1, α2q | αi P R, i 1, 2u.Oder seien A1, A2, . . . , An Mengen (n P N), dann ist

n¹i1

Ai A1 A2 An tpα1, α2, . . . , αnq | αi P Ai fur i 1, . . . , nuAllgemeiner: Sei I eine Indexmenge, i P I sei Ai Menge¹

iPI

Ai tpaiqiPI | ai P Ai i P IupaiqiPI ist Familie von I-Folgen, spater mehr dazu£iPI

Ai tx | x P Ai i P Iu¤iPI

Ai tx | Di P I : x P Aiu1.1-13 Definition pzweistellige Relationenq: Sei A eine Menge. Eine Teilmenge R A A des kar-tesischen Produkts von A mit sich selbst heißt zweistellige Relation auf A. Oft schreiben wir aRb odera R b (oder auch andere Symbolen statt R) anstatt pa, bq P R.

Zum Beispiel ist”¤“ eine Relation auf R, die Ordnungsrelation. So ist ¤ R R:¤ tpα, βq P R2 | α ¤ βu

und wir schreiben dann tatsachlich α ¤ β.

”Relation“ ist ein sehr allgemeiner Begriff. Darunter fallen Ordnungsrelationen, Aquivalenzrelationen und

Funktionen (verallgemeinerte Relationen).

1.1-14 Definition: Sei A eine Menge. Eine Relation R AA heißt Aquivalenzrelation, falls gilt:

1. a P A : pa, aq P R (d. h. die”Diagonale“ tpa, aq P AAu ist in R enthalten, oder anders geschrieben:

a R a) (Reflexivitat)

2. a, b P A gilt: pa, bq P Rñ pb, aq P R (a R bñ b R a) (Symmetrie)

3. Seien a, b, c P A, und sei pa, bq P R und pb, cq P R. Dann ist pa, cq P R (a R b, b R c ñ a R c)(Transitivitat).

10

1.1-15 Probleme: Folgende Relationen sind Aquivalenzrelationen:

1. Gleichheit”“: R tpa, bq P AA | a, b P A : a bu

2. A tPunkte der reellen Ebeneu, fur P,Q P A sei dpP,Qq der Abstand der beiden Punkte (dpP,Qq 0 fur P Q). Sei O der Ursprung der Ebene. Definiere P Q (fur P,Q P A), wenn dpO,P q dpO,Qq ist.

3. Auf Z definieren wir eine Relation 3 durch: Fur a, b P Z ist a 3 b, wenn b a durch 3 teilbar ist.

1.1-16 Definition: Sei eine Aquivalenzrelation auf der Menge A, und sei a P A. Dann ist die Aqui-valenzklasse ras definiert als ras tb P A | b auBeachte: Wegen a a (Reflexivitat) ist immer a P ras.1.1-17 Lemma: Sei A eine Menge, Aquivalenzrelation auf A und seien a, b P A. Dann ist rasXrbs H a b, und in diesem Fall ist ras rbs.Also: Aquivalenzklassen sind entweder disjunkt , d. h. besitzen kein gemeinsames Element, oder sie fallenzusammen.

1.1-18 : Allgemein gilt: Sind A,B Mengen, dann ist A B A B und B A.

1.1-19 Definition: Sei I Indexmenge, A Menge und sei H Ai A fur jedes i P I. A heißt disjunkteVereinigung der Ai bzw. das System tAi | i P Iu von Teilmengen Ai von A heißt Partition von A, fallsgilt:

1. A iPI

Ai

2. Ai X ijPI

Aj

HUbung: Zeigen Sie, dass 2. aquivalent ist zu:

Ai XAj H i j fur i, j P I1.1-20 Satz: Sei eine Aquivalenzrelation auf der Menge A, und tras | a P Au sei die Menge der

Aquivalenzklassen auf A. Dann bilden diese eine Partition von A.

Vorsicht: Die”Liste“ tras | a P Au ist redundant. Ist b a, aber b a, so ist rbs ras, d. h. diese

Aquivalenzklasse ist ein Element von trcs | c P Au, das in der”Liste“ der Aquivalenzklassen rcs, c P A

mehrfach (mindestens zweimal fur c a und fur c b) auftaucht, aber in trcs | c P Au nur einmal alsElement gezahlt wird!

Umgekehrt:

1.1-21 Satz: Sei A iPI

Ai eine Partition von A. Definiere a b fur a, b P A durch

a b D i P I : a P Ai und b P Ai

Dann ist eine Aquivalenzrelation und die Aquivalenzklassen sind genau die Ai.

11

1.1-22 Definition: Sei H A eine Menge. Eine Relation R A A auf A heißt (teilweise) Ordnungbzw.

”A ist durch R (teilweise) geordnet“, falls gilt (mit a, b, c, . . . P A):

1. pa, aq P R fur alle a P A (Reflexivitat) (a ¤ a a P A)

2. pa, bq P R und pb, aq P R a b (Antisymmetrie) (a ¤ b und b ¤ a a b)

3. pa, bq P R und pb, cq P Rñ pa, cq P R (Transitivitat) (a ¤ b und b ¤ cñ a ¤ c)

Bezeichnung: Meist verwendet man fur eine Ordnungsrelation auf einer Menge das Symbol ¤ oderahnliche Symbole wie ¨ oder , etc., schreibt also anstatt pa, bq P R einfach a ¤ b bzw. a ¨ b oder a b.usw. Ist in einer teilweise geordneten Menge A mit Ordnung

”¤“ a ¤ b und a b, so schreibt man a b

und sagt a ist echt kleiner als b.

1.1-23 Beispiele:

1. Sei A N,Z,Q oder R. Fur a, b P A setze a ¤ b b a P N0

2. Ist A H mit Ordnung”¤“, so wird durch a ¨ b b ¤ a eine neue Ordnung, die zu

”¤“ entge-

gengesetzte Ordnung, definiert.

3. A N. Seien a, b P A. Durch a|b a ist Teiler von b wird eine teilweise Ordnung”|“ definiert.

4. Sei A Menge mit teilweiser Ordnung”¤“. Durch Einschranken von

”¤“ auf B wird jede nichtleere

Teilmenge B von A zur teilweise geordneten Menge.

5. Sei M Menge, A PpMq die Potenzmenge von M. Dann ist ist A teilweise geordnet durch dieMengeninklusion

”“,d. h. fur X,Y P A (d. h. X,Y M) ist X ¤ Y X Y .

1.1-24 Bemerkung: Fur |M| 0, . . . , 4 sieht die Ordnungrelation auf PpMq folgendermassen aus (dieOrdnung kann man durch einen

”Graphen“ veranschaulichen, ein Strich von oben nach unten besagt,

dass die untere Menge in der oberen enthalten ist.):

1. M H, |M| 0: PpMq tHu. So ist H einziges Element von PpMq.2. M tau, |M| 1: PpMq tH, tauu:

a

|

3. M ta, bu, |M| 2: PpMq tH, tau, tbu, ta, buu:∅

a b

a, b

Man sieht, dass die Ordnung nicht mehr linear ist.

4. M ta, b, cu, |M| 3:

12

a b c

a, b a, c b, c

a, b, c

5. M ta, b, c, du, |M| 4:

a b c d

a, b a, c b, c a, d b, d c, d

a, b, c a, b, d a, c, d b, c, d

a, b, c, d

Beachte:

PpHq tHuPpPpHqq tH, tHuu

PpPpPpHqqq tH, tHu, ttHuu, tH, tHuuu...

So lasst sich aus dem Nichts das Universum der endlichen Mengen erschaffen.

1.1-25 Definition:

1. Sei A mit der Relation”¤“ teilweise geordnete Menge. Die Ordnung

”¤“ heißt linear (oder totale

Ordnung) und A heißt linear geordnete Menge, wenn gilt: a, b P A ist a ¤ b oder b ¤ a,

d. h. je zwei Elemente von A sind vergleichbar. In Beispiel 5. in 1.1-23 ist dies z. B. nicht der Fall,falls M mehr als ein Element hat.

2. Ist A mit”¤“ teilweise geordnet, B A. Dann heißt b P B minimales Element von B, falls gilt:

c P B und c ¤ bñ c b

d. h. es gibt in B keine kleineren Elemente als b. b heißt kleinstes Element von B, falls b ¤ c c P Bgilt. (Analog: maximale Elemente von B, großte Elemente).

13

3. Sei A mit”¤“ teilweise geordnet, B A. Ein Element a P A heißt untere Schranke von B, falls

a ¤ b ist fur alle b P B. (Analog: obere Schranke).

1.1-26 Problem: Zeigen Sie: Eine Teilmenge B einer teilweise geordneten Menge A kann mehrereminimale Elemente haben. Diese sind dann nicht vergleichbar, d. h. sind b, c P B minimal und b c, soist weder b ¤ c noch c ¤ b.Hat B jedoch ein kleinstes Element b, so ist dieses minimal und b ist das einzige minimale Element vonB. Es kann aber durchaus passieren, dass B genau ein minimales Element besitzt, dieses aber nicht daskleinste Element von B ist.Klar ist auch, dass B immer minimale Elemente besitzt, wenn B selbst nur endlich viele Elemente hatund nichtleer ist.

1.1-27 Definition: Sei A durch”¤“ teilweise geordnet. Dann ist

”¤“ eine Wohlordnung und A ist

wohlgeordnet , falls jede nichtleere Teilmenge von A ein kleinstes Element besitzt.

1.1-28 Beispiel: Sei M ta, b, c, d, e, g, h, xu und eine Ordnung auf M (und auf ihren Teilmengen A

und B) definiert durch den Graphen:

h x

e f g

c a d

b

B

A

M selbst hat zwei minimale Elemente (h und x) und kein kleinstes Element, aber ein großtes Element(b). A tc, a, e, fu hat je zwei minimale und maximale Elemente. B ta, e, f, hu hat kein großtes undein kleinstes (h) Element. a und f sind maximale Elemente von B. M ist nicht wohlgeordnet.

1.1-29 Definition: Eine Menge A heißt endlich, falls sie nur endlich viele Elemente besitzt, sonstunendlich.

1.1-30 Beispiele/Probleme:

1. Jede teilweise geordnete endliche nichtleere Menge A besitzt minimale und maximale Elemente. IstA endlich und linear geordnet, so besitzt es ein kleinstes und ein großtes Element.

2. Jede Wohlordnung auf A ist eine Totalordnung.

3. N mit der gewohnlichen Ordnung”¤“ (a ¤ b b a P N0) ist wohlgeordnet.

4. R mit gewohnlicher Ordnung”¤“ ist nicht wohlgeordnet.

5. pZ,¤q ist nicht wohlgeordnet.

6. M ZzN tz P Z | z ¤ 0u ist nicht wohlgeordnet bzgl. der gewohnlichen Ordnung”¤“, aber

bzgl. der dazu entgegengesetzten Ordnung.

14

1.1-31 Wohlordnungssatz pAxiomq: Jede Menge lasst sich wohlordnen.

1.1-32 Bemerkung: Die gewohnliche Ordnung auf den reellen Zahlen R ist keine Wohlordnung. Inder Tat handelt es sich in 1.1-31 um ein echtes Axiom, d. h. man kann es den Axiomen der Mengenlehrehinzufugen oder auch sein Gegenteil (

”Es gibt Mengen, die sich nicht wohlordnen lassen“): In beiden

Fallen wird man keinen Widerspruch zu den Axiomen der Mengenlehre erzeugen konnen. Was bedeutetes, wenn man z. B. R wohlordnen kann, etwa durch ¨?Dann hat nach Definition R ein kleinstes Element, etwa x P R. Als nachstes wurde man das kleinsteElement y von Rztxu nehmen, dann das kleinste Element z von Rztx, yu usw. Man konnte auf dieseWeise die Elemente von R diskret, nach ihrer linearen Ordnung ¨ auflisten. Die Tatsache, dass wir eshier mit einem Axiom, nicht mit einem beweisbaren Satz zu tun haben, impliziert nun insbesondere, dasswir dies auf keinen Fall konkret tun konnen, dass wir aber keinen Fehler machen, wenn wir so tun, alskonnten wir es! Der Wohlordnungssatz ist aquivalent zu folgenden Aussagen:

1. Auswahlaxiom: Sei tAα | α P I Indexmengeu ein System von nichtleeren Mengen. Dann kannman (simultan) aus jedem Aαpα P Iq ein Element auswahlen, genauer: Es gibt eine Auswahlfunktionvon I in

αPI

Aα, die jedem α P I ein xα P Aα zuordnet.

2. Zorn’sches Lemma: Sei M durch”¤“ teilweise geordnet. Eine Kette in M ist eine Teilmenge K

so, dass”¤“ eingeschrankt auf K die Menge K zur linear geordneten Teilmenge macht. Die Aussage

des Zorn’schen Lemma ist nun: Ist M H und besitzt jede Kette K in M eine obere Schranke inM, so hat M selbst maximale Elemente.

Wohlordnungssatz, Auswahlaxiom und Zorn’sches Lemma sind aquivalent, d. h. sie gelten entweder alledrei zugleich, oder keines von ihnen gilt.Am Auswahlaxiom sieht man aber, dass man dieses

”Tripelaxiom“ wohl besser als wahr voraussetzt. Sonst

wurde man allnaselang uber Kollektionen von Mengensystemen stolpern, bei denen man nicht Elementeaus den einzelnen Mengen des Systems auswahlen kann. Aber wieder: Man kann dies i. A. nicht konkrettun, man macht nur keinen Fehler, wenn man so tut, als konne man es.

1.2 Vollstandige Induktion

Die vollstandige Induktion ist ein Beweisverfahren, das oft zur Anwendung kommt. Im Prinzip funktioniertes fur jede wohlgeordnete Menge, wir beschranken uns hier aber auf den Fall der naturlichen Zahlen N

mit der naturlichen Wohlordnung”¤“.

Vorgelegt sei eine Aussageform Apnq in der Variablen n P N. Wir wollen untersuchen, ob Apnq eine wahreAussage ist fur jede Einsetzung einer naturlichen Zahl m P N, d. h. wir vermutentm P N | Apmq ist wahre Aussageu N

Um so etwas zu beweisen, geht man folgendermaßen vor:

1.2-1 Satz: Sei Apnq Aussageform in der Variablen n uber dem Grundbereich N. Wenn gilt:

1. Ap1q ist wahr.”Induktionsanfang“

2. Apnq ñ Apn 1q”Induktionsschluss“

Dann ist tm P N | Apmq ist wahre Aussageu N.Die Aussage Apnq in 2. nennt man

”Induktionsannahme“oder

”Induktionsvoraussetzung“.

15

1.2-2 Beispiele/Probleme:

1.n

i1

i 1 2 3 pn 1q n pn 1qn2

Apnq2. Sei M tx1, . . . , xnu Menge mit genau n Elementen x1, . . . , xn. Dann hat M 2n viele Teilmengen.

(d. h. PpMq hat genau 2n viele Elemente.)

1.2-3 Bemerkung:

1. Oft benutzt man als Induktionsannahme nicht nur Apnq, sondern mehrere der Apmq mit m ¤ n1,d. h. man schließt:

(a) Ap1q ist wahr.

(b) Ap1q ^Ap2q ^ . . .^Apnq ñ Apn 1q2. Induktionsanfang kann manchmal eine andere naturliche oder sogar eine negative Zahl sein. Man

schließt: Gilt

(a) Apn0q ist richtig fur die ganze Zahl n0 P Z.

(b) Apn0q ^Apn0 1q ^ . . .^Apm 1q ñ Apmq fur n0 m P Z,

dann ist Apkq richtig fur alle k P Z mit k ¥ n0.

3. Ist I wohlgeordnete Menge mit kleinstem Element i0 und gilt

(a) Api0q ist wahr.

(b) Fur m i0 gilt: Apjq wahr j mñ Apmq ist wahr.

Dann ist Apkq wahr fur alle k P I.1.3 Abbildungen

Der Begriff der Relation lasst sich erweitern: Sind A und B Mengen, so ist eine Relation zwischen Ele-menten von A und Elementen von B eine Teilmenge R AB. Abbildungen sind nun solche Relationenmit zusatzlichen, besonderen Eigenschaften:

1.3-1 Definition: Seien A,B Mengen. Eine Abbildung f (auch Funktion, Operator) von A nach B isteine Teilmenge des kartesischen Produkts AB:

f ABmit folgenden Eigenschaften:

1. a P A Db P B : pa, bq P f (”Jedes Element von A wird in ein Element von B abgebildet.“)

2. Sind b, c P B und a P A mit pa, bq P f und pa, cq P f , so ist b c. (”Ein Element a P A wird auf

genau ein Element von B abgebildet, nicht auf zwei oder mehr“)

Wir schreiben dann: f : A Ñ B oder AfÑ B und anstatt pa, bq P f schreiben wir f : a ÞÑ b, b fpaq

(oder b af oder b af oder b fa etc.) Die Teilmenge f tpa, fpaqq P A B | a P Au von A B

wird auch Graph der Abbildung f genannt.

Visualisierung: Wir konnen Abbildungen durch Bilder visualisieren:

16

1. Durch den Graphen:B

As1 s2 s3 s

t(s, t)

im f

f

Die rote Linie ist der Graph. In diesem Fall gilt fps1q fps2q fps3q und fpsq t. Das Bildim f B ist auf der B-Achse markiert.

2. Durch Pfeildiagramme:

A B

keine Abbildung

A B

Abbildung AÑ B

Das Pfeildiagramm in der ersten Abbildung ist keine Abbildung, denn es gibt Punkte in A, vondenen keine Pfeile ausgehen, und ein Punkt, von dem zwei Pfeile ausgehen. In der zweiten Abbildunggeht von jedem Punkt in A genau ein Pfeil aus, dieses Pfeildiagramm steht fur eine Abbildung vonA nach B.

Abbildungen, als Teilmengen des kartesischen Produkts AB konnen auf verschiedene Weisen festgelegtwerden:

1. Mengenlisten tpa1, fpa1qq, pa2, fpa2qq, . . .u (klappt bei endlichen Mengen A ganz gut!)

2. Als Mengen durch eine definierende Aussageform:f tpa, bq P AB | a P A, Formel fur fpaq oder allgemeiner: Aussageform fur fpaqu

1.3-2 Beispiele:

1. Die Liste tpa, rq, pb, uq, pc, tq, pd, tq, pe, uqu definiert eine Abbildung, das zugehorige Pfeildiagrammist

a

bc

de

r

s

t

u

A B

17

2. f : R Ñ R : x ÞÑ x2, d. h. fpxq x2

3. g : R Ñ R : x ÞÑ sinx

x2

y

x

Graph von x2

sinxy

x

Graph von sinx

4. g : R Ñ R gegeben durch

gpxq "1 wenn x rational ist0 wenn x irrational ist

(Zeichnung des Graphen ist nicht moglich.)

5. F : Z Ñ Z : x ÞÑ 2x, so ist F tpx, 2xq P Z Z | x P Zu.1.3-3 Anmerkung: Viele Abbildungen lassen sich weder durch eine Liste noch durch eine definierendeFormel/ Aussageform/ Eigenschaften beschreiben. Klar ist: Ist A endliche Menge, B beliebige Menge, solasst sich im Prinzip jede Abbildung von A nach B durch eine Liste angeben (in der Praxis, wenn A so umdie 1025 Elemente hat, durfte auch dies schwerfallen!). Ist B jedoch unendlich, wird man die Gesamtheitaller solcher Abbildungslisten jedoch auch nicht auflisten konnen, eine solche Liste ware unendlich. Sindjedoch A und B endliche Mengen, so kann man im Prinzip alle Abbildungen von A nach B durch Listenauflisten (direkt als Teilmengen von AB). Nun denke man aber an die Menge der Abbildungen von R

nach R. Keine kann man als Liste geben, und nur in ganz wenigen Ausnahmen durch eine Formel oderAussageform, etc. Die allermeisten derartigen Funktionen werden

”wild“, d. h. nicht beschreibbar sein.

Und doch macht es, wie wir spater sehen werden, Sinn, etwa von der Menge der Abbildungen von R nachR zu sprechen, selbst wenn die weitaus uberwiegende Mehrzahl der Elemente dieser Menge konkret nichtbeschreibbar ist!

1.3-4 Beachte: Seien A,B Mengen, f : A Ñ B, g : A Ñ B Abbildungen. So ist f g dann und nurdann, wenn die beiden Teilmengen f und g von AB gleich sind, d. h. wenn fpaq gpaq fur alle a P Agilt.

1.3-5 Definitionen: Seien A,B Mengen und f : AÑ B sei Abbildung. Dann heißt A der Definitions-bereich von f , und die Teilmenge tb P B | Da P A : b fpaqu tfpaq | a P Au heißt Bild von f . Manbezeichnet diese Menge mit im f tfpaq | a P Au, und fur a P A heißt fpaq das Bild von a unter f

18

(Bild=image). Ist X A, so definieren wir die Einschrankung f |X von f auf X als die Abbildung von Xnach B, die einem x P X das Bild fpxq zuordnet (also f |X tpx, bq P XB AB | x P X^px, bq P fu).Klar ist, dass im f |X tfpxq | x P Xu im f tfpaq | a P Au ist. im f |X fpXq heißt auch Bild derTeilmenge X von A unter der Abbildung f .

1.3-6 Bemerkung:

1. f und f |X unterscheiden sich also durch ihren Definitionsbereich (im ersten Fall A, im zweiten FallX) und moglicherweise durch ihr Bild; im f |X kann echte Teilmenge von im f sein. Ist f durch eine

”Zuordnungsvorschrift“ gegeben (etwa fpxq x2), so bleibt diese naturlich unberuhrt.

2. In der Literatur wird die Unterscheidung nach Definitionsbereich oft unterdruckt. So spricht manz. B. von der Funktion f : Rzt0u Ñ R : x ÞÑ 1

xhaufig als Abbildung von den reellen in die reelle

Zahlen, obwohl der Definitionsbereich nur Rzt0u ist.

1.3-7 Definition: Sei f : A Ñ B Abbildung. Die Umkehrrelation von f ist gegeben durch f1 tpb, aq P B A | pa, bq P fu tpb, aq P B A | fpaq bu. Ist U B, so ist f1pUq ta P A | fpaq P Uueine Teilmenge von A, das volle Urbild von U unter f . Fur U tbu (b P B) schreiben wir auch f1pbqstatt f1ptbuq.Beachte: f1 ist in der Regel keine Abbildung, da weder jedes b P B als erste Komponente in einemPaar von f1 vorkommen muss, noch fur ein b P B nur ein a P A als zweite Komponente in Paarenpb, aq P f1 vorkommen muss. (Kommen alle b als erste Komponente vor, spricht man auch gelegentlichvon einer

”vieldeutigen Funktion“)

1.3-8 Definition: Seien A,B,C Mengen, f : A Ñ B, g : B Ñ C Abbildungen. Die Hintereinander-ausfuhrung (Komposition) g f gf von f und g ist definiert durch:

g f : AÑ C : a ÞÑ gpfpaqq P C.(Diese Abbildung ist definiert, denn fur jedes a P A ist fpaq P B und daher kann die Abbildung g auffpaq P B

”angewandt“ werden, um ein Element aus C zu erhalten.)

A B Cf g

g f A B C

f g

g f

1.3-9 Beispiel: A B C R, fpxq x2, gpxq sinx, dann ist gfpxq sinx2 und fgpxq sin2 x.

Beachte: Abbildungen konnen nur dann verknupft werden, wenn der Wertebereich der zweiten Funktion(hier f) im Definitionsbereich der ersten (hier g) enthalten ist.

19

1.3-10 Definition: Sei f : AÑ B Abbildung.

1. f ist injektiv , falls gilt: Sind a, b P A und ist fpaq fpbq, so ist a b. (”An jedem Element von B

kommt hochstens ein Abbildungspfeil an.“)

A B

f

2. f ist surjektiv , falls gilt: Fur alle b P B gibt es ein a P A mit fpaq b. (”An jedem Element von B

kommt mindestens ein Abbildungspfeil an.“)

A B

f

3. f ist bijektiv , wenn f injektiv und surjektiv ist.

A B

f

4. Eine bijektive Abbildung f : AÑ A nennt man Permutation von A.

Wenn f nicht injektiv ist, ist f1 keine Abbildung, da es Punkte in B gibt, von denen mehrere Pfeileausgehen:

A B

f

AB

f−1

Ist f nicht surjektiv, dann ist f1 keine Abbildung, da es Punkte in B gibt, von denen keine Pfeileausgehen:

20

A B

f

AB

f−1

1.3-11 Probleme: Sei f : AÑ B Abbildung.

1. f ist injektiv f1 : im f Ñ A ist Abbildung.Diese ist dann surjektiv und injektiv, d. h. bijektiv.

2. f ist surjektiv im f B.

1.3-12 Definition: Sei A Menge. Die Abbildung g : A Ñ A : a ÞÑ a a P A heißt Identitat auf A undwird mit idA bezeichnet.

1.3-13 Lemma: Sei f : A Ñ B Abbildung. Dann ist idB f f f idA. Die Identitat wirkt so wieeine

”Eins“ fur die Komposition von Abbildungen.

1.3-14 Satz: Sei f : A Ñ B Abbildung. Dann ist f bijektiv genau dann, wenn es eine Abbildungg : B Ñ A gibt mit f g idB und g f idA. Die Abbildung g ist dann eindeutig bestimmt und istmit der Umkehrrelation nach Definition 1.3-7 identisch. Sie heißt Umkehrabbildung und wird mit f1

bezeichnet. Sie ist ebenfalls bijektiv.

A B

f

AB

f−1

1.3-15 Probleme:

1. Die Komposition von injektiven, (surjektiven, bijektiven) Abbildungen ist injektiv (surjektiv, bijek-tiv).

2. Seien f, g : AÑ B, h : B Ñ C Abbildungen mit h injektiv. Ist h f h g, so ist f g (InjektiveAbbildungen kann man links kurzen).

3. Seien f, g : AÑ B, h : C Ñ A Abbildungen mit h surjektiv. Ist f h g h, so ist f g.

1.3-16 Definition: Sei M Menge. Die Machtigkeit |M| von M ist wie folgt definiert:

1. Gibt es eine Bijektion zwischen M und t1, . . . , nu N, so ist |M| n und M ist endliche Menge.

2. Gibt es eine Bijektion zwischen M und N, so ist |M| abzahlbar unendlich ( ℵ0).

3. Ist M nicht endlich und gibt es keine Bijektion zwischen M und N, so ist |M| uberabzahlbar.

21

1.3-17 Bemerkungen:

1. Fur eine abzahlbare Menge M kann man die Elemente von M auflisten: M tm1,m2, . . .u. Manwahle nur eine Bijektion f : N ÑM und setze mi fpiq fur i P N.

2. Ist I eine Menge, so ist eine Familie von mathematischen Objekten mit Indexmenge I eine Ab-bildung f : I Ñ t dieser mathematischen Objekte u. Man bezeichnet dann fpiq Ai P t diesermathematischen Objekte u und schreibt anstatt f einfach pAiqiPI . Zum Beispiel ist eine FolgepαiqiPN pα1, α2, . . .q eine Abbildung N Ñ R : i ÞÑ αi P R.

3. Auf der”Klasse“ aller Mengen (diese kann selbst keine Menge sein, infolge der Erkenntnisse aus

der Grundlagenkrise) kann man eine Aquivalenzrelation definieren durch A B Df : AÑ B

mit f bijektiv. Die Aquivalenzklassen bilden die Kardinalitaten oder Machtigkeiten, n P N undabzahlbar sind solche, uberabzahlbar wird weiter aufgefachert.

1.3-18 Satz:

1. Z und Q sind abzahlbar.

2. Die Vereinigung abzahlbar vieler abzahlbarer Mengen ist abzahlbar.

3. R und C sind uberabzahlbar.

4. Ist M Menge, so ist |M| |PpMq|1.3-19 Bemerkung: 4. in Satz 1.3-18 zeigt, dass es nicht nur zwei

”Qualitaten“ von Unendlich gibt,

namlich abzahlbar und uberabzahlbar, sondern eine ganze (undendliche) Hierarchie von”unendlich“. Die

Kardinalitaten sind geordnet, man weiß namlich, dass gilt: Ist A Ñ B injektive Abbildung, so kanneine Injektion von B Ñ A nur dann existieren, wenn |A| |B| ist, also eine Bijektion zwischen A undB existiert. Daraus folgt, dass durch |M| ¤ |N| dann und nur dann, wenn eine injektive Abbildungvon M nach N existiert, auf den Kardinalitaten eine (teilweise) Ordnung definiert wird. Man kann nunein Universum aus dem Nichts aufbauen: Man startet mit der leeren Menge H, deren PotenzmengeN0 PpHq tHu (mit |N0| 1) und definiert induktiv Ni PpNi1q ( N1 tH, tHuu, N2 tH, tHu, ttHuu, tH, tHuuuq, usw.q und N8 A1 Y8

i0Ni mit |N8| |A1| abzahlbar. Nun kannman mit A2 PpA1q fortfahren, usw. Betrachtet man dazuhin die Kardinalitaten der Teilmengen der Ni

und Ai, so erhalt man unter anderem die naturlichen Zahlen und z. B. die Kardinalitaten der Mengenzwischen Q und R. Nun kommt die Uberraschung: Gibt es Kardinalitaten echt zwischen |N| und |R|?Die Antwort ist merkwurdig: Man kann annehmen, dass es zwischen |N| und |R| keine weiteren gibt(Kontinuumshypothese), ohne einen Widerspruch zu erzeugen. Man kann aber auch annehmen, dassdazwischen noch mindestens eine weitere Kardinalitat existiert, ohne einen Widerspruch zu erzeugen.Das heißt, die Kontinuumshypothese (

”Zwischen abzahlbar und uberabzahlbar gibt es keine weiteren

Kardinalitaten“) ist ein echtes Axiom (Godel und Cohen), (unter der Voraussetzung, dass die Axiomeder Mengelehre widerspruchsfrei sind). Nimmt man das Auswahlaxiom als wahr an, so folgt, dass dieKardinalitaten mit obiger Ordnung linear geordnet sind.

22

Kapitel 2

Analytische Geometrie der Ebeneund des Raums

2.1 Vektoren in der Ebene und im Raum

Viele physikalische Großen besitzen nicht nur einen Betrag, sondern auch eine Richtung.

2.1-1 Beispiel pPhysikalische Vektorgroßenq:1. Kraft2. Geschwindigkeit3. Beschleunigung

Derartige Großen konnen zusammengesetzt werden: Wirken z. B. zwei Krafte auf einen Korper ein, soaddieren sich deren Betrage zur resultierenden Gesamtkraft nur dann, wenn beide Krafte in dieselbeRichtung wirken. Ist dies nicht der Fall, so hat die resultierende Gesamtkraft einen echt kleineren Betragals die Summe der Betrage der Einzelkrafte.Desweiteren sind solche Vektorgroßen frei beweglich: Fahrt ein Auto mit 50 kmh in nordliche Richtung,so ist es gleichgultig fur seine Geschwindigkeit, ob es in Stuttgart oder in Hamburg startet.Vektorgroßen werden durch einen Pfeil in der Ebene oder im Raum dargestellt. Dabei gibt die Pfeilrich-tung die Richtung , seine Lange den Betrag der Kraft, Geschwindigkeit, Beschleunigung etc. an. Pfeilederselben Lange und Richtung, die sich nur durch ihren Anfangspunkt unterscheiden, reprasentierendenselben Vektor.Dies wollen wir nun etwas praziser erfassen. Wir starten mit der Ebene E2 (Raum E3) als Menge vonPunkten. Wir setzen E E2 oder E3. Wir bezeichnen Punkte von E mit A,B, . . . und Geraden mitg, h, . . ..

2.1-2 Bezeichnung:

dpA,Bq Abstand der Punkte A und BpA,Bq Verbindungsgerade durch A und Bg, h sind parallel , falls sie in einer Ebene liegen und keinen Punkt gemeinsam haben

oder gleich sindAB ist die gerichtete Strecke mit Anfangspunkt A und Endpunkt B

23

2.1-3 Definition: Die gerichteten Strecken AB und CD heißen verschiebungsgleich, falls es eine Paral-lelverschiebung (

”Translation“) gibt, die A in C und B in D uberfuhrt.

A

B

C

DTranslation (Parallelverschiebung)

2.1-4 Problem: Die Relation”verschiebungsgleich sein“ ist eine Aquivalenzrelation auf der Menge der

gerichteten Strecken in E2 (bzw. E3).

2.1-5 Definition: Die Aquivalenzklassen der Relation”verschiebungsgleich sein“ auf der Menge der

gerichteten Strecken in E2 (bzw. E3) heißen Vektoren. Ist AB eine gerichtete Strecke, so wird die Aquiva-lenzklasse rABs tCD |CD und AB sind verschiebungsgleichu mit

ÝÝÑAB, oder schlicht mit ~a bezeichnet,

wenn man keinen Wert auf den Reprasentanten AB vonÝÝÑAB legt.

Wir fixieren nun einen Punkt O von E (Ursprung). Ist ~a ein Vektor, so gibt es genau einen Punkt P P Eso, dass

ÝÝÑOP ~a ist; denn ist ~a ÝÝÑAB und τ die eindeutige Translation, die A in den Ursprung O von E

uberfuhrt, so ist P τpBq.τ

τ

A

B

O

P

~a

~a

~a

~a

−−→AB =

−−→OP

Klar ist, dass ein Vektor ~a durch seine Richtung und seine Lange eindeutig festgelegt ist. Dabei ist dieLange |~a| des Vektors ~a ÝÝÑAB durch dpA,Bq definiert. Man uberzeugt sich leicht, dass dpA,Bq dpC,Dqist, falls

ÝÝÑAB und

ÝÝÑCD verschiebungsgleich sind und daher ~a ÝÝÑAB ÝÝÑCD ist.

Die Menge der Vektoren in E wird im folgenden mit V bezeichnet.

2.1-6 Definition:

1. Sei A Punkt von E . Dann ist ~o ÝÑAA rAAs der Nullvektor . Er hat Lange 0, und es ist ~o ÝÝÑBBfur alle B P E . Die zugehorige Translation ist die identische Abbildung idE .

2. Sein ~a,~b P V , so erklaren wir die Summe ~a ~b P V wie folgt: Wahle O P E und A,C P E so, dass~a ÝÑOA und ~b ÝÑAC ist. Wir definieren: ~a~b ÝÝÑOC P V .(Dies ist die Parallelogrammregel: Wir heften ~a an den Ursprung, und ~b an den Endpunkt von ~a

an. Dann spannen ~a und ~b ein Parallelogramm auf, dessen Diagonale ~a~b ist.)

24

A

B

O

C

~a

~a

~b

~b~a+~b

2.1-7 Satz: Die Addition geometrischer Vektoren in E erfullt folgende Rechenregeln:

V 1q ~a,~b,~c P V ~a p~b ~cq p~a~bq ~c (Assoziativitat)V 2q D~o P V : ~a P V ~a ~o ~o ~a ~a (Nullelement)

V 3q ~a P V D~a1 P V : ~a ~a1 ~o (additives Inverses)

V 4q ~a,~b P V ~a~b ~b ~a (Kommutativitat)

Wir schreiben ~a ~a1 fur das additive Inverse, es gilt: Ist ~a ÝÝÑAB, so ist ~a ÝÝÑBA.

2.1-8 Ausblick: Die Rechenregeln V 1q bis V 3q in 2.1-7 werden die abstrakten Axiome fur eine Gruppe,nimmt man die Kommutativitat V 4q hinzu, erhalt man eine abelsche Gruppe.

2.1-9 Definition pskalare Multiplikationq: Seien λ P R,~a P V . Dann ist λ~a P V der Vektor, der Lange|λ||~a| hat und der dieselbe (entgegengesetzte) Richtung wie ~a hat, wenn λ ¡ 0 (bzw. λ 0) ist. Ist λ 0,so ist λ~a 0 ~a ~o, der Nullvektor.

~a

2~a−0, 5~a

2.1-10 Satz: Die in 2.1-9 definierte skalare Multiplikation erfullt die folgenden Rechenregeln:

V 5q ~a P V 1 ~a ~a p1 P R operiert wie die IdentitatqV 6q λ, µ P R,~a P V λpµ~aq pλµq~a (skalare Assoziativitat)V 7q λ, µ P R,~a P V pλ µq~a λ~a µ~a (skalare Multiplikation ist distributiv uber der

Addition von Skalaren)

V 8q λ P R,~a,~b P V λp~a~bq λ~a λ~b2.1-11 Ausblick: Die Rechenregeln V 1q bis V 8q in 2.1-7 und 2.1-10 ergeben die Axiome fur einenabstrakten (reellen) Vektorraum. Mit anderen Worten: Hat man eine Menge V zusammen mit einer

Addition : V V Ñ V : p~a,~bq ÞÑ ~a~b P V und einer skalaren Multiplikation R V Ñ V : pλ,~aq Ñ λ~a

gegeben, sodass die Rechengesetze V 1q bis V 8q gelten, so spricht man von V als reellem Vektorraum. Inden Axiomen V 1q bis V 8q kommen die Begriffe

”Lange (Betrag)“ und

”Richtung“ von Vektoren nicht mehr

vor, die braucht man fur den Vektorraum der geometrischen Vektoren in E2 bzw. E3 nur, um Additionund skalare Multiplikation zu definieren. Diese konnen fur andere Vektorraume aber ganz anders definiert

25

sein, wir werden sehen, dass z. B. die Menge der reellen Polynome, die stetigen reellen Funktionen, alsoganz andere Strukturen, Vektorraume bilden.

Basisdarstellung: Wahlefur E E2 ~n1, ~n2 P V so, dass ~n1 λ~n2 λ P R ist.fur E E3 ~n1, ~n2, ~n3 P V so, dass ~ni λ~nj µ~nk λ, µ P R und ti, j, ku t1, 2, 3u ist.

D. h. ~n1, ~n2 bzw. ~n1, ~n2, ~n3 liegen auf keiner Geraden bzw. Ebenen E .

Es gilt:

1. E E2: Sei ~a P V , dann gibt es eindeutig bestimmte λ, µ P R so, dass ~a λ~n1 µ~n2 ist.

~a

~n1 λ~n1

~n2

µ~n2

2. E E3: Sei ~a P V , dann gibt es eindeutig bestimmte λ, µ, ν P R so, dass ~a λ~n1 µ~n2 ν~n3 ist.

Beachte: Fur E2 braucht man wirklich 2 und fur E3 3 Vektoren, um 1. bzw. 2. zu bekommen. 2 ist furE2, und 3 fur E3 die Dimension von V .

2.1-12 Vorschau: Jeder Vektorraum V hat eine Basis. Die Anzahl der Elemente einer solchen Basishangt nur von V ab, und heißt Dimension von V und wird mit dimV bezeichnet (dim V n P NYt8u).2.1-13 Bezeichnung:

1. λ, µ wie oben heißen Komponenten von ~a bzgl. Basis ~n1, ~n2. Hat man eine feste Basis gewahlt,schreibt man oft ~a pλ, µq.

2. Fur E E3 schreibt man analog: ~a pλ, µ, νq.2.2 Die euklidische Ebene

Seien ~o ~a ÝÑOA und ~o ~b ÝÝÑOB Vektoren in E2, ϕ ?pOA,OBq sei der Winkel zwischen den StreckenOA und OB.

2.2-1 Definition:

~a~b |~a||~b| cosϕ P R

ist das Skalarprodukt von ~a und ~b.

26

2.2-2 Beachte: Das Skalarprodukt V V Ñ R ist Abbildung, die i. A. nicht assoziativ ist: ~ap~b~cq p~a~bq~c.Fur ~a ~o oder ~b ~o gilt ~a~b 0. Fur ~a,~b,~b1 P V und λ P R gelten die folgenden Rechenregeln:

S1q ~a~b ~b~aS2q ~ap~b~b1q ~a~b ~a~b1S3q ~apλ~bq pλ~aq~b λp~a~bqS4q ~a~a ~a2 ¡ 0 fur ~a 0

S5q Seien ~a ÝÑOA und ~b ÝÝÑOB von ~o verschieden. Dann ist

~a~b 0 ÝÑOA und

ÝÝÑOB sind senkrecht zueinander. Wir schreiben dann: ~a K ~b

Außerdem gilt:

1. ~o K ~a ~a P V2. ~a~a |~a||~a| cos 0 |~a|2.

2.2-3 Vorschau: S1q bis S5q werden als Axiome auf reellen Vektorraumen eine Geometrie definieren,die Langen- und Winkelmessung ermoglicht. Definition 2.2-1 wird dann z. B. die Definition fur cosϕ undsomit ϕ zum Winkel zwischen zwei Vektoren ~a und ~b, wahrend |~a| ?~a~a gesetzt wird.

2.2-4 Bemerkung:

1. Sind ~o ~n1, ~n2 P V mit ~n1 K ~n2, dann ist B t~n1, ~n2u eine Basis von V , eine Orthogonalbasis . Istdaruberhinaus |~n1| |~n2| 1, so heißt B Orthonormalbasis von V (kurz ONB).

2. Ist t~n1, ~n2u ONB, ~a pa1, a2q, ~b pb1, b2q bzgl. dieser Basis, so ist

~a~b a1b1 a2b2.

3. Unter den Voraussetzungen wie in 2. gilt |~a| ?~a~a aa21 a2

2

2.2-5 Definition: Seien ~a,~b P V . Die Gerade g durch ~a in Richtung von ~b ist die Menget~x ~a λ~b | λ P Ru.~a

~b

~b

~x

g

~x = ~a+ λ~b

O

Beachte: g geht durch den Ursprung ~a und ~b sind kollinear (bzw. linear abhangig), d. h. bilden keineBasis von V . In diesem Fall kann sogar ~a ~o gewahlt werden.Sei t~n1, ~n2u eine Basis von E2, ~a px1, y1q,~b px2, y2q bzgl. dieser Basis. Die Parameterdarstellung vong ist gegeben durch

g tpx, yq P V | x x1 λx2, y y1 λy2, λ P Ru.27

Seien nun ~x1 px1, y1q ~x2 px2, y2q zwei Vektoren in V . Sei

g die Gerade durch die”Punkte“ P1 und P2 mit ~x1 ÝÝÑOP1 und ~x2 ÝÝÑOP2 die Gerade

”durch ~x1 und ~x2“

~x2

~x1

g

O

P2

P1

~x1 − ~x2

Dann ist g Gerade durch ~x1 in Richtung ~x1 ~x2 ( ÝÝÝÑP2P1!). Die Parameterdarstellung dieser Gerade istalso

g tpx, yq P V | x x1 λpx1 x2q, y y1 λpy1 y2q, λ P Ru.Eliminiert man λ in den beiden Gleichungen x x1 λpx1 x2q und y y1 λpy1 y2q, so erhalt mandie Gleichung

y y1x x1

y1 y2x1 x2

Sei nun zusatzlich t~n1, ~n2uONB von V undO ein fest gewahlter Punkt von E2. Ist ~x px, yq x~n1y~n2 ÝÝÑOP , so sagen wir, P hat die Koordinaten x, y (bzgl. O und t~n1, ~n2u) und schreiben P px, yq.Die Gerade g durch ~x1 und ~x2 war gegeben durch

g t~x ~x1 λp~x1 ~x2q | λ P Ru,Sei ~a ein Vektor senkrecht zu ~x1 ~x2, dann gilt also

~a~x ax by ~ap~x1 λp~x1 ~x2qq ~a~x1 ax1 by1 d

und d ist unabhangig von dem gewahlten ~x auf der Geraden. So erhalt man die Hesse’sche Normalformvon g

~x~a d oder

ax by d, wobei ~a pa, bq ist.

28

~x2

~x1

~x1 − ~x2

~n2

~n1

O

|~a| = 1

~x

g

ϕ

|~x| cosϕ

Ist zusatzlich |~a| 1, so ist

d ~a~x |~a||~x| cos?p~a, ~xq |~x| cos?p~a, ~xq |~x| cosϕ,

daher ist |d| der Abstand des Ursprungs O von g:Sonst ist |d| der Abstand des Ursprungs von g multipliziert mit |~a|.2.2-6 Satz: Zu jeder Geraden g in E2 existieren a, b, d P R, sodass g tP px, yq P E2 | axby du ist,wobei pa, bq p0, 0q ist. Die Konstanten a, b, d sind durch g bis auf einen gemeinsamen Faktor bestimmt.Ist?a2 b2 1, so ist |d| der Abstand von g zum Urspung, sonst ist |d| ?a2 b2 multipliziert mit

dem Abstand von g zum Ursprung.

2.2-7 Korollar: Ist ax by d Hesse’sche Normalform der Gerade g mit a2 b2 1, dann ist

e |ax0 by0 d|der Abstand des Punktes P px0, y0q von g.

2.2-8 Satz: Der Schnittpunkt P py, xq zweier Geraden g1, g2 mit den Geradengleichungen

g1 : a1x b1y d1

g2 : a2x b2y d2

ist die Losungsgesamtheit dieses Gleichungssystems, falls Losungen existieren. Sonst sind g1 und g2 par-allel.

2.3 Der euklidische Raum

Ahnlich wie im letzten Abschnitt lasst sich im E3 ebenfalls ein Skalarprodukt definieren, die Ergebnissedes letzten Abschnitts gelten großtenteils auch fur E3. Seien ~o ~a ÝÑOA und ~o ~b ÝÝÑOB Vektoren inE2, ϕ ?pOA,OBq sei der Winkel zwischen den Strecken OA und OB. Dann ist das Skalarprodukt von

~a und ~b definiert durch~a~b |~a||~b| cosϕ

Das Skalarprodukt fur E3 erfullt die Rechenregeln und Eigenschaften aus 2.2-2.

29

2.3-1 Bemerkung:

1. Sind ~o ~n1, ~n2, ~n3 P V mit ~n1 K ~n2, ~n1 K ~n3 und ~n2 K ~n3, dann ist B t~n1, ~n2, ~n3u eine Basis vonV , eine Orthogonalbasis . Ist daruberhinaus |~n1| |~n2| |~n3| 1, so heißt B Orthonormalbasis vonV (kurz ONB).

2. Ist t~n1, ~n2, ~n3u ONB, ~a pa1, a2, a3q, ~b pb1, b2, b3q bzgl. dieser Basis, so ist

~a~b a1b1 a2b2 a3b3.

3. Unter den Voraussetzungen wie in 2. gilt |~a| ?~a~a aa21 a2

2 a23

2.3-2 Definition: Seien ~a,~b P V . Die Gerade g durch ~a in Richtung von ~b ist die Menget~x ~a λ~b | λ P Ru.Sei t~n1, ~n2, ~n3u eine Basis von E3, ~a px1, y1, z1q,~b px2, y2, z2q bzgl. dieser Basis. Die Parameterdar-stellung von g ist dann gegeben durch

g tpx, yq P V | x x1 λx2, y y1 λy2, z z1 λz2, λ P Ru.Sind zwei verschiedene Punkte P1 und P2 in E3 gegeben, und ~x1 ÝÝÑ

OP1 px1, y1, z1q, ~x2 ÝÝÑOP2 px2, y2, z2q, dann ist die Gerade durch P1 und P2 (bzw. durch ~x1 und ~x2) gegeben durch

g t~x ~x1 λp~x1 ~x2q | λ P Ru t~x px, y, zq P V | x x1 λpx1 x2q, y y1 λpy1 y2q, z z1 λpz1 z2q, λ P Ru.2.3-3 Definition/Lemma: Seien ~x1, ~x2, ~x

11, ~x

12 P V und

g : ~x ~x1 λp~x1 ~x2qg1 : ~x ~x11 λp~x11 ~x12q

zwei Geraden. Dann sind g und g1 parallel Dc P R : ~x1 ~x2 cp~x11 ~x12q.

x

y

z

~x1~x2

~x′1

~x′2

~x1 − ~x2

~x′1 − ~x′2

g

g′

O

30

Beachte: Sind g und g1 Geraden in E3, dann bekommt man den Schnittpunkt von g und g1, indem mandas folgende lineare Gleichungssystem lost:

x x1 λpx1 x2qy y1 λpy1 y2qz z1 λpz1 z2qx x11 µpx11 x12qy y11 µpy11 y12qz z11 µpz11 z12q

Dies ist ein System mit 6 Gleichungen in den 5 Unbekannten x, y, z, λ, µ. Es gibt nun verschiedeneMoglichkeiten:

1. Es gibt eine eindeutige Losung ~x0 px0, y0, z0q, P0 mit ~x0 ÝÝÑOP0 ist der Schnittpunkt von g undg1.

2. g und g1 sind parallel (keine Losung, Dc P R : ~x1 ~x2 cp~x11 ~x12q).3. g und g1 sind nicht parallel und schneiden sich nicht. Sie sind windschief . (~x1 ~x2 und ~x11 ~x12

spannen eine Ebene auf, keine Losung)

4. g g1 (System hat mehr als eine Losung.)

2.3-4 Definition: Gegeben seien drei Punkte Pi pxi, yi, ziq, ÝÝÑOP i ~xi, fur i 1, 2, 3, die nicht aufeiner Geraden g E3 liegen. Dann ist die Ebene e durch ~x1, ~x2, ~x3 (bzw. durch P1, P2, P3) gegeben durch

e t~x P V | ~x ~x1 λp~x1 ~x2q µp~x1 ~x3q, λ, µ P Rqu.Die Vektoren ~x1 ~x2 und ~x1 ~x3 heißen Richtungsvektoren. Ist ~x P e, so sagen wir

”~x liegt auf e“.

x

y

z

O

~x1

~x2

~x3 ~x1 − ~x3

~x1 − ~x2

e

31

Die Parameterdarstellung von e ist gegeben durch

e $&%~x px, y, zq P V x x1 λpx1 x2q µpx1 x3qy y1 λpy1 y2q µpy1 y3qz z1 λpz1 z2q µpz1 z3q , λ, µ P Rq,.- .

e ist die Ebene durch ~x1 in Richtung von ~x1 ~x2 und ~x1 ~x3.

Beachte: Die Richtungsvektoren sind Vektoren der Ebene e O liegt auf e.Sind e und e1 zwei Ebenen in E3 durch ~xi (i 1, 2, 3) bzw. durch ~x1i (, i 1, 2, 3), dann liefert die Berech-nung von eX e1 ein lineares Gleichungssystem mit 6 Gleichungen in den Unbekannten x, y, z, λ, µ, λ1, µ1.Dann ist

eX e1 $&% eine Gerade oderH, dann sind e und e1 parallel, e e1 odere e1

2.3-5 Satz:

1. Zwei verschiedene Ebenen schneiden sich entweder in einer Geraden oder gar nicht.

2. e und e1 sind parallel Dr1, r2, s1, s2 P R:

~x1 ~x2 r1p~x11 ~x12q r2p~x11 ~x13q~x1 ~x3 s1p~x11 ~x12q s2p~x11 ~x13q die Richtungsvektoren von e und e1 spannen dieselbe Ebene auf.

3.O P e D~x1, ~x2 P e : e x~x1, ~x2y t Linearkombinationen von ~x1 und ~x2u tλ~x1 µ~x2 | λ, µ P Ru Fur alle nicht kollinearen Vektoren ~x1, ~x2 P e gilt e x~x1, ~x2y .

Beachte: e ist in Parameterform durch 3 lineare Gleichungen in 5 Unbestimmten gegeben, durch Eli-mination der Parameter λ und µ erhalt man die Gleichung der Ebenen:

e : ax by cz d

Geometrische Interpretation: Sei ~n1, ~n2, ~n3 eine ONB von V . Wahle ~a pa, b, cq so, dass ~a K ~x1~x2

und ~a K ~x1 ~x3 ist. Dies geschieht durch Losen des linearen Gleichungssystems

apx1 x2q bpy1 y2q cpz1 z2q 0

apx1 x3q bpy1 y3q cpz1 z3q 0,

dies sind (homogene) Gleichungen in den 3 Unbekannten a, b, c, die Losung ist die Gerade orthogonal zue. Sei ~x P e, etwa ~x ~x1 λ0p~x1 ~x2q µ0p~x1 ~x3q, dann gilt

~a~x ~a~x1 λ0~ap~x1 ~x2q µ0~ap~x1 ~x3q ~a~x1 d

Ist daher ~x px, y, zq P e, so ist px, y, zq Losung einer linearen Gleichung ax by cz d. Ist umgekehrtax by cz d, so ist px, y, zq P e, da die Losungsgesamtheit dieser Gleichung eine Ebene ist, die~x1, ~x2 und ~x3 enthalt. pa, b, c, dq ist durch die Ebene e bis auf Faktoren r 0 eindeutig bestimmt, d. h.pra, rb, rc, rdq beschreiben dieselbe Ebene. Ist |~a| 1 ?a2 b2 c2, so ist |d| der Abstand der Ebenee zum Ursprung O.

32

O

~a

|d|

e

~x1 − ~x2

~x1 − ~x3

2.4 Das vektorielle Produkt

Sei wieder t~n1, ~n2, ~n3u eine ONB, ~a,~b P V mit ~a pa1, a2, a3q und ~b pb1, b2, b3q.2.4-1 Definition: Das Vektorprodukt ~a~b von ~a und ~b ist der Vektor ~c pc1, c2, c3q P V mit

c1 a2b3 a3b2

c2 a3b1 a1b3

c3 a1b2 a2b1.

2.4-2 Satz: Seien ~a,~b,~c, ~d P V und r P R. Dann gilt:

1. ~a~b ~b ~a,2. p~a~bq ~c ~a ~c~b ~c3. rp~a~bq pr~aq ~b ~a pr~bq4. ~a~b ~o p~a λ~b oder ~b λ~a fur ein λ P R)

5. ~ap~a~bq 0 ~bp~a~bq6. ~ap~b ~cq ~bp~c ~aq ~cp~a~bq (

”Spatprodukt“)

7. ~a p~b ~cq p~a~cq~b p~a~bq~c (”Grassmann’scher Entwicklungssatz“)

8. ~a p~b ~cq ~b p~c ~aq ~c p~a~bq ~o (”Lagrange’scher Vertauschungssatz“)

9. p~a~bqp~c ~dq p~a~cqp~b~dq p~a~dqp~b~cq (”Lagrange’sche Identitat“)

2.4-3 Satz: Seien ~a,~b P V mit ~a ~o ~b. Dann ist ~a~b P V ein Vektor senkrecht zu ~a und zu ~b, sodassp~a,~b,~a~bq ein Rechtssystem bilden, falls p~n1, ~n2, ~n3q ein solches bilden, und sodass gilt|~a~b| |~a||~b| sin?p~a,~bq,wobei ϕ ?p~a,~bq der (gerichtete) Winkel zwischen ~a und ~b ist. So ist |~a~b| der Flacheninhalt des von

~a und ~b aufgespannten Parallelogramms.

33

~b

~a

~a×~b

Fh = |~b| sinϕ

ϕ

2.4-4 Anwendung: Sei die Ebene e mit Richtungsvektoren ~x1 ~x2 und ~x1 ~x3 in Parameterformgegeben:

e t~x P V | ~x ~x1 λp~x1 ~x2q µp~x1 ~x3q, λ, µ P Rqu.Dann ist ~a p~x1~x2qp~x1~x3q Normalenvektor der Ebene, und die Hesse’sche Normalform der Ebeneist

e : ~x~a ~x1~a

Geometrisch: Nimmt man auf e ein Parallelogramm und verbindet man eine Ecke mit dem Ursprung,so ist das Volumen des entstehenden Parallelflachs unabhangig von der Lage dieses Eckpunkts auf e.

34

Kapitel 3

Reelle Vektorraume

3.1 Der n-dimensionale reelle Raum

3.1-1 Definition: Sei n P N. Die Elemente des n-dimensionalen reellen Vektorraums Rn sind die geord-neten n-Tupel von reellen Zahlen:

Rn : tv pα1, . . . , αnq | αi P R, i 1, . . . , nu .Insbesondere ist pα1, . . . , αnq pβ1, . . . , βnq ðñ i P t1, . . . , nu : αi βi .

Auf dem Rn erklart man eine Addition durchpα1, . . . , αnq pβ1, . . . , βnq pα1 β1, . . . , αn βnq,wobei αi, βi P R ist fur i 1, . . . , n. Die skalare Multiplikation von Vektoren v P Rn mit reellen Zahlenλ ist definiert durch:

λv λpα1, . . . , αnq pλα1, . . . , λαnq.3.1-2 Satz: Seien u, v, w, . . . P Rn, λ, µ, . . . P R.

1. Die Addition im Rn ist

(a) assoziativ, d.h. pu vq w u pv wq.(b) kommutativ, d.h. u v v u.

2. Der 0-Vektor 0 p0, . . . , 0q ist der einzige Vektor im Rn, sodass v 0 v 0 v ist fur allev P Rn.

3. Fur jeden Vektor v P Rn gibt es einen Vektor u P Rn, sodass vu 0 ist. Dieser Vektor hangt vonv ab, ist fur festes v eindeutig bestimmt und wird mit v bezeichnet.

4. Fur die skalare Multiplikation gilt:

(a) pλµqv λpµvq (skalare Assoziativitat),(b) λpu vq λu λv (skalare Distributivitat),(c) pλ µqv λv µv (vektorielle Distributivitat),(d) 1 v v ,

(e) 0 v 0 und(f) p1q v v.

35

3.1-3 Bemerkung: Wir haben auf dem Rn bisher keine Geometrie, d. h. keine Abstandsfunktion ein-gefuhrt. Wie fur die reelle Ebene und den reellen Raum kann man das aber machen. Fur viele Fragen derlinearen Algebra braucht man aber keine Geometrie, d. h. dies ist eine zusatzliche Struktur. Zusatzlichwollen wir die reellen Zahlen etwa durch komplexe oder ganz andere Zahlenbereiche (genannt Korper)ersetzen, wo man eine solche Zusatzstruktur nur noch in sehr eingeschranktem Maße zur Verfugung hat.Auf dem Rn werden wir spater jedoch eine Geometrie einfuhren und untersuchen. Der Rn zusammen mitdieser Zusatzstruktur wird dann Euklidscher Vektorraum genannt.

3.2 Linearkombinationen und Unterraume

3.2-1 Definition: Sei V Rn und sei v P V . Die Elemente der Menge tλv |λ P Ru heißen skalareVielfache von v. Wir schreiben auch

Rv tλv |λ P Ru .3.2-2 Problem:

1. Gibt es λ, µ P R, sodassλp4, 0q µp0, 5q p12,10q

ist? Sind λ und µ eindeutig bestimmt?

2. Was ist, wenn man im vorigen Problem die beiden Vektoren p4, 0q und p0, 5q durch drei Vektorenp1, 1q, p2, 1q und p3,2q ersetzt und nun drei Skalare sucht, um p12,10q als Linearkombinationdieser drei Vektoren zu schreiben. Wie eindeutig sind diese?

3. Jetzt nehme man fur dasselbe Problem p1, 2q und p?2,?

8q.3.2-3 Definition: Sei V Rn fur eine naturliche Zahl n, und sei H T eine Teilmenge von V . EineLinearkombination von T ist ein Ausdruck der Form

λ1v1 λ2v2 λkvk ,

wobei vi Elemente von T , die λi reelle Zahlen sind, i 1, . . . , k, und k P N ist.

3.2-4 Bemerkung: In obiger Definition kann T durchaus unendlich sein! Eine Summe von skalarenVielfachen von Elementen von T kann aber nur endlich viele Elemente von T involvieren, da wir keineunendlichen Summen definiert haben.

3.2-5 Definition: Seien V und T V wie oben. Die Menge aller Linearkombinationen von T heißtLinearer Aufspann von T und wird mit xT y bezeichnet. So istxT y #

k

i1

λivi |λi P R, vi P T, i 1, . . . , k, k P N

+.

Ist T tv1, v2, . . . , vku so schreiben wir auch xT y xv1, v2, . . . , vky anstatt xtv1, v2, . . . , vkuy.36

3.2-6 Bemerkung: Beachte, dass die Definition der Vielfachen eines Vektors gerade ein Spezialfall deslinearen Aufspanns ist: Man nehme T tvu in Definition 3.2-3 und erhalt xvy Rv.

Wir wollen aber nun die algebraischen Eigenschaften von solchen (und allgemeineren) Teilmengen reellerVektorraume studieren.

3.2-7 Satz: Sei T eine nichtleere Teilmenge des Rn und U xT y. Dann gilt:

1. Fur u, v P U ist u v P U .2. Fur u P U und λ P R ist λu P U .

Man sagt: Die Teilmenge U ist abgeschlossen bezuglich der Addition und der skalaren Multiplikation.

3.2-8 Beispiel: Sei V R3.

1. Sei u p1, 0, 0q und v p0, 1, 0q. Dann ist xu, vy die reelle Ebene R2, oder?2. Ist u p1, 1, 1q und v p1, 2, 0q, so sieht U xu, vy ebenfalls genau wie eine Ebene aus, oder?

Nun ist U aus obigem Beispiel sicher nicht von der Form Rirgendwas. So liegt es nahe, dass unsere Ein-schrankung, als Vektorraume nur die der Form Rn zuzulassen, sicher zu eng war.

3.2-9 Definition: Eine binare Operation auf einer Menge M ist eine Abbildung B : M M Ñ M.Sie wird gewohnlich mit einem Symbol , etc. bezeichnet, das zwischen die Argumente der Funktiongeschrieben wird, z. B.

Bpm1,m2q m1 m2 .

3.2-10 Definition: Ein reeller Vektorraum (oder R-Vektorraum, Vektorraum uber R) ist eine MengeV mit den folgenden Eigenschaften:

• Auf V ist eine assoziative und kommutative binare Operation , genannt Addition, definiert, sodassgilt: Es gibt ein Element v0 P V , sodass u v0 v0u u ist fur alle u P V . Dieses Element heißtNullelement oder Nullvektor und wird mit 0 bezeichnet. Fur jedes u P V gibt es ein u1 P V , sodassu u1 0 ist. Man bezeichnet u1 mit u und nennt es das additive Inverse von u.

• Es gibt eine Abbildung

R V Ñ V : pλ, uq ÞÑ λ u λu λ P R, u P Vgegeben, die die skalare Assoziativitat und die skalare und vektorielle Distributivitat von 3.1-2erfullt. Es ist 1 u u fur alle u P V .

Als Folgerung erhalt man nun sofort aus der Definition:

3.2-11 Korollar:

1. Nullvektor und inverse Elemente bezuglich der Addition sind eindeutig.

2. Fur alle u P V gilt 0 u 0.

3. Fur alle α P R gilt α 0 0.

4. Fur alle u P V gilt p1qu u.37

3.2-12 Definition pAbelsche Gruppenq: Eine Menge A zusammen mit einer binaren kommutativenund assoziativen Operation heißt abelsche Gruppe, falls ein Nullelement und zu jedem a P A einInverses a existiert. (So erfullt A die Bedingungen 1.) bis 3.) von Satz 3.1-2).

Der norwegische Mathematiker Niels Henrik Abel (1802-1829) hat abelsche Gruppen als erster unter-sucht und dazu benutzt zu beweisen, dass die allgemeine Gleichung

anxn an1x

n1 . . . a1x a0 0

n-ten Grades fur n ¥ 5 keine allgemeine Losung in Form von rationalen Operationen und Wurzeln besitzt.

3.2-13 Beispiel pAbelsche Gruppenq:1. Die ganzen Zahlen Z mit der Addition bilden eine abelsche Gruppe.

2. Die rationalen Zahlen Q bezuglich der Addition.

3. Die von 0 verschiedenen rationalen Zahlen Q bzgl. der Multiplikation.

4. Die komplexen Zahlen C bzgl. der Addition.

5. Die Menge der Translationen der Ebene bezuglich der Hintereinanderausfuhrung von Abbildungen.

6. Sei z P Z fest gewahlt. Fur fur m P Z sei

m ta P Z |m a kz Dk P Zu .Fur

m,n P Zpzq tm |m P Zudefinieren wir m n m n. Dann ist Zpzq bzgl. eine abelsche Gruppe.

3.2-14 Problem: Warum ist die leere Menge keine abelsche Gruppe? Welche Axiome sind verletzt,welche nicht?

Zuruck zu Vektorraumen. Die Einschrankung auf reelle Vektorraume ist sicherlich ebenfalls zu eng. Wirwollen auch komplexe und rationale Vektorraume zulassen. Solche Zahlbereiche nennt man Korper. Sosind Q und C Beispiele von Korpern. Hier ist eine formale Definition:

3.2-15 Definition pKorperq: Eine nichtleere Menge K mit zwei binaren Operationen und heißtKorper, falls K bezuglich der Addition eine abelsche Gruppe mit Nullelement 0 ist, die Menge K Kzt0u der von 0 verschiedenen Elemente von K eine abelsche Gruppe bezuglich der Multiplikation bildet und die Multiplikation distributiv uber der Addition ist.

Beispiele von Korpern sind R, Q und C.

3.2-16 Problem:

1. Ist Z ein Korper?

2. Die Menge Rpxq der rationalen Funktionen von R in sich ist mit der ublichen Addition und Multi-plikation von Funktionen ein Korper.

3. Die Menge Qp?2q aller reellen Zahlen der Form α β?2, α, β P Q mit der ublichen Addition undMultiplikation reeller Zahlen ist ein Korper. Welche Korperaxiome muss man checken, welche nicht?

38

3.2-17 Bemerkung: Man beachte, dass bei multiplikativer Schreibweise das Nullelement durch das

Einselement ersetzt wird (geschrieben als 1 oder oft auch e) und das Inverse v durch v1. Lasst manbei der Definition abelscher Gruppen die Forderung der Kommutativitat fallen, so spricht man einfachvon einer Gruppe. Als Beispiel fur eine nichtkommutative Gruppe nehme man etwa die Menge der inver-tierbaren stetigen Abbildungen der reellen Zahlen in sich mit der Hintereinanderausfuhrung als binareOperation. Abelsche Gruppen werden oft, aber nicht immer additiv geschrieben. Nichtkommutative Grup-pen werden in der Regel multiplikativ geschrieben. Das Null- bzw. Einselement einer Gruppe wird auchneutrales Element genannt und mit e bezeichnet. Eine Menge mit zwei binaren Operationen, die alleKorperaxiome bis auf die Kommutativitat der Multiplikation erfullen, heißt Schiefkorper oder Divisions-ring.Will man betonen, dass die Multiplikation kommutativ ist, spricht man von einem kommutativen Korper .

3.2-18 Problem: Sei K Korper, α, β P K. Welche der folgenden Aussagen gilt immer und welchenicht.

1. 0 α 0. (Wie verhalt sich das neutrale Element bzgl. der Addition unter Multiplikation?)

2. p1qα α. (Wie verhalt sich die additive Inverse der Eins unter Multiplikation?)

3. pαqpβq αβ. (Wie verhalten sich additive Inverse unter der Multiplikation?)

4. 1 1 0. (Wie verhalt sich die Eins unter Addition?)

5. Ist α 0 β, so ist αβ 0.

3.2-19 Bemerkung: Kann es passieren, dass fur einen Korper K das additive und das multiplikativeneutrale Element zusammenfallen, also 0 1 ist? Das ware sicher nicht im Sinne des Erfinders! Hierist eine legalistische Auflosung des Problems: Eines der Korperaxiome besagt, dass K Kzt0u eineGruppe ist, mit neutralem Element 1. Ist aber 0 1, so ware

K Kzt0u Kzt1uund 1 konnte nicht Element von K sein.

39

Kapitel 4

Struktur von Vektorraumen

4.1 Vektorraume und Unterraume

Wir konnen nun die allgemeine (und endgultige) Definition eines Vektorraums geben:

4.1-1 Definition: Sei K ein Korper. Ein Vektorraum uber K oder K-Vektorraum ist eine Menge Vmit einer binaren Operation : V V Ñ V und einer Abbildung

K V Ñ V : pλ, vq ÞÑ λv λ P K, v P Vgenannt skalare Multiplikation, die die folgenden Axiome erfullt:

V 1q u, v, w P V u pv wq pu vq w (Assoziativitat)V 2q D0 P V : v P V v 0 0 v v (Nullelement)V 3q v P V Dv1 P V : v v1 0 v1 v (additives Inverses)V 4q u, v P V u v v u (Kommutativitat)V 5q v P V 1 v v p1 P K operiert wie die IdentitatqV 6q λ, µ P K, v P V λpµvq pλµqv (skalare Assoziativitat)V 7q λ, µ P K, v P V pλ µqv λv µvV 8q λ P K,u, v P V λpu vq λu λv

Fur das additive Inverse v1 nach V 3q schreiben wir auch v. Um hervorzuheben, dass 0 das neutraleElement der Addition des Vektorraums V ist, schreibt man 0V . Die Axiome V 1q bis V 4q besagen, dassV eine abelsche Gruppe ist.

Korollar 3.2-11 gilt nun analog fur beliebige Vektorraume. Hier sind einige Beispiele von Vektorraumen:

4.1-2 Beispiele:

1. Rn und analog Qn,Cn, sowie Kn fur jeden Korper K.

2. Die Menge RR der Abbildungen von R in sich, mit der gewohnlichen Addition zweier Abbildungengegeben durch

f g : R Ñ R : λ ÞÑ fpλq gpλq f, g P RR

und der gewohnlichen skalaren Multiplikation gegeben durch

αf : R Ñ R : λ ÞÑ αfpλq α P R, f P RR .

3. Analog KK fur einen beliebigen Korper K.

40

4. Ein Korper K ist auch ein K-Vektorraum mit Addition und skalarer Multiplikation gegeben durchdie binaren Operationen in K.

4.1-3 Problem: Welche der definierenden Axiome eines Vektorraums sind in den folgenden Beispielennicht erfullt:

1. Der Vektorraum V sei die abelsche Gruppe pR2,q mit neuer skalarer Multiplikation: : R R2 Ñ R2 : pλ, vq ÞÑ λ v λ2v .

2. K sei ein Korper, V pK2,q mit neuer skalarer Multiplikation : K K2 Ñ K2 : pλ, pα, βqq ÞÑ λ pα, βq pλα, 0q .3. Sei K R und V R tα P R |α ¡ 0u. Wir definieren eine Addition ` auf V und eine skalare

Multiplikation d durch:u` v uv und λd u uλ

fur positive reelle Zahlen u, v und beliebige reelle Zahlen λ.

4. V K C mit gewohnlicher Addition und skalarer Multiplikation

λ v Repλqvfur v, λ P C.

4.1-4 Definition: Sei V ein Vektorraum uber einem KorperK. Eine nichtleere Teilmenge U von V heißtUnterraum von V , wenn U bezuglich der Addition und skalaren Multiplikation selbst ein Vektorraum ist.Wir schreiben dann U ¤ V bzw. U V , falls U zusatzlich eine echte Teilmenge von V ist, d. h. U V

gilt.

Hier sind einige Beispiele von Unterraumen:

4.1-5 Beispiele:

1. p0q t0u und V sind immer Unterraume eines Vektorraumes V .

2. Die in Beispiel 3.2-8 aufgefuhrten Mengen sind Unterraume des R3.

3. Die reellen Zahlen R sind ein Q-Vektorraum, wenn man die Multiplikation reeller Zahlen vergisstund eine reelle Zahl nur mit einer rationalen multipliziert. Q ist dann ein Q-Unterraum von R.

4. Sei K ein Unterkorper des Korpers L. Dann ist L ein K-Vektorraum und K ein K-Unterraum vonL.

5. Die Teilmenge der stetigen (differenzierbaren, rationalen) Funktionen in RR.

4.1-6 Definition: Sei K ein Korper. Krxs sei die Menge der formalen Ausdrucke der Form

fpxq n

i0

αixi

mit Koeffizienten αi P K fur i 1, . . . , n. fpxq nennt man Polynom. Zwei Polynome sind genau danngleich, wenn alle Koeffizienten ubereinstimmen (mit der Konvention αn1 αn2 . . . 0).

Beachte: Ist fpxq °ni0 αix

i ein Polynom und m ¡ n, dann ist f °mi0 αix

i mit αi 0 fur i ¡ n.

41

Krxs wird zum K-Vektorraum durchpf gqpxq n

i0

pαi βiqxipλfqpxq n

i0

pλαiqxi

fur λ P R, f °ni0 αix

i, g °ni0 βix

i.Ist fpxq °n

i0 αixi ein Polynom mit αn 0, dann nennt man n deg f den Grad von f . Fur f 0

setzt man deg f 1.Die Teilmenge Knrxs t°n

i0 αixi | α0, . . . , αn P Ku der Polynome vom Grad ¤ n bildet einen Unter-

raum von Krxs.4.1-7 Bemerkung: Man beachte, dass es einen Unterschied zwischen Polynomen und polynomialen

Funktionen gibt. Eine polynomiale Funktion ist eine Funktion f : K Ñ K von der Form fpxq °ni0 αix

i.Naturlich kann man jedem Polynom eine polynomiale Funktion zuordnen (d. h. es gibt eine (surjektive!)Abbildung von Krxs in die Menge der polynomialen Funktionen, die einem Polynom die entsprechendeFunktion zuordnet). Es ist aber nicht selbstverstandlich, dass diese Abbildung injektiv ist, d. h. dass jezwei verschiedene Polynome zu verschiedenen polynomialen Funktionen fuhren. In der Tat gibt es Korper,fur die dies nicht der Fall ist.

4.1-8 Problem: Rrxs kann mit dem Raum der polynomialen Funktionen von R nach R identifiziertwerden. Warum?

Von nun an ist K immer ein Korper und V ein K-Vektorraum.

4.1-9 Satz: Sei U eine nichtleere Teilmenge von V . Dann ist U genau dann ein Unterraum von V ,wenn gilt:

1. Sind u, v P U , so ist auch u v P U .2. Ist λ P K und v P U , so ist λv P U .

Offenbar sind diese beiden Bedingungen aquivalent zu λu µv P U fur alle λ, µ P K, u, v P U .

Bemerkung: In der ersten Bedingung konnte man”u v P U“ naturlich auch durch u v P U

ersetzen, denn die zweite Bedingung garantiert, dass mit v auch v p1qv P U ist. Der Grund fur dasMinus ist der folgende: Statt Untervektorraume von Vektorraumen kann man auch Untergruppen vonGruppen betrachten, und eine Untergruppe ist dann eine nichtleere Teilmenge der Gruppe, fur die dieerste Bedingung gilt (oder eventuell eine multiplikative Version davon).Wie in 3.2-5 lasst sich fur eine nichtleere Teilmenge T V der lineare Aufspann xT y alsxT y #

k

i1

λivi |λi P K, vi P T+definieren.Dieselben Argumente wie im Beweis von Satz 3.2-7 zeigen das folgende Korollar:

4.1-10 Korollar: Sei H T V . Dann ist xT y ein Unterraum von V .

42

4.1-11 Problem:

1. Im folgenden sind Teilmengen U von C3 gegeben. Welche sind C-Unterraume von C3, wenn U aussolchen Vektoren pα, β, γq besteht, fur die gilt:

(a) α 0,(b) β 0,(c) α β 1,(d) α β 0,(e) α P R.

2. Sei M die Teilmenge der Polynome p von Rrxs, fur die gilt:

(a) p hat Grad 3,(b) 2pp0q pp1q,(c) ppxq ¥ 0 x P r0, 1s,(d) ppxq pp1 xq x P R.

In welchen Fallen ist M ein R-Unterraum von Rrxs?3. Durchschnitt und Vereinigung:

(a) Ist der Durchschnitt zweier, endlich vieler, beliebig vieler Unterraume wieder eine Unterraum?(b) Was ist mit der mengentheoretischen Vereinigung?

4.2 Erzeugende

Von nun an sei K stets ein Korper und V ein K-Vektorraum.

4.2-1 Problem: Ist p2, 1, 1q P Q3 eine Linearkombination von u p1, 1, 1q, v p1, 1, 0q und w p2, 1, 0q? Welche Vektoren des Q3 sind Linearkombinationen von u, v und w?Beachte: 0 ist ein Skalar so gut wie jede andere rationale Zahl, ebenso wie 1. So istp1, 1, 1q 1 p1, 1, 1q 0 p1, 1, 0q 0 p2, 1, 0qim Aufspann xu, v, wy von tu, v, wu, ebenso wie der Nullvektor (alle drei Koeffizienten sind 0).

4.2-2 Definition: Eine Teilmenge H T eines K-Vektorraums V heißt Erzeugendensystem fur V ,falls

V xT yist, die Elemente von T heißen Erzeugende oder Erzeuger von V und man sagt, dass V von T erzeugtwird.

4.2-3 Probleme:

1. Konnen zwei Vektoren den R2 aufspannen?

2. Konnen zwei Vektoren den R3 aufspannen?

3. Kann Rrxs von einer endlichen Menge von Vektoren aufgespannt werden?

4. Konnen zwei disjunkte Teilmengen des R2, von denen jede zwei Vektoren enthalt, denselben Auf-spann haben?

Wir kommen nochmals auf den Aufspann einer Teilmenge von V zuruck. In 4.1-10 haben wir gesehen,dass dieser einen Unterraum bildet.

43

4.2-4 Satz: Sei H T V . Dann ist xT y £TU¤V

U

der kleinste Unterraum von V , der T als Teilmenge enthalt.

Wir haben den Aufspann xT y von H T V als Menge aller Linearkombinationen von endlichenTeilmengen von T definiert. Dies lasst sich mit folgender Verabredung wesentlich einfacher ausdrucken:Wenn wir uber die Elemente einer Menge M sagen, fast alle Elemente von M haben eine Eigenschaft,so meinen wir, die Eigenschaft gelte fur alle mit Ausnahme hochstens endlich vieler Elemente von M.Wenn wir etwa sagen, fast alle Glieder der reellen Folge pαiqiPN seien 0, dann meinen wir, dass die Folgeabbricht oder dass es ein k P N gibt, sodass αm 0 ist fur alle m ¥ k. Damit wird 3.2-3 zu

4.2-5 Definition: Sei H T V . Dann ist der von T aufgespannte Unterraum xT y von V die Menge#vPT

λvv |λv P K, λv 0 fur fast alle v P T+ .

Der Bequemlichkeit halber sei nun xHy p0q. Beachte, dass p0q ¤ V ist fur jeden Vektorraum V .

4.2-6 Lemma pMengen und ihr Aufspannq:1. Ist T V , dann ist T xT y.2. Ist T S V , dann ist xT y ¤ xSy ¤ V .

3. Ist T V , dann ist xxT yy xT y.4.2-7 Lemma: Sei U ¤ V . Dann ist xUy U .

4.2-8 Problem: Hat jeder Vektorraum ein Erzeugendensystem?

4.2-9 Problem: Sei U ¤ V , x, y P V und sei x R U , aber x P xU Y tyuy. Ist dannxU Y txuy xU Y tyuy?4.2-10 Probleme:

1. Sei K Q und sei V die Menge aller endlichen Folgen rationaler Zahlen. So ist V die MengetpaiqiPN | ai P Q, ai 0 fur fast alle i P Nu.Die Addition auf V und skalare Multiplikation ist wie ublich komponentenweise definiert. Hat Vein endliches Erzeugendensystem? Oder ein abzahlbar unendliches? Wenn ja, wie sieht ein solchesaus?

2. Was passiert, wenn man die Menge der endlichen rationalen Folgen durch die Menge aller rationalenFolgen ersetzt?

44

3. Sei K ein Korper. Ein Polynom ppxq P Krxs kann geschrieben werden als

ppxq 8i0

aixi ,

wobei fur die Koeffizienten ai gilt:

ai P K mit ai 0 fur fast alle i P N.

Hat Krxs ein abzahlbar unendliches Erzeugendensystem, und wenn ja welches?

4.3 Summen von Unterraumen

Wir haben in Problem 4.1-11 gesehen, dass Durchschnitte von beliebigen Unterraumen von V wiederUnterraume sind, wahrend dieselbe Aussage fur die mengentheoretische Vereinigung von Unterraumenim allgemeinen falsch ist.

4.3-1 Definition: Seien U,W ¤ V . Dann ist die Summe von U und W die Teilmenge

U W tx y |x P U, y PW uvon V .

4.3-2 Satz: Seien U,W ¤ V . Dann ist U W ein Unterraum von V , in der Tat ist

U W xU YW y £U,W¤X¤V

X

der kleinste Unterraum, der U und W enthalt.

4.3-3 Korollar: Die Addition von Unterraumen ist eine binare Operation auf der Menge der Un-terraume von V .

4.3-4 Probleme:

1. Ist die Menge der Unterraume von V eine abelsche Gruppe bzgl. der Summe von Unterraumen?

2. Unter welcher Bedingung gilt U W U fur U,W ¤ V ?

3. Ist die Menge der Unterraume von V eine abelsche Gruppe bzgl. des Durchschnitts von Unterraum-en?

4.3-5 Probleme: Seien U,W,X ¤ V .

1. Ist U pW XXq pU W q X pU Xq (ist die Addition distributiv uber dem Durchschnitt)?

2. Ist U X pW Xq pU XW q pU XXq?Beide Distributivgesetze gehen schief, (obwohl jedes Mal eine Seite in der anderen enthalten ist). Aberfolgende Abschwachung der Distributivitat des Durchschnitts uber der Addition gilt:

45

4.3-6 Satz: Seien U,W,X ¤ V . Dann ist

U X pW pU XXqq pU XW q pU XXq .Dies impliziert unmittelbar:

4.3-7 Korollar pDedekindscher Modulsatzq: Seien U,W,X ¤ V . Ist X U , so gilt:

U X pW Xq pU XW q X.4.3-8 Beobachtung: In der reellen Ebene betrachten wir zwei Geraden durch den Ursprung, die nicht

zusammenfallen. Diese konnen als Unterraume des R2 aufgefasst werden. Ihre Summe als Unterraume istdie ganze Ebene R2. Andererseits ist der Unterraum R2 das neutrale Element bezuglich des Durchschnittsvon Unterraumen. Umgekehrt: Der Durchschnitt dieser Geraden ist der Ursprung, d. h. der Unterraump0q, welcher hinwiederum das neutrale Element bezuglich der Summe zweier Unterraume ist.So sind die beiden Geraden invers zueinander, aber die Operationen sind vertauscht! Diese

”verschrank-

ten“ Inversen sind naturlich weit davon entfernt, eindeutig zu sein.

4.3-9 Definition: Zwei Unterraume U und W von V heißen komplementar , falls

U XW p0q und U W V

ist. W heißt dann Komplement von U .

Wir wollen nun noch kurz unendliche Durchschnitte und Summen diskutieren. Klar ist, dass wir induktivDurchschnitt und Summe endlich vieler Unterraume auf den zweier Unterraume zuruckfuhren konnen.Sei tUν | ν P N u eine mit einer Menge N indizierte Kollektion von Unterraumen Uν von V .

4.3-10 Definition:

1. Der Durchschnitt der Unterraume Uν , ν P N ist der Unterraum£νPN Uν tv P V | v P Uν ν P N u .

2. Die Summe der Unterraume Uν , ν P N ist der Unterraum°

νPN Uν bestehend aus Summen

v νPN vν P V

wobei vν P Uν ist, und vν 0 ist fur fast alle ν P N .

4.3-11 Lemma: Durchschnitt und Summe beliebiger Unterraume Uν (ν P N ) von V sind Unterraume.

Wir haben in Satz 4.2-4 gesehen, dass xT y der kleinste Unterraum von V ist, der die Teilmenge T vonV enthalt. Also:

4.3-12 Korollar: Eine Teilmenge T von V ist genau dann ein Erzeugendensystem von V , wenn siein keinem echten Unterraum von V enthalten ist. Insbesondere ist jede in V enthaltene Obermenge einesErzeugendensystems ebenfalls ein Erzeugendensystem.

46

4.3-13 Beispiel:

1. T t1, 1 x, 1 x x2u ist ein Erzeugendensystem von K2rxs.2. T t1, x, x2, x3, . . .u ist Erzeugendensystem fur Krxs und

3. T tp1, 0q, p0, 1q, p1, 1qu ist Erzeugendensystem fur R2.

Im ersten Beispiel haben wir eine Teilmenge, die endlich ist, aber nicht kleiner gemacht werden kann, imGegensatz zum dritten Beispiel: Hier genugen schon die beiden ersten Vektoren. Im zweiten Beispiel habenwir es mit einem unendlichen Erzeugendensystem zu tun, das man nicht kleiner machen kann. In der Tatsieht man intuitiv, K2rxs und R2 sind endlich-dimensional , wohingegen Krxs unendlich-dimensional ist.Ist jeder Unterraum eines endlich-dimensionalen Unterraums endlich-dimensional? Die Antwort ist ja,wie wir spater sehen werden.

4.3-14 Problem: Ist T ein Erzeugendensystem von V und U ¤ V , ist dann eine Teilmenge von T einErzeugendensystem fur U?

Im nachsten Abschnitt werden wir nun minimale Erzeugendensysteme studieren und sehen, dass manmit ihrer Hilfe zu einer vernunftigen Definition der Dimension eines Vektorraums kommt.

4.4 Minimale Erzeugendensysteme

Ein Erzeugendensystem T fur V heißt minimal , wenn es minimal bezuglich der Inklusion von Mengenist, d. h. wenn man keinen Vektor aus T entfernen darf, ohne die Eigenschaft ein Erzeugendensystemzu sein, zu zerstoren. Mit anderen Worten: T ist minimal genau dann, wenn jede echte Teilmenge vonT in einem echten Unterraum von V liegt. Wir wollen nun nach alternativen Beschreibungen dieserEigenschaft suchen. Wir beginnen damit, das Gegenteil, namlich die Eigenschaft nicht minimal zu sein,umzuformulieren.Wir beginnen mit zwei Beobachtungen:

4.4-1 Beobachtung: Sei T V .

1. 0 ist Linearkombination von T .2. Ist T Erzeugendensystem von V und 0 P T , so ist T nicht minimal.

4.4-2 Beispiel: Betrachten wir T tx, y, zu mit x p1, 0q, y p0, 1q und z p1, 1q im R2. Klarist, dass T kein minimales Erzeugendensystem ist, da ja T 1 tx, yu schon eines ist. In der Tat ist z dieSumme von x und y, und man kann leicht sehen, dass man in einem Erzeugendensystem T jedes Elementt von T , das sich als Linearkombination der anderen Elemente schreiben lasst, ohne weiteres weglassenkann, da man es ja dann in jeder Linearkombination, in der es vorkommt, durch eine Linearkombinationvon T 1 T zttu ersetzen kann und dann eine Linearkombination von T 1 erhalt. So ist etwa

x 2y 3z x 2y 3px yq 2x y .4.4-3 Lemma: Sei T V und sei t P T eine Linearkombination von T 1 T zttu. Dann istxT y

T 1D .Wir fahren mit unserer Diskussion von Beispiel 4.4-2 fort: Dass z die Summe von x und y ist, kann manin der folgenden, dazu aquivalenten Form ausdrucken:

x y z 0 .

47

Allgemein: Ist t °tvPT αvv mit αv P K, sodass αv 0 fur fast alle v P T ist, so hat man die

aquivalente Umformung:

vPT

βvv 0 ,

wobei βv αv fur t v P T und βt 1 ist. Die letzte Formel hat aber fur alle Elementen von T , furdie der Koeffizient βv 0 ist, dieselbe Form.

4.4-4 Lemma: Sei T V und sei t0 P T . Seien t1, t2, . . . , tk P T und α1, . . . , αk P K, sodass gilt:

t0 k

i1

αiti ,

dann ist jedes ti fur i 1, . . . , k Linearkombination von T zttiu, und der Nullvektor ist Linearkombinationvon T , sodass nicht alle Koeffizienten verschwinden.

Die Darstellung des Nullvektors0 0 v1 0 v2 0 vk

als Linearkombination der Vektoren v1, . . . , vk heißt triviale Darstellung der 0. Eine Darstellung des Null-vektors als Linearkombination von Vektoren mit mindestens einem nichtverschwindenden Koeffizientenheißt nichttriviale Darstellung der 0.

4.4-5 Definition: Eine Teilmenge T von V heißt linear abhangig, falls es eine nichttriviale Darstellungder 0 mit Vektoren aus T gibt, sonst linear unabhangig.

4.4-6 Problem: Ist die leere Menge linear abhangig oder linear unabhangig?

Ist T V linear unabhangig, so sagt man auch oft, die Vektoren in T seien linear unabhangig. Ist v P Veine Linearkombination von T V , so sagt man auch, v sei linear abhangig von T . Unmittelbar aus denDefinitionen folgt nun:

4.4-7 Satz:

1. Der Nullvektor ist von jeder Teilmenge von V linear abhangig.

2. Enthalt T V den Nullvektor, so ist T linear abhangig.

3. Nimmt man von einer linear unabhangigen Teilmenge Vektoren weg, so bleibt sie linear unabhangig.

4. Fugt man zu einem Erzeugendensystem von V Vektoren hinzu, so bleibt es ein Erzeugendensystem.

Hier ist nun unser erster fundamentaler Satz uber Erzeugendensysteme:

4.4-8 Satz: Sei T ein Erzeugendensystem fur V . Dann ist T minimal genau dann, wenn es linearunabhangig ist.

4.4-9 Definition: Ein minimales Erzeugendensystem von V heißt Basis von V .

Nun kommen wir zum zweiten fundamentalen Satz uber Erzeugendensysteme:

4.4-10 Satz: Eine Teilmenge T von V ist Basis von V genau dann, wenn T eine maximale, linearunabhangige Teilmenge von V ist.

Unmittelbar daraus ergeben sich nun folgende Fragen:

48

4.4-11 Frage:

1. Hat jeder Vektorraum eine Basis?

2. Kann man irgendwelche Eindeutigkeitsaussagen bzgl. einer Basis machen?

4.4-12 Probleme:

1. Was sind die Basen von R1 uber R?

2. Gibt es einen Vektor im R2, der ganz R2 erzeugt?

3. Sei x P R2. Was sind die Basen von R2, die x enthalten?

4. Kann der R2 eine linear unabhangige Menge bestehend aus drei Vektoren haben?

5. Wie kann man die Basen des R2 charakterisieren?

6. Gibt es vier linear unabhangige Vektoren im C3?

7. Was vermuten Sie uber die Anzahl der Elemente einer Basis von C3, R3, K3 oder allgemeiner Kn?

4.4-13 Probleme:

1. Hat der Nullraum p0q eine Basis, und wenn ja welche?

2. Wann hat ein Vektorraum V genau eine Basis?

Die Idee der linearen Unabhangigkeit ist fundamental fur die lineare Algebra (und daruber hinaus). Derbeste Weg, dass einem diese in Fleisch und Blut ubergeht ist, sich moglichst viele Beispiele anzusehen.Hier sind einige weitere:

4.4-14 Probleme:

1. Fur welche x P R ist t1, xu linear unabhangig uber Q?

2. Der R2 ist auch ein Vektorraum uber Q, oder? Man vergesse einfach, dass man außer mit rationalenZahlen auch mit reellen Zahlen multiplizieren kann. Wann sind p1 ζ, 1 ζq und p1 ζ, 1 ζq furζ P R linear unabhangig uber R, uber Q?

3. Gibt es eine Teilmenge des R3, die linear unabhangig uber Q aber linear abhangig uber R ist?

4. Hat der C4 zwei Basen, die genau die Vektoren p0, 0, 1, 1q und p1, 1, 0, 0q gemeinsam haben?

5. Hat Krxs eine Basis? Sind die Polynome 1 x, 1 x immer linear unabhangig?

4.4-15 Problem:

1. Sei T die Teilmenge des R4, die aus den sechs Vektorenp1, 1, 0, 0q p1, 0, 1, 0q p1, 0, 0, 1qp0, 1, 1, 0q p0, 1, 0, 1q p0, 0, 1, 1qbesteht. Was sind die linear unabhangigen Teilmengen von T , und welche davon sind maximal?

2. Wie verhalten sich Erzeugendensysteme und linear unabhangige Teilmengen unter Durchschnittund Vereinigung?

Wir kommen auf Frage 4.4-11 zuruck und wollen dazu eine Vermutung formulieren, deren Beweis einigesan Anstrengung erfordern wird:

49

4.4-16 Vermutung:

1. Jeder K-Vektorraum V hat eine Basis.

2. Je zwei Basen eines Vektorraums V enthalten gleichviele Elemente.

Die erste Vermutung wird zuerst behandelt und hat eine uberraschende Antwort, fur die zweite werden wiruns darauf beschranken, den Beweis fur Vektorraume mit einer endlichen Basis zu fuhren. Vektorraume,die keine solche besitzen, haben fur uns nur Basen mit unendlich vielen Elementen. Wir werden nichtzwischen verschiedenen

”Qualitaten“ von unendlich unterscheiden, (wie beispielsweise abzahlbar oder

uberabzahlbar unendlich).Im Spezialfall, wenn wir schon wissen, dass V ein endliches Erzeugendensystem besitzt, ist die ersteVermutung naturlich trivialerweise richtig:

4.4-17 Satz: Sei T ein endliches Erzeugendensystem fur V . Dann enthalt T eine Basis von V .

Startet man mit einem unendlichen Erzeugendensystem, dann wird es schwierig, zu zeigen, dass dieseseine Basis enthalt. Es kann passieren, dass man Vektor um Vektor wegstreicht, und es bleibt doch einErzeugendensystem ubrig. Die Wahrheit ist, dass man gar nicht zeigen kann, dass ein Erzeugendensystemein minimales enthalt. Auch das andere Extrem, namlich die Charakterisierung einer Basis als maximalelinear unabhangige Teilmenge von V hilft nicht weiter.Wir werden jedoch zeigen, dass man annehmen kann, dass V eine Basis besitzt, ohne dass man dadurch inWiderspruch zu irgendwelchen anderen Eigenschaften von Vektorraumen gerat. Welches Lemma werdenwir wohl benutzen, um diese Aussage zu zeigen?Wir kommen nun noch zu einer fundamental wichtigen Eigenschaft von linear unabhangigen Teilmengen:

4.4-18 Problem:

1. Sei T tx, y, zu R2 mit x p1, 0q, y p0, 1q und z p1, 1q. Wie wir wissen, ist xT y R2. So istinsbesondere p2, 3q λx µy τz fur reelle Zahlen λ, µ und τ . Sind diese eindeutig?

2. Was ist, wenn man im obigen Problem T durch ty, zu ersetzt?

Wir sagen, eine Linearkombination°

tPT λtt mit λt P K, wobei λt 0 fur fast alle t P T ist, ist eindeutig,falls die Koeffizienten λt eindeutig bestimmt sind.

4.4-19 Satz pEindeutigkeitq: Sei T ein Erzeugendensystem fur den Vektorraum V . Dann ist T eineBasis von V genau dann, wenn sich jeder Vektor eindeutig als Linearkombination von T darstellen lasst.

4.4-20 Korollar: Krxs hat Basis E txi | i P N0u. Knrxs hat Basis En txi | i P t0, . . . , nuu.Satz 4.4-19 hat eine interessante Interpretation:

4.4-21 Bemerkung: Sei V ein K-Vektorraum mit Basis B tv1, . . . , vnu. So konnen wir jedes Elementv P V eindeutig als Linearkombination

v n

i1

λivi

schreiben. Halten wir die Basis B von V fest, so erhalten wir eine bijektive Abbildung zwischen V undKn durch

v n

i1

λivi Ø pλ1, . . . , λnq P Kn.

50

Ist u µ1v1 µnvn P V , d.h. uØ pµ1, . . . , µnq P Kn, so gilt

u v Ø pλ1 µ1, . . . , λn µnq P Kn,

und ahnlich fur α P Kαv Ø pαλ1, . . . , αλnq.

So entspricht die Addition und skalare Multiplikation in V exakt den entsprechenden Operationen in Kn,d. h. V

”sieht aus“ wie der Kn.

Die Formeln fur die Operationen sagen, dass die bijektive Abbildung”die Struktur des Vektorraumes

erhalt“, bzw.”die Operationen Addition und skalare Multiplikation respektiert“. Vektorraume, zwischen

denen so eine bijektive Abbildung besteht, braucht man nicht zu unterscheiden, solange man sich aufEigenschaften von Vektorraumen beschrankt. Mit Hilfe der Abbildung kann jede Aussage uber den einenVektorraum in eine analoge Aussage uber den anderen Vektorraum uberfuhrt werden. Man nennt solcheRaume isomorph.

4.4-22 Notation: Sei V ein K-Vektorraum mit Basis B tv1, . . . , vnu. Wie in 4.4-21 angemerkt, lasstsich jeder Vektor v P V eindeutig als Linearkombination v °n

i1 λivi schreiben. Zur Abkurzung notierenwir das als

v λ1

λ2

...λn

ÆÆÆ B

,

d. h. wir schreiben v als Spalte mit Koeffizienten λ1, . . . , λn. Dies setzt naturlich voraus, dass B geordnetist, d. h. die Basisvektoren von 1 bis n durchnummeriert werden. Vertauscht man etwa in B den erstenund den zweiten Basisvektor, so muss man entsprechend λ1 und λ2 in obiger Spalte vertauschen. Wirsprechen von einer geordneten Basis B und schreiben B pv1, . . . , vnq.4.4-23 Definition pgeordnete Basisq: Eine geordnete Basis von V ist eine Basis B zusammen mit einervollstandigen Ordnung auf B (Existenz durch den Wohlordnungssatz!). Im folgenden meinen wir mit

”Basis“ immer eine geordnete Basis.

4.4-24 Probleme:

1. Kann Bemerkung 4.4-21 auf Vektorraume, die keine endliche Basis besitzen, verallgemeinert wer-den?

2. Sei V Kn. Gibt es eine Basis so, dass die Zuordnung in 4.4-21 die Identitat wird?

3. Sei V R2 und B pp1, 1q, p1,1qq. Auf welches Element pα, βq P R2 wird v P V unter derBijektion aus Bemerkung 4.4-21 abgebildet, und zwar fur v p1, 3q, p1, 1q, p0, 0q, p1, 0q, p2,1q?

4.5 Basen und Dimension

Wir kommen nun auf die Frage 4.4-11 zuruck: Hat jeder Vektorraum eine Basis?

4.5-1 Satz: Setzt man das Auswahlaxiom voraus, dann besitzt jeder Vektorraum eine Basis.

Wir beweisen sogar die scharfere Aussage:

51

4.5-2 Satz: Setzt man das Auswahlaxiom voraus, so enthalt jedes Erzeugendensystem von V eine Basis.

Diese Satze sind naturlich unbefriedigend. Sie sagen ja wirklich, dass man fur Vektorraume, fur die maneine Basis nur mit Hilfe des Auswahlaxioms finden kann, eine solche niemals wirklich konstruieren kann.Man kann sogar annehmen, dass solche Vektorraume keine Basis besitzen, ohne dass man daraus einen Wi-derspruch ableiten kann. Andererseits kann man von vielen Vektorraumen ohne Auswahlaxiom aufgrundihrer Konstruktion eine Basis direkt angeben. Dazu gehoren alle, die ein endliches Erzeugendensystembesitzen, aber auch viele ohne ein solches.

4.5-3 Problem: Geben Sie Beispiele von Vektorraumen, die keine endliche, aber eine konstruierbareBasis besitzen.

Wir wenden uns nun Vektorraumen zu, die ein endliches Erzeugendensystem haben. Uber einen solchenVektorraum sagen wir auch, V sei endlich erzeugt .Zunachst untersuchen wir, wie sich Erzeugendesysteme zueinander verhalten.

4.5-4 Satz pAustauschsatz von Steinitzq: Sei B Erzeugendensystem und T tx1, . . . , xku eine linearunabhangige Teilmenge von V . Dann gibt es eine k-elementige Teilmenge C von B, sodass pBzCqYT denganzen Raum V aufspannt.

Der Satz sagt also, dass man einen Teil von B durch T ersetzen kann, wobei weggelassener und hinzu-gefugter Teil ( T ) dieselbe Anzahl von Elementen besitzen. (Das kann man auch so interpretieren, dassman einen Teil von B zu T hinzufugt und ein Erzeugendensystem erhalt). Hier sind einige Folgerungenaus dem Austauschsatz:

4.5-5 Korollar: Sei V von einer n-elementigen Menge erzeugt und sei A eine linear unabhangigeTeilmenge von V . Dann hat A hochstens n Elemente.

4.5-6 Korollar: In einem endlich erzeugten Vektorraum V sind alle Basen endlich und haben gleichviele Elemente.

4.5-7 Korollar: Sei C eine n-elementige Basis und B tb1, . . . , bku eine linear unabhangige Teilmengevon V . Dann ist k ¤ n und es gibt c1, . . . , cnk P C, sodass

B tb1, . . . , bk, c1, . . . , cnkueine Basis von V ist.

Insbesondere kann jede linear unabhangige Teilmenge eines endlich erzeugten Vektorraums V zu einerBasis erganzt werden.

4.5-8 Definition pDimensionq: Sei V endlich erzeugt. Dann ist die Anzahl der Elemente einer Basis vonV eindeutig bestimmt. Diese naturliche Zahl heißt Dimension von V und wird mit dimV oder dimKpV qbezeichnet. Wir setzen dimKp0q 0. Ist V nicht endlich erzeugt, so ist dim V 8.

4.5-9 Korollar: Sei V Vektorraum der Dimension n P N0. Dann ist jede Teilmenge T von V mit mehrals n Elementen linear abhangig, und eine n-elementige Teilmenge von V ist eine Basis genau dann,wenn sie linear unabhangig ist, oder alternativ, wenn sie V erzeugt.

52

4.5-10 Probleme:

1. Ist jedes minimale Erzeugendensystem eines Vektorraums linear unabhangig?

2. Ist jedes linear unabhangige Erzeugendensystem minimal?

3. Enthalt jedes Erzeugendensystem eine Basis?

4. Wieviele Vektoren kann eine linear unabhangige Teilmenge von Rn hochstens enthalten?

5. Eine Teilmenge T eines n-dimensionalen Vektorraums heißt relativ unabhangig, falls jede n-elemen-tige Teilmenge von T linear unabhangig ist. Hat der R2 relativ unabhangige Teilmengen mit 3Elementen? Kann es großere relativ unabhangige Teilmengen geben?

6. Sei V endlichdimensional und U ² V . Kann U dieselbe Dimension wie V haben? Ist B eine Basisvon U und x P V zU , was kann man uber B Y txu sagen?

4.5-11 Beispiel:

1. Sei ei pα1, . . . , αnq P Kn mit αj δij , wobei δij das Kroneckerdelta (δij 1 fur i j und δij 0sonst) ist. Dann ist pe1, . . . , enq eine Basis von Kn.

2. Sei U tpα, β, γq P R3 | α βu. Was ist dimU? Basis von U?

4.5-12 Satz: Sei V endlich erzeugt der Dimension n P N0 und sei U ¤ V . Dann ist U endlichdimensional und

dimU ¤ dimV .

Ist B pb1, . . . , bkq eine Basis von U , so gibt es bk1, . . . , bn P V , sodass B pb1, . . . , bnq eine Basis vonV ist.

4.6 Unterraume, Komplemente und direkte Summen

Wir untersuchen nun Summen von Unterraumen.

4.6-1 Problem: Seien U,W ¤ V mit Basen A und B. Ist AYB eine Basis von U W? Wie kann maneine Basis von U W konstruieren?

Mengen eines Mengensystems heißen disjunkt , falls je zwei Mengen des Systems kein Element gemeinsamhaben. Automatisch ist dann der Durchschnitt einer jeden Menge des Systems mit der Vereinigung alleranderen leer und insbesondere kommt eine Menge hochstens einmal in dem System vor. Ist M pMαqein disjunktes Mengensystem, so ist ¤

α

α

|Mα| .4.6-2 Satz: Sei V ein endlich erzeugter Vektorraum, und U,W ¤ V . Dann gibt es drei disjunkteTeilmengen A,B und C von V so, dass gilt:

1. A ist Basis von U XW ,

2. AY B ist Basis von U ,

3. AY C ist Basis von W ,

4. AY B Y C ist Basis von U W .

53

Insbesondere gilt die Dimensionsformel

dimpU W q dimpU XW q dimU dimW.

Die Dimensionsformel gilt auch fur unendlich dimensionale Vektorraume V , wenn man 88 8 unda8 b 8 fur a, b P N setzt. Die Dimension von U ist hierbei beliebig, d. h. endlich oder unendlich,und dasselbe gilt fur W .Die Dimensionsformel zeigt, dass die Dimension einer Summe zweier Unterraume genau dann die Summeder Dimensionen der Unterraume, wenn sich diese trivial schneiden, d. h. ihr Schnitt p0q ist.

4.6-3 Erinnerung: Sei U ¤ V . In 4.3-9 haben wir Komplemente eingefuhrt: So ist W ¤ V einKomplement von U , falls V U W und U XW p0q ist. In dieser Situation sagt man auch, V ist diedirekte Summe von U und W und schreibt V U `W .

Hier ist die Verallgemeinerung von Komplementen auf beliebig viele Unterraume.

4.6-4 Definition pInnere direkte Summeq: Sei tUa | a P Au ein mit der Menge A indiziertes Systemvon Unterraumen von V . Dann ist V die (interne) direkte Summe der Ua, geschrieben als

V àaPA

Ua ,

falls gilt:

1. V °aPA

Ua und

2. a P A : Ua X°abPA

Ub p0q.Ist die Indexmenge A endlich, insbesondere z. B. A t1, 2, . . . , ku, so schreiben wir auch

V U1 ` U2 ` ` Uk .

4.6-5 Probleme:

1. Wir betrachten drei Unterraume von R2: U Rp1, 1q, W Rp1,2q und X Rp2, 2q. Ist R2

direkte Summe von einem, von zwei oder allen drei Unterraumen?

2. Sei V ÀaPA

Ua und sei fur jeden Index a P A eine Basis Ba von Ua gegeben. Kann man darauseine Basis von V konstruieren?

3. Wie sieht die Dimensionsformel 4.6-2 fur direkte Summen aus?

4.6-6 Satz: Seien Ua mit a P A Unterraume von V . Dann ist V `aPAUa genau dann, wenn sichjeder Vektor v P V eindeutig als Summe

v aPA

va, va P Ua, va 0 fur fast alle a P A

schreiben lasst.

54

4.6-7 Korollar: Sei A Basis von V . Dann ist

V àvPAKv .

R2 ist (interne) direkte Summe von je zwei verschiedenen Geraden in der reellen Ebene, und jede davon

”sieht aus“ wie der ein-dimensionale reelle Raum R1. Andererseits besteht der R2 aus Paaren von reellen

Zahlen, die man selbst als Elemente vom R1 auffassen kann.Kann man ahnlich die Elemente zweier beliebiger Vektorraume zu einem neuen Vektorraum zusammen-fassen, indem man auf dem kartesischen Produkt dieser Raume eine geeignete Addition und eine geeigneteskalare Multiplikation definiert?

4.6-8 DefinitionAußere direkte Summe

: Seien U und W K-Vektorraume. Dann ist die (außere)

direkte Summe U `W von U und W wie folgt definiert: Als Menge ist U `W das kartesische ProduktU W . Die Addition ist komponentenweise definiert, ebenso wie eine skalare Multiplikation, d. h. furu1, u2 P U, w1, w2 PW und λ P K gilt:pu1, w1q pu2, w2q pu1 u2, w1 w2q und λpu1, w1q pλu1, λw1q.4.6-9 Satz: U ` W ist mit der Addition und skalaren Multiplikation aus Definition 4.6-8 ein K-Vektorraum. Das neutrale Element bezuglich der Addition ist p0, 0q, das Inverse von pv1, v2q ist das Paarpv1,v2q.Zu einer außeren direkten Summe V U ` W kann man rU : tpu,wq P V | w 0W u V undW : tpu,wq P V | u 0Uu V definieren.

4.6-10 Korollar: Sei V U `W wie in 4.6-8 und seien rU,W wie oben definiert. Dann sind rU undW Unterraume von V , und V ist interne direkte Summe rU `W .

Die Unterraume rU und W sehen wie U bzw. W aus, deshalb konnen wir sie miteinander identifizieren(wir werden das im nachsten Kapitel prazise formulieren). Das Korollar sagt, dass wir eigentlich nichtzwischen internen und externen direkten Summen zu unterscheiden brauchen (und dies berechtigt uns,dieselbe Notation dafur zu verwenden). Die Dimensionsformel 4.6-2 wird nun zu:

4.6-11 Korollar: Sei V U `W . Dann ist dimV dimU dimW .

Das Ganze geht naturlich auch fur beliebige Systeme von Raumen:

4.6-12 Definition: Seien Ua, a P A ein System von K-Vektorraumen. Die direkte Summe der Ua istdefiniert als

U àaPA

Ua tpuaqaPA | ua P Ua, ua 0 fur fast alle a P Au ,wobei Addition und skalare Multiplikation komponentenweise erklart sind.

55

4.6-13 Satz: Die direkte Summe

U àaPA

Ua

der K-Vektorraume Ua ist ein K-Vektorraum mit neutralem Element p0aqaPA P U und Inversen definiertdurch pvaqaPA pvaqaPA fur pvaqaPA P U . Die MengerUa tpvbqbPA P U | vb 0 fur a b P Auist ein Unterraum von U , der mit Ua identifiziert werden kann, und U ist die interne direkte Summe derrUa, a P A. Die Dimension von U ist die Summe der Dimensionen der Ua.

4.6-14 Korollar: Eine Basis einer direkten Summe von Vektorraumen Ua ergibt sich als Vereinigung

von Basen der rUa.

Gibt es nun zu einem gegebenen Unterraum immer ein Komplement?

4.6-15 Satz pKomplementeq: Sei V ein K-Vektorraum.

1. Ist V endlich erzeugt, so besitzt jeder Unterraum von V ein Komplement.

2. Ist V nicht endlich erzeugt, so besitzt jeder Unterraum von V ein Komplement, wenn man dasAuswahlaxiom voraussetzt.

Ist man bereit, das Auswahlaxiom zu akzeptieren (und das wollen wir von nun an tun), so hat manunmittelbar:

4.6-16 Korollar: Sei U ein Unterraum von V . Dann kann man jede Basis von U zu einer solchen vonV erganzen.

4.7 Faktorraume

Wir beginnen mit einigen Problemen:

4.7-1 Probleme: Sei U ein eindimensionaler Unterraum von V R2 (so ist U eine Gerade durch denUrsprung). Fur v P V definieren wir eine Teilmenge v von V durch

v tu P V | v u P Uu .1. Wie kann man v geometrisch beschreiben?

2. Gibt es alternative Beschreibungen der Mengen v?

3. Setzt man v U u ðñ v u P U , so definiert”U“ eine Relation auf V . Ist diese reflexiv,

symmetrisch, antisymmetrisch, transitiv?

4. Seien v, u P V , λ P R. Man definiere

v u v u und λv λv .

Macht dies V tv | v P V u zu einem Vektorraum? Wenn ja, was ist seine Dimension?

56

Wir vergleichen die Konstruktion von V in Problem 4.7-1 mit der eines Komplements U 1 von U in V :Nach Voraussetzung ist U eine Gerade durch den Ursprung. Somit ist jede Gerade durch den Ursprung,die nicht mit U zusammenfallt, ein Komplement. Es gibt sehr viele Komplemente und es gibt keinennaturlichen Weg, eines auszusuchen. Nun haben wir in 4.7-1 einen eindimensionalen Vektorraum V

konstruiert, der auch einen gewissen komplementaren Charakter bzgl. U hat, aber seine Konstruktion ist“naturlich”, d. h. involviert keine Wahl, wie etwa die Wahl einer Basis etc.

4.7-2 Problem:

1. Seien U ¤ V und V wie in 4.7-1. Sei U 1 ein Komplement von U , v P V . Was ist U 1 X v?2. Ersetzen Sie in 4.7-1 R2 durch V R3 und den eindimensionalen Unterraum U durch einen ein-

oder zweidimensionalen Unterraum.

Um die Konstruktion von Faktorraumen zu verstehen, ist es nutzlich, sich unser Beispiel 4.7-1 vor Augenzu halten:Ist z.B. U die x-Achse, so besteht V aus den waagrechten Geraden, und wir versuchen, dieser Mengedie Struktur eines reellen Vektorraums zu verpassen. Aber es ist klar, wie man solche Geraden addiertund skalar multipliziert: Hat man zwei waagrechte Geraden g und h, so erhalt man durch Addition ihrery-Achsenabschnitte den y-Abschnitt der waagrechten Gerade gh. Die skalare Multiplikation ist ahnlichdefiniert.Von nun an sei V wieder ein K-Vektorraum, K ein Korper.

4.7-3 Definition/Lemma pNebenklassenq: Sei U ¤ V . Wir definieren auf V eine Aquivalenzrelation

”U“(oder einfach ) durch:

v U w ðñ w v P U,fur v, w P V . Ist v w, so sagen wir auch

”v ist kongruent zu w modulo U“ und schreiben:

v w mod U.

Die Aquivalenzklassen von U heißen Neben- oder Restklassen modulo U , und die Klasse, die v P Venthalt, ist

v v U tv u | u P Uu.Die Menge der Nebenklassen modulo U ist

V tv U | v P V uund wird mit V U bezeichnet.

4.7-4 Bemerkung: Sind v, w P V und U ¤ V , so kann es durchaus passieren, dass w U v U

ist, ohne dass w v ist. In der Tat passiert dies genau dann, wenn w und v kongruent modulo U sind.Daher ist die Liste von Elementen v U in

V U tv U | v P V uredundant, d. h. enthalt viele Wiederholungen. Wie es sich fur eine ordentliche Menge gehort, werdenWiederholungen einfach ignoriert, d. h. jedes Element ist nur einmal in V U .

57

4.7-5 Beobachtung pSummen von Nebenklassenq: Sei U ¤ V und v, w P V . Dann ist die Summepv Uq pw Uq tx y | x P v U, y P w Uuder Klassen von v und w wieder eine Klasse, namlichpv Uq pw Uq pv wq U .4.7-6 Definition/Lemma pFaktorraumq: Sei U ¤ V . Fur die Nebenklassen v vU und w wUin V U definieren wir

v w v w pv wq Uund ahnlich fur λ P K

λv λv pλvq U .Dies sind wohldefinierte Operationen und V U ist ein K-Vektorraum. Der Nullvektor in V U ist dieNebenklasse 0 U U und das additive Inverse von v U ist pvq U . Der K-Vektorraum V U mitdieser Addition und skalaren Multiplikation heißt Faktor- oder Quotientenraum V modulo U und wirdebenfalls mit V U bezeichnet.

Sie sollten Nebenklassen nun aber nicht als Konglomerat einzelner Vektoren von V ansehen, die einzelnaddiert und skalar multipliziert werden, sondern eben als Elemente von V U , die als solche addiert,skalar multipliziert etc. werden. Naturlich, um diese Operationen konkret durchzufuhren, muss man sicheinzelner Elemente, genannt Reprasentanten (oder Nebenklassenvertreter) bedienen, die man willkurlichaber fest aus den Nebenklassen auswahlt, pro Nebenklasse genau einen. Dass dies gutgeht, d. h. dasses gleichgultig ist, welche Reprasentanten man wahlt, druckt gerade aus, dass Addition bzw. skalareMultiplikation wohldefiniert sind.Nun wollen wir wieder den Zusammenhang mit Komplementen herstellen:

4.7-7 Satz: Sei U ¤ V , und sei W ein Komplement von U in V (d.h. V U `W ). Seien w,w1 PW .Dann ist w w1 mod U genau dann, wenn w w1 ist. Daruberhinaus enthalt jede Nebenklasse v U

genau ein Element w wv PW , und fur x, y P V, λ P K haben wir:px Uq py Uq pwx wyq Uund

λpx Uq pλwxq U.Ist B eine Basis von W , so ist

B tb U | b P Bueine Basis von V U . Insbesondere ist

dimV dimU dimV U4.7-8 Definition: Wahlt man bei einer beliebigen Aquivalenzrelation zu jeder Aquivalenzklasse einenReprasentanten, so nennt man deren Zusammenfassung ein Reprasentantensystem.

So kann man als Reprasentantensystem der Nebenklassen von U in V gerade die Elemente eines Kom-plements W von U in V wahlen, und dann

”sieht“ der Faktorraum V U gerade wie der Raum W aus.

58

4.7-9 Problem:

1. Gibt es einen Vektorraum V und einen Unterraum U von V , sodass weder U noch V U endlich-dimensional sind?

2. Gibt es einen unendlich-dimensionalen Vektorraum V und einen Unterraum W ¤ V so, dass V Wendlich-dimensional ist?

59

Kapitel 5

Lineare Transformationen

5.1 Grundlagen

Here is where the action starts! Bis jetzt waren Vektorraume eben Vektorraume, die nur dasitzen und mitdenen man nichts weiter anfangen kann. Jetzt kommt aber Bewegung in die Sache: Wir werden Vektorenin andere Vektoren verwandeln. Hier ist ein Beispiel:

5.1-1 Beispiel: Sei V R5rxs. Ersetze jedes Polynom p durch seine Ableitung Dp. Was fallt auf:

1. Ist p1 3x und p2 5x2 dann ist Dp1 3 und Dp2 10x. Ist nun p p1 p2 3x 5x2, so istDp 3 10x Dp1 Dp2.

2. Wir haben auch Dp7p2q Dp35x2q 70x 7 10x 7Dp2, oder allgemeiner

Dpαp2q αDp2 α P R.

5.1-2 Beispiel: Sei S die Abbildung, die jeden Vektor des R3 um den Faktor 7 dehnt, also Spx, y, zq p7x, 7y, 7zq. Dann wird der Vektor u p1, 0, 2q auf Su p7, 0, 14q, und v p3,1, 5q auf Sv p21,7, 35qabgebildet. Die Linearkombination 3u 2v p3, 0, 6q p6,2, 10q p3, 2,4q wird auf Sp3u 2vq p21, 14,28q abgebildet, auf der anderen Seite ist 3 Su 2 Sv 3p7, 0, 14q 2p21,7, 35q ebenfallsgleich p21, 14,28q.Das funktioniert immer: Sind zwei (mehr, beliebig viele) Vektoren gegeben und formt man eine Linear-kombination mit ihnen, die man dann um den Faktor 7 dehnt, so erhalt man dasselbe Resultat, indemman zuerst die Vektoren um den Faktor 7 dehnt und dann dieselbe Linearkombination bildet.

5.1-3 Definition: V und W seien K-Vektorraume. Eine Abbildung f von V nach W heißt linear,K-linear , lineare Transformation oder auch Homomorphismus , falls gilt:

1. fpx yq fpxq fpyq x, y P V .

2. fpλxq λfpxq x P V, λ P K.

5.1-4 Probleme: Sind f : R2 Ñ R2 und T : Rrxs Ñ Rrxs Homomorphismen oder nicht?

1. f : px, yq ÞÑ py, xq.2. f : px, yq ÞÑ px2, y2q.3. f : px, yq ÞÑ pex, eyq.

60

4. T : p ÞÑ x³2

pptqdt.5. f : px, yq ÞÑ p2x 3y, 7x 5yq.6. f : px, yq ÞÑ pαx βy, γx δyq, wobei α, β, γ, δ beliebige Skalare sind.

7. f : px, yq ÞÑ pαx2 βy2, γx2 δy2q.8. f : px, yq ÞÑ pα2x β2y, γ2x δ2yq9. T : ppxq ÞÑ ppx2q.

10. T : p ÞÑ pppxqq2.11. T : p ÞÑ x2ppxq.

5.1-5 Definition: Seien V und W Vektorraume. Ein injektiver Homomorphismus f : V Ñ W wirdMonomorphismus , genannt. Ist f linear und surjektiv, so spricht man von einem Epimorphismus und istf bijektiv, von einem Isomorphismus. Gibt es einen Isomorphismus von V auf W , so nennen wir V undW isomorph und schreiben

V W.

Ist f : V Ñ V linear, so sprechen wir auch von einem Endomorphismus von V , und ist f zusatzlichbijektiv, von einem Automorphismus von V .

Ist obige Bezeichnung fur isomorphe Vektorraume berechtigt? Die Antwort ist ja, wie folgender Satz zeigt:

5.1-6 Satz: Seien V und W Vektorraume und sei f : V ÑW ein Isomorphismus. Dann ist

f1 : W Ñ V

ebenfalls ein Isomorphismus.

5.1-7 Satz: Die Komposition von (Mono-, Epi-, Iso-) Homomorphismen ist (Mono-, Epi-, Iso-) Ho-momorphismus.

5.1-8 Probleme: Sind die folgenden Abbildungen Mono-, Epi- bzw. Isomorphismen? Was ist das Bilddieser Abbildungen?

1. T : K5rxs Ñ K10rxs : ppxq ÞÑ ppx2q.2. Sei f : R3rxs Ñ R4 definiert durch

fpλ0 λ1x λ2x2 λ3x

3q pλ0, λ1, λ2, λ3qfur λ0, λ1, λ2, λ3 P R.

3. Sei B pv1, . . . , vnq eine geordnete Basis von V . Definiere f : V Ñ Kn durch

f

n

i1

λivi

pλ1, . . . , λnq,fur λ1, . . . , λn P K.

4. Sei V der Raum der Funktionen R Ñ R, Eα sei die Abbildung gegeben durch Eα : V Ñ R : f ÞÑ fpαq,wobei α eine feste reelle Zahl ist.

61

5.1-9 Probleme:

1. Definiert die GleichungTppxq ppx 2q

eine lineare Transformation von Q5rxs nach Q10rxs? Was ist imT ?

2. Ist durchT px, y, zq p0, 0q

eine lineare Transformation von R3 nach R2 definiert?

3. Definiert die GleichungT px, y, zq px 2, y 2q

einen Homomorphismus T : R3 Ñ R2?

4. Sei V der in Problem 4.1-3 auftauchende reelle Vektorraum: V R mit Addition x` y xy undskalarer Multiplikation αd x xα fur x, y P R und α P R. Was ist dimR V ? Wie sieht eine Basisaus? Ist log : R Ñ R eine lineare Transformation?

5.1-10 Problem: Gibt es einen Homomorphismus T : R2 Ñ R3, der p1, 0q nach p1, 1, 0q und p0, 1q nachp0, 1, 1q abbildet? Was ist, wenn man p0, 1, 1q durch p1, 1, 0q oder p2, 2, 0q ersetzt? Wenn ja, was ist dasBild von T ?

5.1-11 Satz: Seien V und W K-Vektorraume.

1. Eine K-lineare Transformation f : V Ñ W ist vollstandig durch ihre Werte auf einem Erzeugen-densystem bestimmt. D. h. sind f, g : V Ñ W Homomorphismen, ist T V mit xT y V , und istfptq gptq fur alle t P T , so ist f g.

2. Sei B pv1, . . . , vnq eine Basis von V , und seien w1, . . . , wn beliebige (nicht notwendig verschiedene)Vektoren in W . Dann gibt es genau eine lineare Transformation T : V Ñ W mit T pviq wi furi 1, . . . , n. Es gilt:

T

n

i1

λivi

n

i1

λiwi λ1, . . . , λn P K.5.1-12 Problem: Erweitern Sie den zweiten Teil des vorigen Satzes auf unendlichdimensionale Vek-torraume.

Im folgenden seien nun V und W immer K-Vektorraume.

5.1-13 Korollar: Sei f : V ÑW ein Homomorphismus. Dann ist im f ein Unterraum von W .

Beachte: Ist v P V , dann ist fp0V q fp0 vq 0 fpvq 0W .

5.1-14 Korollar: Sei f : V Ñ W ein Homomorphismus, und sei B eine Basis von V . Dann istxfpBqy im f , d.h. im f wird von den Bildern fpBq tfpbq | b P Bu der Elemente einer beliebigen Basisvon V erzeugt.

62

5.1-15 Probleme: Zeigen Sie:

1. Sei B eine Basis von V und f : V Ñ W ein Homomorphismus. Dann ist f ein Monomorphismusgenau dann, wenn fpBq eine Basis von im f ist.

2. Ist f ein Monomorphismus, so ist f durch Einschrankung des Wertevorrats ein Isomorphismus vonV auf im f .

3. Ist f : V Ñ W ein Isomorphismus, so ist fpBq eine Basis von W . Insbesondere haben isomorpheRaume dieselbe Dimension.

Hier ist ein weiterer mengentheoretischer Satz, das sogenannte Pigeon-Hole-Principle: Hat man n Taubenund sind n Locher da, in die sich die Tauben fluchten konnen, so sitzt nach Ankunft des Fuchses in jedemLoch hochstens eine Taube genau dann, wenn in jedem Loch mindestens eine Taube sitzt.

5.1-16 Lemma: Seien M und N endliche Mengen derselben Machtigkeit, und sei f : M Ñ N eineAbbildung. Dann ist f injektiv genau dann, wenn f surjektiv ist.

5.1-17 Satz: Seien V und W Vektorraume derselben endlichen Dimension uber K, und sei f : V ÑW

ein Homomorphismus. Dann ist f genau dann ein Isomorphismus, wenn f ein Mono-, oder aquivalentdazu, ein Epimorphismus ist.

So muss man also in dieser Situation lediglich entweder Injektivitat oder Surjektivitat nachprufen, umBijektivitat zu beweisen, was manchmal außerst nutzlich ist.

5.1-18 Problem: Was ist mit unendlichen Mengen, unendlichdimensionalen Vektorraumen?

5.1-19 Satz: Zwei Vektorraume sind isomorph genau dann, wenn sie dieselbe Dimension uber K haben.

5.1-20 Probleme:

1. Sei B pv1, . . . , vnq eine Basis von V . In 4.4-21 hatten wir eine Abbildung von V nach Kn definiert,die v °n

i1 λivi auf pλ1, . . . , λnq P Kn abbildet. Wohin wird B abgebildet? Ist jene Abbildunglinear? Ein Isomorphismus?

2. Konnen Sie jetzt prazise formulieren, warum man nicht zwischen inneren und außeren direktenSummen unterscheiden muss? (Siehe 4.6-10 und 4.6-13).

3. Im folgenden sei eine lineare Abbildung f : R3 Ñ R3 gegeben durch die Bilder der naturlichen Basisvon R3 (in der naturlichen Reihenfolge). Ist f ein Isomorphismus?

(a) p1, 1, 1q, p1, 0, 1q, p0, 2, 0q.(b) p2, 3, 1q, p2, 2, 1q, p2, 1, 2q.

4. Fur welche naturlichen Zahlen k, n sind Rkrxs und Rn isomorph?

5.1-21 Satz: Sei U ¤ V und sei W V U . Dann ist die Abbildung

T : V ÑW : v ÞÑ v v Uein Epimorphismus.

Der Epimorphismus im obigen Satz heißt kanonische Projektion von V auf W .In 4.7-7 haben wir gesehen, dass jede Nebenklasse v vU des Unterraums U von V ein fest gewahltesKomplement W von U in V in exakt einem Element trifft. Im Anschluss an Definition 4.7-8 hatten wir

63

gesagt, dass V U genau so aussieht wie W . Der nachste Satz zeigt, was damit mathematisch wirklichgemeint ist:

5.1-22 Satz: Sei W ein Komplement des Unterraums U von V . Fur x P V sei wx P W das nachSatz 4.7-7 eindeutig bestimmte Element in px Uq XW , und sei x x U . Dann ist ϕ : x ÞÑ wx einIsomorphismus von V U auf W .

Zwei lineare Transformationen spielen eine besondere Rolle: Die Nullabbildung und die Identitat. DieNullabbildung von V nach W ist die lineare Transformation, die jeden Vektor von V auf den Nullvektorvon W abbildet. Sie ist linear, nicht wahr? Sie wird gewohnlich ebenfalls mit 0 oder mit 0V W bezeichnet.Die Identitat von V nach V ist ebenfalls linear und wird mit idV oder 1V bezeichnet. Wenn keineMissverstandnisse zu befurchten sind, lassen wir die Indizes einfach weg.Beachte, dass unter einer Abbildung das Urbild eines Elements des Bildbereichs immer eine Teilmengedes Definitionsbereichs ist. Dieses Urbild wird auch Faser des Elements unter der Abbildung genannt. Beilinearen Transformationen spielt die Faser des Nullvektors eine besondere Rolle und erhalt daher einenbesonderen Namen. Der Grund hierfur ist, wie wir sehen werden, dass diese einen Unterraum bildet, undalle anderen Fasern als dazu parallele (affine) Unterraume angesehen werden konnen.

5.1-23 Definition/Satz: Sei f : V ÑW linear. Dann ist der Kern von f die Teilmenge

ker f f1p0q tv P V | fpvq 0u.Der Kern von f ist ein Unterraum von V .

5.1-24 Probleme: Was ist der Kern der folgenden Homomorphismen?

1. Die Nullabbildung.

2. Die Projektion π : V Ñ V U fur U ¤ V .

3. Die lineare Transformation T von R6rxs nach R7rxs gegeben durch

Tppxq » x93

pptqdt.4. Die Differenziation auf R7rxs.5. Der Endomorphismus f von R2 gegeben durch fp1, 0q p2, 7q und fp1, 1q p6, 2q.6. T : Rrxs Ñ Rrxs : ppxq ÞÑ ppx2q.7. f : R2 Ñ R2 : px, yq ÞÑ px, 0q.

5.1-25 Satz: Sei f : V ÑW lineare Abbildung. Dann ist f injektiv genau dann, wenn ker f p0q ist.

5.2 Matrizen

Seien wieder V und W zwei K-Vektorraume, K ein Korper. Wir wollen nun bis auf weiteres immerannehmen, dass V und W endlichdimensional uber K sind. Wenn nicht, werden wir das extra anmerken.In Satz 5.1-11 haben wir gesehen, dass eine lineare Abbildung f : V Ñ W durch Angabe der VektorenvonW , auf die die Elemente einer Basis B von V unter f abgebildet werden, vollstandig bestimmt ist, unddass man diese Bilder beliebig vorgeben darf, um lineare Abbildungen von V nachW zu konstruieren. Wirwerden uns das nun zunutze machen, um uns einen Uberblick uber solche Abbildungen zu verschaffen.

64

So sei B pv1, . . . , vnq eine Basis von V und C pw1, . . . , wmq eine solche von W . Sei f : V Ñ W einHomomorphismus. Satz 5.1-11 sagt, dass wir lediglich die Bilder fpvjq P W kennen mussen, um f zukennen. Denn dann ist

fpxq n

j1

λjfpvjq fur x n

j1

λjvj P V.Die Bilder fpvjq fur j 1, . . . , n kann man aber wieder als Linearkombination der Basis C von W

schreiben:

5.2-1 Definition: Sei f : V Ñ W lineare Abbildung und B pv1, . . . , vnq und C pw1, . . . , wmq seienBasen von V bzw. von W . Fur 1 ¤ j ¤ n sei

fpvjq m

i1

αijwi.

Das Rechteckschema Mf pC,Bq pαijq α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ heißt Matrix der linearen Abbildung f bezuglich der Basen B und C von V bzw. W .

Was bringt das? Zunachst ist klar, dass f durch Mf pC,Bq vollig festgelegt ist. Zweitens lasst sich abernun mit f konkret rechnen. Denn wird haben:

5.2-2 Lemma: Sei f und Mf pC,Bq wie oben. Sei x °nj1 λjvj, dann ist fpxq °m

i1 µiwi, wobeiman die Koeffizienten µi wie folgt berechnet:

µi n

j1

αijλj .

Gegeben seien die Zahlen αij sowie die Koeffizienten λj . Das folgende”Kochrezept“ beschreibt, wie man

leicht die Koeffizienten µi berechnen kann:

5.2-3 Kochrezept: Man gewinnt den i-ten Koeffizienten µi in fpxq °mi1 µiwi, indem man die i-te

Zeile der Koeffizientenmatrix pαijq Mf pC,Bq nimmt, auf den Vektor pλ1, . . . , λnq legt, Eintrage zumselben Index multipliziert und dann aufsummiert. Man schreibt:α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ λ1

λ2

...

...λn

ÆÆÆÆÆÆ µ1

µ2

...µm

ÆÆÆ .65

5.2-4 Notation: Sei V ein K-Vektorraum mit Basis B pv1, . . . , vnq. So schreiben wir von nun anabkurzend

v λ1

λ2

...λn

ÆÆÆ B

fur v °nj1 λjvj .

5.2-5 Bemerkungen:

1. Lemma 5.2-2 lasst sich dann wie folgt umschreiben: Sei v P Kn. Dann istMf pC,BqvC fpvBq.2. Wenden wir obiges Kochrezept auf die Elemente der Basis B pv1, . . . , vnq von V selbst an. Was

gibt das? Nun, der j-te Basisvektor vj ist die Linearkombination

vj n

k1

λkvk 0...010...0

ÆÆÆÆÆÆÆÆÆÆ B

mit λk 0 fur k j und λj 1, d. h. die 1 steht an der j-ten Stelle.So erhalten wir die Komponenten µi in fpvjq °m

i1 µiwi durch das Matrizenprodukt:

fpvjq f

0...010...0

ÆÆÆÆÆÆÆÆÆÆ B

ÆÆÆÆÆÆÆÆÆÆ α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ 0...010...0

ÆÆÆÆÆÆÆÆÆÆ ÆÆÆÆÆÆÆÆÆÆ C

µ1

µ2

...µm

ÆÆÆ C

α1j

α2j

...αmj

ÆÆÆ C

Ist also si die i-te Spalte vonMf pB, Cq, dann ist fpvjq siC .

3. Was passiert im Spezialfall, dass V W und f idV ist? Das ist sicherlich nicht verboten. DieAbbildungsmaschine MidV

pC,Bq bewirkt hier lediglich, dass ein Vektor v P V , der durch seineKomponenten bezuglich der Basis B gegeben ist, in die Basis C umgeschrieben wird, das heißt, dieMatrizenmultiplikation berechnet nun die Komponenten desselben Vektors v bezuglich der Basis Cvon V . Dies ist dann ein sogenannter Basiswechsel undMidV

pC,Bq ist die Matrix des Basiswechsels:pMidVpC,BqvqC vB

66

5.2-6 Probleme:

1. Konnen zwei verschiedene Homomorphismen dieselbe Matrix haben?

2. Sei D : R5rxs Ñ R4rxs die Differentiation. Was ist MDpE4, E5q? Wir setzen dabei hier (und imfolgenden immer)

Epoln En p1, x, x2, . . . , xn1, xnq.

3. Sei T : R3rxs Ñ R2rxs definiert durch

T p1q 0, T pxq 2 x2,

T px2q x2 2x 1, T px3q 2x 1.

Sei B p1, 1x, 1xx2q. Was istMT pB, E3q?MidpB, E2q?MidpB,Bq? Was sind die Komponentenvon T p2 3x x3q bezuglich der Basis B und bezuglich der Basis E2 von R2rxs?

4. Sei B pv1, . . . , vnq Basis von V . Definiere T : V Ñ Kn durch

T

λ1

...λn

Æ B

Æ T

n

i1

λivi

λ1

...λn

Æ En

.

Was istMT pEn,Bq, wobei En die naturliche Basis von Kn ist?

5.2-7 Definition: Seien V und W beliebige K-Vektorraume. Dann wird die Menge der K-linearenAbbildungen von V nach W mit

HomKpV,W qbezeichnet. Ist V W , so heißen solche Homomorphismen auch Endomorphismen und man schreibtEndKpV q fur die Homomorphismenmenge HomKpV, V q.5.2-8 Definition: Eine m n-Matrix A uber dem Korper K ist ein rechteckiges Schema, das aus m ndoppelt indizierten Elementen αij des Korpers K besteht, mit 1 ¤ i ¤ m, 1 ¤ j ¤ n:

A α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ .Wir schreiben A pαijqij pαijq. Die Matrix A hat m Zeilen und n Spalten. Diese Zeilen und Spaltenlassen sich jeweils als Elemente des Kn bzw. Km auffassen (dessen Elemente man auch als Spaltenschreiben kann, oder?).So ist der j-te Spaltenvektor sj von A

sj α1j

α2j

...αmj

ÆÆÆ P Km

und der i-te Zeilenvektor zi von A ist

zi pαi1, αi2, . . . , αinq P Kn.

Ist n m, so heißt A quadratisch. Die Menge der m n-Matrizen uber K wird mit MmnpKq bezeichnet.

67

5.2-9 Satz: Sei f : V ÑW und A Mf pC,Bq wie in 5.2-1. Seien s1, . . . , sn die Spaltenvektoren vonA. Dann ist xs1C , . . . , snCy im f.

5.2-10 Satz: Seien V und W mit Basen B und C wie oben. Dann istMpC,Bq : HomKpV,W q ÑMmnpKq : f ÞÑMf pC,Bqeine bijektive Abbildung mit Umkehrabbildung fpC,Bq : MmnpKq Ñ HomKpV,W q : A ÞÑ fApC,Bqgegeben durch

fApC,Bqλ1

...λn

Æ B

Æ Aλ1

...λn

Æ Æ C

Hier ist eine erste Anwendung des bisher entwickelten Kalkuls, namlich der Zusammenhang zwischenMatrizen und linearen Gleichungssystemen. Seien etwa m Gleichungen in den n Unbestimmten xj mitden Koeffizienten αij vorgelegt:

α11x1 α12x2 . . . α1nxn µ1

α21x1 α22x2 . . . α2nxn µ2

......

......

αm1x1 αm2x2 . . . αmnxn µm

Wir bezeichnen dieses Gleichungssystem mit G.Nach unserem Kochrezept 5.2-3 konnen wir dies umschreiben alsα11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ x1

x2

...xn

ÆÆÆ µ1

µ2

...µm

ÆÆÆ oder kurz als

A x1

x2

...xn

ÆÆÆ µ1

µ2

...µm

ÆÆÆ mit A pαijq und der Spalte

x1

x2

...xn

ÆÆÆ , deren Eintrage die Variablen x1, . . . , xn sind.

5.2-11 Probleme:

1. Zeigen Sie, dass es zu jeder m n-Matrix A genau eine K-lineare Abbildung

fA : Kn Ñ Km

gibt, sodassMfApEm, Enq A ist.

68

2. Wenn man im Gleichungssystem G:

A x1

x2

...xn

ÆÆÆ µ1

µ2

...µm

ÆÆÆ die Matrix A als Matrix einer linearen Abbildung wie im vorigen Problem interpretiert, wie lasstsich dann die Losung des Gleichungssystems G beschreiben?

3. Ist in G insbesondere µj 0 fur alle j, so hat die Losungsgesamtheit von G eine besondere Bedeu-tung. Welche?

5.3 Homomorphismen sind selbst Vektoren!

Wieder seien im folgenden V und W zwei K-Vektorraume, die wir aber momentan nicht unbedingt alsendlich erzeugt voraussetzen wollen.

5.3-1 Definition: Seien f, g P HomKpV,W q und sei λ P K. Die Summe f g und das skalare Vielfacheλf von f sind wie folgt definiert: pf gqpvq fpvq gpvqpλfqpvq λpfpvqq,wobei v P V, λ P K ist.

5.3-2 Lemma: Seien f, g P HomKpV,W q und sei λ P K. Dann sind f g und λf ebenfalls Homomor-phismen von V nach W . Die Nullabbildung 0 0V W : V Ñ W : v ÞÑ 0 ist das neutrale Element vonHomKpV,W q bezuglich der Addition, und p1qf : V Ñ W : v ÞÑ pfpvqq ist das Inverse f von f . DieMenge HomKpV,W q bildet zusammen mit diesen Operationen ein K-Vektorraum.

5.3-3 Problem: Sei f : R2 Ñ R2 : pα, βq ÞÑ p2αβ, αβq und g : R2 Ñ R2 : pα, βq ÞÑ pαβ, α2βq.Was liegt nahe zu vermuten, wenn manMf pE2, E2q,MgpE2, E2q,MfgpE2, E2q undM3f pE2, E2q berechnet?

Nun machen wir MmnpKq ebenfalls zum K-Vektorraum:

5.3-4 Definition: Seien A pαijqij und B pβijqij m n-Matrizen uber K und sei λ P K. Dannwerden die Summe AB und das skalare Produkt λA wie folgt erklart:α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ β11 β12 . . . β1n

β21 β22 . . . β2n

......

. . ....

βm1 βm2 . . . βmn

ÆÆÆ α11 β11 α12 β12 . . . α1n β1n

α21 β21 α22 β22 . . . α2n β2n

......

. . ....

αm1 βm1 αm2 βm2 . . . αmn βmn

ÆÆÆ und

λ α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ λα11 λα12 . . . λα1n

λα21 λα22 . . . λα2n

......

. . ....

λαm1 λαm2 . . . λαmn

ÆÆÆ 69

Kurz gefasst haben wir also:pαijqij pβijqij pαij βijqij und λ pαijqij pλαijqij .5.3-5 Satz: Die Menge MmnpKq der m n-Matrizen uber K wird mit diesen Operationen ein K-Vektorraum. Das Nullelement (die Nullmatrix 0) und die zu A inverse Matrix sind gegeben durch

0 0 0 . . . 00 0 . . . 0...

.... . .

...0 0 . . . 0

ÆÆÆ und A p1q A α11 α12 . . . α1nα21 α22 . . . α2n

......

. . ....αm1 αm2 . . . αmn

ÆÆÆ die additive Inverse von A pαijq.5.3-6 Problem: Sei A

1 1 02 1 1

und B

2 1 00 2 1

. Was ist AB und was 3A?

5.3-7 Satz: Sind V und W endlich erzeugt mit Basen B pv1, . . . , vnq und C pw1, . . . , wmq. Dannist MpC,Bq : HomKpV,W q ÑMmnpKqein Isomorphismus von K-Vektorraumen.

Es ist wichtig festzuhalten, dass obiger Isomorphismus ganz wesentlich von der Wahl der Basen B und Cabhangt!

5.3-8 Probleme:

1. Was geschieht mit der zugeordneten Matrix eines Homomorphismus, wenn man B oder/und Cumordnet?

2. Was ist M12pKq, M1npKq und Mn1pKq? Basis?

3. Finden Sie eine Basis von M22pKq.4. Auf welche Homomorphismen werden diese Basiselemente von M22pKq unter MpC,Bq1 fpC,Bq abgebildet?

5.3-9 Problem: Wie mussten Matrizen fur unendlich dimensionale Vektorraume aussehen?

5.3-10 Satz: V , W , B und C seien wie immer. Wir definieren fur 1 ¤ i ¤ m und 1 ¤ j ¤ n diem n-Matrix Eij pαklqkl durch αkl 1 fur pi, jq pk, lq und αkl 0 sonst. So ist genau der pi, jq-teEintrag in Eij gleich 1, alle anderen Eintrage sind 0, also

Eij 0 0 0...

......

... 0...

0 0 1 0 i-te Zeile0... 0

......

......

0 0Òj-te Spalte

0

ÆÆÆÆÆÆÆÆÆÆÆÆ 70

Dann istEpm,nq tEij PMmnpKq | 1 ¤ i ¤ m, 1 ¤ j ¤ nu

eine Basis, die naturliche Basis von MmnpKq.Wenn keine Missverstandnisse zu befurchten sind, schreiben wir in obigem Satz einfach E anstatt Epm,nq.Wir definieren nun den Homomorphismus ǫij : V ÑW durch

ǫijpvkq #wi fur j k

0 fur j k.

Dann gilt:

5.3-11 Satz: Fur 1 ¤ i ¤ m und 1 ¤ j ¤ n haben wir:MǫijpC,Bq Eij .

Insbesondere gilt:

5.3-12 Korollar: Sei dimV n und dimW m. Dann ist

dimMmnpKq dim HomKpV,W q mn.

5.3-13 Definition: Sei A pαijqij eine m n-Matrix uber K. Unter der transponierten Matrix At

versteht man die n m-Matrix, die man aus A erhalt, wenn man die Rolle von Spalten und Zeilenvertauscht, d. h. At pαjiqij .5.3-14 Probleme:

1. Sei

A 1 2 1 02 11 8 12 2 1 1

.Was ist At?

2. Zeigen Sie, dass t : MmnpKq ÑMnmpKq : A ÞÑ At lineare Abbildung ist.

3. Was istM tpEp2, 2q, Ep2, 2qq?4. Definiere

T : R2rxs ÑM22pRq : ppxq ÞÑ p1p0q 2pp0q

0 p2p3q .Zeigen Sie, dass T ein Homomorphismus ist und berechnen Sie die Matrix von T bezuglich dernaturlichen Basen E2 von R2rxs und Ep2, 2q von M22pRq.Kann man das auch fur die Menge aller reellen Polynome machen?

5.4 Komposition linearer Abbildungen

Wir starten nun mit drei Vektorraumen, U , V und W uber demselben Korper K. Wir wollen zunachstnicht voraussetzen, dass sie endlich erzeugt sind.Seien f : U Ñ V und g : V Ñ W Homomorphismen. Diese Abbildungen kann man hintereinanderausfuhren:

g f : U ÑW : u ÞÑ gpfpuqq.In 5.1-7 haben wir gesehen, dass diese neue Abbildung von U nach W ein Homomorphismus ist.

71

5.4-1 Problem: Ist”“ kommutativ, distributiv uber der Addition von Homomorphismen? Ist die

skalare Multiplikation distributiv uber der Addition von Homomorphismen?

5.4-2 Frage: Wir haben auf der Menge der Homomorphismen und auf der Menge der Matrizen jeweils

eine Addition definiert, und gesehen, dass die bijektive AbbildungMpC,Bq diese Additionen respektiert.Naturlich hatten wir auch das Pferd von hinten aufzaumen konnen: Wir hatten nur eine Addition aufder Menge der Homomorphismen definieren konnen, und uns dann fragen konnen, wie dann die Additionauf den Matrizen hatte aussehen mussen, damit die AbbildungMpC,Bq die Addition respektiert. Dannware genau die Addition von Matrizen rausgekommen, die wir bereits kennen.Zwei Homomorphismen konnen aber auch durch Hintereinanderausfuhrung

”multipliziert“ werden. Was

muss man nun mit A Mf pB,Aq und B MgpC,Bq anstellen, um die Matrix C Mgf pC,Aqzu erhalten. Wie muss also ein Produkt von Matrizen aussehen, damit MpC,Bq die Multiplikationrespektiert? Dieses Produkt sollte dann auch nur von A und B abhangen, und man sollte es berechnenkonnen, ohne irgendwelche Vektorraume, Basen und Homomorphismen zu kennen.

5.4-3 Problem: Sei f : R2 Ñ R3 definiert durch

fpα1 , α2q pα1 α2 , α2 , α1 α2qund g : R3 Ñ R2 durch

gpβ1 , β2 , β3q pβ1 β3 , β1 β2 β3q.Berechnen Sie Mf pE3, E2q, MgpE2, E3q und dann Mgf pE2, E2q durch Auswerten von g f auf Basisele-menten.

Wir betrachten nun drei endlich erzeugte K-Vektorraume U , V , W : Seien A pu1, . . . , unq, B pv1, . . . , vpq bzw. C pw1, . . . , wmq Basen dieser Vektorraume. Gegeben seien lineare Abbildungen f :U Ñ V und g : V ÑW und wir wollen die Matrix

C pγijqij Mgf pC,Aqder Komposition g f : U ÑW direkt aus den Matrizen

A pαklqkl Mf pB,Aqund

B pβrsqrs MgpC,Bqberechnen. Nach Definition ist

fpulq p

k1

αklvk und gpvsq m

r1

βrswr.

Wir haben daher

gpfpulqq p

k1

αklgpvkq p

k1

m

r1

αklβrkwr m

r1

p

k1

βrkαkl

wr ,

72

und andererseits wegen der Definition von C Mgf pC,Aq:gpfpulqq m

r1

γrlwr .

Da C pw1, . . . , wmq linear unabhangig ist, erhalten wir nun folgende Formel fur die Berechnung derEintrage der Matrix C aus denen von A und B:

γrl p

k1

βrkαkl.

5.4-4 Definition/Satz pMatrizenmultiplikationq:1. Seien B pβrkq PMmppKq und A pαklq PMpnpKq Matrizen, dann ist mit Hilfe der Formel

γrl p

k1

βrkαkl. (5.1)

eine Matrix C pγrlq gegeben. C ist dann das Produkt der Matrizen B und A und man schreibtC B A BA.

2. Seien A, B, und C endliche Basen der Vektorraume U , V bzw. W , und seien f : U Ñ V undg : V Ñ W Homomorphismen. Dann ergibt sich die Matrix C Mgf pC,Aq pγrlq als Produktder Matrizen B MgpC,Bq pβrkq und A Mf pB,Aq pαklq:Mgf pC,Aq MgpC,Bq Mf pB,Aq.

5.4-5 Bemerkung:

1. Man erhalt also den pr, lq-ten Eintrag γrl der Produktmatrix C BA, indem man sich die r-teZeile von B nimmt, auf die l-te Spalte von A legt, entsprechende Eintrage multipliziert und dannaufsummiert.

2. Insbesondere muss die Zeilenlange von B (= Anzahl der Spalten von B) mit der Spaltenlange vonA (= Anzahl der Zeilen von A) ubereinstimmen. Man kann nicht beliebige Matrizen miteinandermultiplizieren.

3. Die Produktmatrix hat die Spaltenlange von B und die Zeilenlange von A.

4. Das Kochrezept 5.2-3 α11 α12 . . . α1n

α21 α22 . . . α2n

......

. . ....

αm1 αm2 . . . αmn

ÆÆÆ λ1

λ2

...λn

ÆÆÆ µ1

µ2

...µm

ÆÆÆ .mit pαijq Mf pC,Bq zur Berechnung von fpxq °m

i1 µiwi fur x °nj1 λjvj ist von der Form:pm nq-Matrix pn 1q-Matrix pm 1q-Matrix.

Definition/Satz 5.4-4 besagt gerade, dass die Komposition von Abbildungen der Matrizenmultiplikationauf der Matrizenseite entspricht.

73

5.4-6 Problem: Sind B und C Basen von V und α, β P EndKpV q. Welche Bedeutung hat das ProduktMαpC,Bq MβpC,Bq?Wir wollen nun vereinbaren, dass wir, wenn wir ein Produkt AB von Matrizen A und B hinschreiben,immer implizit annehmen, dass die Zeilenlange von A mit der Spaltenlange von B ubereinstimmt, so dassdas Produkt wirklich definiert ist. Sollten wir das einmal nicht voraussetzen wollen, werden wir es extrasagen.

5.4-7 Problem: Sei

A 1 22 1

, B

1 0 34 1 2

,

C 1 1 41 2 0

, D 22

3

.Berechnen Sie Ap2B 3Cq, pABqD und ApBDq.5.4-8 Probleme:

1. Ist die Matrizenmultiplikation kommutativ?

2. Ist die Matrizenmultiplikation assoziativ, distributiv uber der Addition?

3. Sei

A 2 53 14 2

, B 3 2 01 1 45 5 3

und

C 4 0 3

.

Berechnen Sie At, AtB, BCt, CBt und CA.

4. Zeigen Sie: Fur Matrizen A und B und λ P K ist λpABq pλAqB ApλBq.5. Gibt es eine Matrix E, sodass AE A ist fur alle Matrizen A der passenden Große?

5.5 Endomorphismenringe

Zwei Homomorphismen eines Vektorraums V in sich, d. h. zwei Endomorphismen von V , konnen immerhintereinander ausgefuhrt werden und ergeben wieder einen Endomorphismus von V . Was entsprichtdieser Tatsache auf der Matrizenseite? Naturlich quadratische Matrizen derselben Große konnen immermiteinander multipliziert werden, und man erhalt als Produkt wieder eine quadratische Matrix derselbenGroße. Mit anderen Worten:

5.5-1 Satz: Die Hintereinanderausfuhrung von Homomorphismen eines Vektorraums V in sich ist einebinare Operation auf EndKpV q. Diese ist assoziativ und distributiv auf beiden Seiten uber der Addition.Der Endomorphismus idV ist das neutrale Element bezuglich der Komposition von Endomorphismen.Dazu gilt fur f, g P EndKpV q und λ P K:

λpf gq pλfq g f pλgq.Beachte, dass V hier nicht notwendigerweise endlich erzeugt ist.Mit Hilfe des Isomorphismus MpC,Bq kann man die Resultate fur Homomorphismen auf Matrizenubertragen:

74

5.5-2 Satz: Sei n P N. Dann definiert die Matrizenmultiplikation eine binare Operation auf der MengeMnpKq MnnpKq der n n-Matrizen uber K. Diese ist assoziativ und distributiv auf beiden Seitenuber der Addition von Matrizen. Die Matrix

E En 1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

ÆÆÆ ist neutrales Element bezuglich der Multiplikation. Sind A und B n n-Matrizen und ist λ P K, so ist:

λpABq pλAqB ApλBq.Wir haben es jetzt also mit Vektorraumen zu tun, die noch zusatzlich eine Multiplikation zulassen. SolcheStrukturen haben einen extra Namen: Ringe bzw. K-Algebren.

5.5-3 Definition:

1. Ein Ring ist eine abelsche Gruppe pR,q mit einer assoziativen binaren Operation R R Ñ R :pr, sq ÞÑ r s rs, genannt Multiplikation, die auf beiden Seiten distributiv uber der Addition ist.Hat R eine neutrales Element bezuglich der Multiplikation, so wird dieses Einselement genannt undgewohnlich mit 1R oder nur 1 bezeichnet. Man spricht dann auch von einem Ring mit Eins . EinRing mit kommutativer Multiplikation heißt kommutativer Ring.

2. Eine K-Algebra ist ein K-Vektorraum A, der zugleich ein Ring mit Eins ist, sodass gilt:

λpabq pλaqb apλbq a, b P A, λ P K.5.5-4 Problem: Zeigen Sie: Ist R ein Ring, dann ist 0a a0 0 fur alle a P R.

5.5-5 Beispiel: Beispiele fur kommutative Ringe sind Z, R und etwa der Ring der (stetigen, differen-zierbaren) reellen Funktionen, mit der ublichen punktweisen Multiplikation von Funktionen. Alle dieseRinge haben Einselemente, welche sind das? Bis auf Z sind auch alle diese Ringe R-Algebren.Der Vektorraum der m n-Matrizen wird zur kommutativen K-Algebra, wenn man eine andere, namlichdie punktweise Multiplikation d der Matrizen A pαjiq und B pβjiq aus MmnpKq wie folgt definiert:

AdB pγjiq mit γji αjiβji i, j.Diese K-Algebra ist aber fur unsere Zwecke uninteressant.

5.5-6 Problem: Sei R die Menge der reellen Funktionen. Ist R mit punktweiser Addition und Kompo-sition als Multiplikation ein Ring?

5.5-7 Satz: Sei K ein Korper und sei V ein K-Vektorraum. Dann ist EndKpV q eine K-Algebra, wobeidie Multiplikation zweier Endomorphismen von V als Komposition definiert ist.

Ahnlich haben wir nun fur die Menge der n n-Matrizen:

5.5-8 Satz: Sei n P N. Die Menge MnpKq der n n-Matrizen ist eine K-Algebra der Dimension n2

bezuglich der in 5.4-4 erklarten Matrizenmultiplikation.

In 5.3-7 haben wir festgestellt, dass MpC,Bq ein Vektorraumisomorphismus von HomKpV,W q aufMmnpKq ist. Wie sieht es nun mit der zusatzlichen Struktur einer K-Algebra aus?

75

5.5-9 Probleme:

1. Wie sollte man Homomorphismen von Gruppen definieren?

2. Wie sehen Kerne von solchen Homomorphismen aus?

3. Ist das Bild einer abelsche Gruppe unter einem Homomorphismus abelsch?

4. Was sind Epimorphismen, Monomorphismen, Isomorphismen von Gruppen?

5. Nun dieselben Fragen fur Ringe anstatt Gruppen.

6. Und nochmals: Dasselbe fur K-Algebren.

5.5-10 Satz: Sei V ein K-Vektorraum der Dimension n mit Basis B. Dann istMpB,Bq : EndKpV q ÑMnpKq : f ÞÑMf pB,Bqein Isomorphismus von K-Algebren.

5.5-11 Problem: Was erhalt man, wenn man in obigem Satz eine der beiden Basen B durch eineandere Basis C von V ersetzt?

5.6 Automorphismen und invertierbare Matrizen

In diesem Abschnitt wollen wir Isomorphismen und ihre Matrizen genauer untersuchen. Wir beginnenmit einem ganz allgemeinen Resultat:

5.6-1 Definition/Satz: Sei A eine K-Algebra (Ring) mit einem Einselement. Dann heißt a P A

invertierbar oder Einheit, falls es ein multiplikatives Inverses zu a gibt, d. h. falls es ein Element b inA gibt, sodass ab ba 1 ist. Wir schreiben dann wie ublich b a1. Die Menge der invertierbarenElemente von A ist multiplikativ abgeschlossen und bildet mit der Multiplikation eine Gruppe, die GruppeUpAq der Einheiten oder Einheitengruppe in A.Ist B eine weitere K-Algebra (bzw. ein weiterer Ring), und ist f : AÑ B ein K-Algebrahomomorphismus(Ringhomomorphismus), so ist fpUpAqq UpBq und die Einschrankung f |UpAq von A auf UpAq ist einGruppenhomomorphismus von UpAq in die Einheitengruppe UpBq von B. Ist f ein Isomorphismus, soauch f |UpAq.Wenn keine Missverstandnisse zu befurchten sind, bezeichnen wir die Einschrankung einer Abbildung fauf eine Teilmenge des Definitionsbereichs wieder mit f .Sei V wieder ein n-dimensionaler Vektorraum uber K mit Basis B. Wir haben gesehen, dass ein Endo-morphismus von V genau dann invertierbar ist, wenn er ein Isomorphismus, d. h. ein Automorphismusist. Der obige Satz besagt nun, dass die Menge AutKpV q der invertierbaren Elemente von EndKpV qeine Gruppe bezuglich der Komposition von Abbildungen bildet. Naturlich ist diese nicht abgeschlos-sen bezuglich der Addition (aber bezuglich der Multiplikation mit Skalaren 0). Die EinheitengruppeUpMnnpKqq der K-Algebra MnnpKq wird mit GLnpKq bezeichnet. Nach Obigem induziertMpB,Bqdurch Einschranken einen Gruppenisomorphismus von AutKpV q auf GLnpKq.5.6-2 Definition: Seien A und B K-Algebren (Ringe). Eine K-lineare Abbildung f : A Ñ B heißtAntihomomorphismus , falls

fpabq fpbqfpaqist fur alle a, b P A. Analog definieren wir Antimono-, Antiepi- und Antiisomorphismen und Antimorphis-men fur Gruppen.

76

5.6-3 Probleme:

1. Was sind Antihomomorphismen von abelschen Gruppen?

2. Inverse zu nehmen ist ein Antiautomorphismus von Gruppen.

5.6-4 Satz: Sei n P N. Dann ist das Transponieren

t : MnnpKq ÑMnnpKq : A ÞÑ At

ein Antiautomorphismus. Seine Einschrankung auf invertierbare Matrizen ist ein Antiautomorphismusvon GLnpKq, und es gilt: pAtq1 pA1qt fur alle A P GLnpKq .5.7 Der Rang einer Matrix

V und W sind nunK-Vektorraume mit Basen A und B. In Satz 5.2-10 haben wir gesehen, dassMpB,Aqein Isomorphismus zwischen der Menge der Homomorphismen und der Menge derm n-Matrizen ist (mitn dim V und m dimW ). Oft will man aber Basen von V und W so finden, dass die Matrix einesgegebenen Homomorphismus von V nach W bezuglich dieser Basen besonders

”schon“ wird. Wir wollen

also nun der Frage nachgehen, was passiert, wenn man den Homomorphismus f : V Ñ W festhalt unddie Basen A,B variiert. Welche Matrizen erhalt man?

5.7-1 Definition: Sei f : V Ñ W ein Homomorphismus. Dann ist Mf p,Aq die Menge aller m n-

Matrizen der Form Mf pB,Aq, wobei B alle Basen von W durchlauft. Analog werden Mf pB,q undMf p,q definiert.

5.7-2 Probleme:

1. Was istM0p,Aq, M0pB,q,M0p,q?2. Ist die Abbildung von der Menge der Paare A,B in die Menge der Matrizen, die pA,Bq aufMf pA,Bq

abbildet, injektiv? Oder Surjektiv?

3. Wie verhalten sich die Mengen Mf p,q und Mgp,q fur zwei Homomorphismen zueinander?Sind diese Mengen in irgendeinem Sinne gleich groß?

4. Was passiert, wenn man zusatzlich zu f nun eine der beiden Basen festhalt?

5. Warum bestehtMidVp,q aus invertierbaren Matrizen?

Fur zwei Teilmengen A,B eines Rings R sei

AB tab | a P A, b P Bu,und ahnlich fur r P R sei

rA tra | a P Au, und Ar tar | a P Au.Wir wollen nun die MengenMf p,q exakt bestimmen.

77

5.7-3 Satz:

1. Ist f P HomKpV,W q, dann ist Mf p,q GLmpKqMf pB,AqGLnpKq fur jede Wahl von BasenA von V und B von W .

2. Seien f, g : V ÑW Homomorphismen. Dann ist entwederMf p,q XMgp,q H oderMf p,q Mgp,q.So haben wir auf MmnpKq eine Aquivalenzrelation definiert durch:

A B Df P HomKpV,W q : A,B PMf p,qfur m n-Matrizen A und B.

5.7-4 Korollar: Seien A und B zwei m n-Matrizen. Dann ist A B genau dann, wenn es X PGLmpKq und Y P GLnpKq gibt, sodass

B XAY

ist.

5.7-5 Definition: Sei A P MmnpKq. Dann ist der Spaltenrang von A die Dimension des von denSpaltenvektoren aufgespannten Unterraums des Km. Analog ist der Zeilenrang von A definiert.

Im folgenden sind V,W,U, . . . endlich dimensionale Vektorraume uber einem festen KorperK. Wir wahlenBasen A,B, C, . . . von V , W , U , . . . .

5.7-6 Lemma: Sei f : V Ñ W ein Homomorphismus. Dann ist der Spaltenrang von Mf pB,Aq gleichder Dimension von im f .

5.7-7 Korollar: Sei f : V Ñ W ein Homomorphismus. Dann haben alle Matrizen in Mf p,qdenselben Spaltenrang gegeben durch die Dimension von im f .

5.7-8 Problem: Gibt es eine ahnliche Interpretation fur den Zeilenrang?

Das bedeutet, dass zwei Matrizen mit verschiedenem Spaltenrang nicht aquivalent unter sein konnen.Gilt auch die Umkehrung, namlich, dass Matrizen, die nicht aquivalent sind, auch verschiedenen Spal-tenrang haben, bzw. dass Matrizen mit gleichem Spaltenrang aquivalent sind? Der nachste Satz zeigtdies:

5.7-9 Satz: Sei f : V ÑW ein Homomorphismus und sei k die Dimension des Bildes von f . Dann ist

folgende Matrix Emnpkq in Mf p,q enthalten:

Emnpkq 1 0 . . . 0 0 . . . 00 1 . . . 0 0 . . . 0...

.... . .

...... . . .

...0 0 . . . 1 0 . . . 00 0 . . . 0 0 . . . 0...

......

......

......

0 0 . . . 0 0 . . . 0

ÆÆÆÆÆÆÆÆÆÆ , mit k vielen Einsen.

78

Diese Matrix hat Spalten- und Zeilerang k, und daher bestehtMf p,q genau aus allen m n-Matrizen,die Spaltenrang k haben.

5.7-10 Korollar: Ist f : V ÑW lineare Abbildung, dann ist

dimKpim fq dimKpker fq dimKpV q.5.7-11 Korollar: Spalten- und Zeilenrang von Matrizen stimmen uberein.

So brauchen wir zwischen Spalten- und Zeilenrang nicht mehr zu unterscheiden und sprechen einfach vomRang einer Matrix A. Dieser wird mit rgpAq bezeichnet.Seien n und m naturliche Zahlen und sei k die kleinere von beiden. Dann hat MmnpKq genau k 1AquivalenzklassenMi bezuglich , namlichMi tA PMmnpKq | rgpAq iu,wobei i von 0 bis k lauft.Wir wenden uns nun der Frage zu, wie wir den Rang einer Matrix A konkret ausrechnen konnen. Die Ideeist, A als MatrixMf pB,Aq eines Homomorphismus f aufzufassen, und dann durch vorsichtiges Abandernder Basen A und B die Matrix zu verandern bis sie die Form Emnpkq fur ein k hat. Dabei bleibt ja derRang konstant und wir konnen schließen, dass A den Rang k hat. Mit anderen Worten: Wir konstruierenBasen A1 und B1, sodass Mf pB1,A1q Emnpkqist.

5.7-12 Probleme: Fur die folgenden Probleme sei A pv1, v2, . . . , vnq eine fest gewahlte geordneteBasis eines K-Vektorraums V . Sei A1 eine Teilmenge von V , die durch Modifikation von A entsteht,namlich durch

(a) Multiplikation eines vi mit einem Skalar 0 λ P K.

(b) Das Vertauschen zweier Vektoren in A.

(c) Das Ersetzen von vi durch v1i vi λvj fur 1 ¤ i, j ¤ n, i j mit λ P K.

1. Zeigen Sie, dass A1 eine Basis ist.

2. Wie sieht die Matrix M MidVpA,A1q und ihre Inverse aus?

3. Sei A eine m n-Matrix. Beschreiben Sie AM .

4. Nun sei A eine nm-Matrix. Was ist MA?

Wir definieren nun einige Operationen auf den Zeilen und Spalten einer Matrix:

5.7-13 Definition: Sei A eine m n-Matrix. Dann werden folgende Manipulationen als elementareZeilenoperationen bezeichnet:

1. Multiplikation einer Zeile mit einem Skalar λ 0.2. Vertauschen zweier Zeilen.3. Addition eines Vielfachen der j-ten Zeile zur i-ten Zeile fur 1 ¤ i, j ¤ m, i j.

79

Elementare Spaltenoperationen werden analog definiert. Elementare Zeilen- und Spaltenoperationen zu-sammen heißen elementare Operationen.

Wie wir gesehen haben, entspricht die Anwendung einer elementaren Operation auf eine Matrix A demProdukt AM (fur Spaltenoperationen) bzw. MA (fur Zeilenoperationen) mit einer geeigneten invertier-baren Matrix M , die man als Basiswechselmatrix auffassen kann. Solche speziellen Basiswechselmatrizenheißen auch Elementarmatrizen.

5.7-14 Satz: Unter elementaren Operationen bleibt der Rang einer Matrix erhalten.

5.7-15 Satz: Sei A pαijq eine m n-Matrix uber K. Dann gibt es eine Reihe von elementarenOperationen, die, wenn man sie auf A anwendet, die Matrix Emnpkq produzieren, wobei k rgpAq ist.

5.7-16 Folgerungen:

1. Sei A P GLnpKq. Dann ist rgpAq n und daher A Ennpnq. Genauer: Ist A eine n n-Matrix,so ist A genau dann invertierbar, wenn sie Rang n hat.

2. Ennpnq En ist die Einsmatrix.

3. Jede invertierbare Matrix ist Produkt von Elementarmatrizen.

4. Sei A PMmnpKq. Dann ist rgpAq rgpAtq.5.7-17 Probleme:

1. Bestimmen Sie den Rang der Matrix

A 3 2 45 6 71 4 10 1 0

ÆÆ .2. Seien A und B Matrizen, deren Produkt definiert ist. Zeigen Sie dass

rgpABq ¤ mintrgpAq, rgpBquist, wobei wir mit minS das kleinste Element in einer endlichen linear geordneten Menge S be-zeichnen.

3. Wahr oder falsch?

(a) Elementarmatrizen sind quadratisch.(b) Elementarmatrizen haben nur Nullen und Einsen als Eintrage.(c) Das Produkt (die Summe) zweier Elementarmatrizen ist eine Elementarmatrix.(d) Die Transponierte einer Elementarmatrix ist eine ebensolche.(e) Elementarmatrizen sind invertierbar und ihre Inversen sind ebenfalls Elementarmatrizen.(f) Erhalt man B aus A durch elementare Spaltenoperationen, so erhalt man A aus B ebenfalls

durch elementare Spaltenoperationen.(g) Die Einsmatrix ist eine Elementarmatrix.(h) Elementare n n-Matrizen haben Rang n.

80

4. Was ist der Rang von

A 0 2 4 2 24 4 4 8 08 2 0 10 26 3 2 9 1

ÆÆ ?

5. Zeigen Sie: Eine invertierbare Matrix kann durch elementare Spaltenoperationen (Zeilenoperatio-nen) in die Einsmatrix E transformiert werden.

Mit Hilfe elementarer Zeilenoperationen kann man einen Algorithmus zur Berechnung der Inversen einerinvertierbaren Matrix entwickeln.

5.7-18 Definition: Sei A pαjiq P MmnpKq und B pβklq P MmppKq. Die augmentierte MatrixpA|Bq erhalt man durch Aneinanderfugen der Spalten von A und B: α11 α12 α1n β11 β12 β1p

α21 α22 α2n β21 β22 β2p

......

......

......

αm1 αm2 αmn βm1 βm2 βmp

ÆÆÆ .Sei nun A eine invertierbare n n-Matrix. Wir bilden die augmentierte n 2n-Matrix C pA|Enq.Wie wir gesehen haben, lasst sich A, also auch A1, als Produkt von Elementarmatrizen Ei schreiben:

A1 EpEp1 E1,

und wir haben daherEpEp1 E1pA|Enq A1C pEn|A1q.

Man kann also pA|Enq durch eine Folge elementarer Zeilenoperationen in pEn|A1q transformieren.Man erhalt also A1 indem man die Einsmatrix neben A hinschreibt und dann durch elementare Zei-lenoperationen A in die Einsmatrix transformiert und dabei dieselben elementaren Operationen auf dieEinsmatrix anwendet.

5.7-19 Beispiel: Sei

A 0 2 42 4 23 3 1

, also C 0 2 4 1 0 02 4 2 0 1 03 3 1 0 0 1

.Wir fuhren nun folgende elementare Zeilenoperationen auf den Zeilen z1, z2, z3 von C aus: 0 2 4 1 0 1

20

2 4 2 0 1 12

03 3 1 0 0 1

;

0 1 2 1

20 0

1 2 1 0 1

2p3q0

3 3 1 0 0 ê1

;

0 1 2 1

20 0

1 2 1 0 1

20

0 3 2 0 3

21

;

1 2 1 0 1

20

0 1 2 1

20 30

0 3 2 0 3

2ê1

;

1 2 1 0 1

20

0 1 2 1

20 0

0 0 4 3

2 3

2 14

1

;

1 2 1 0 1

20

0 1 2 1

20 0

0 0 1 3

8 3

8

1

4

;

1 2 0 3

8

7

8 1

4

0 1 0 1

4

3

4 1

2

0 0 1 3

8 3

8

1

4

;

1 0 0 1

8 5

8

3

4

0 1 0 1

4

3

4 1

2

0 0 1 3

8 3

8

1

4

.81

Also gilt

A1 1

8 5

8

3

4 1

4

3

4 1

2

3

8 3

8

1

4

82

Kapitel 6

Lineare Gleichungssysteme

Ein lineares Gleichungssystem G bestehend aus m Gleichungen in n Unbestimmten xj , 1 ¤ j ¤ n, mitKoeffizienten αij in K (wobei wie immer K ein Korper ist) hat die Form:

α11x1 α12x2 α1nxn β1

α21x1 α22x2 α2nxn β2

......

......

αm1x1αm2x2 αmnxn βm

mit βi P K.In diesem Kapitel wollen wir die Theorie der linearen Abbildungen dazu benutzen, solche Systeme zulosen. Wir beginnen mit einigen theoretischen Vorbereitungen und diskutieren dann in einem zweitenAbschnitt praktische Algorithmen.

6.1 Theoretisches

Als erstes schreiben wir das Gleichungssystem G oben in eine Matrixgleichung um:

Ax b

mit

x x1

x2

...xn

ÆÆÆ P Kn, b β1

β2

...βm

ÆÆÆ P Km und A pαijq PMmnpKq.Wir definieren nun den Homomorphismus fA : Kn Ñ Km durch

fApxq Ax fur x P Kn.

Nach Satz 5.2-10 haben wir dann: MfApEm, Enq A.

Die Abbildung fA heißt der zu G gehorende Homomorphismus. Man beachten, dass dieser nicht von demVektor b abhangt.

83

6.1-1 Beobachtung: Die Losungsgesamtheit des Gleichungssystems G besteht aus allen Vektoren in

der Faser f1A pbq.

6.1-2 Definition: Sei das lineare Gleichungssystem G : Ax b wie oben gegeben. Ist b der Nullvektor,so heißt G homogen sonst inhomogen. Im inhomogenen Fall b 0 heißt das Gleichungssystem H : Ax 0das zu G gehorende homogene System.

6.1-3 Satz: Die Losungsgesamtheit eines homogenen linearen Gleichungssystems Ax 0 besteht genauaus den Vektoren in ker fA fur den zugehorigen Homomorphismus fA : Kn Ñ Km : x ÞÑ Ax.

Insbesondere ist dies ein linearer Unterraum von Kn der Dimension n rgpAq, und es genugt, eine Basisdesselben zu finden. Eine Losung gibt es fur ein homogenes System immer, namlich den Nullvektor x 0.Diese nennt man die triviale Losung.

6.1-4 Korollar: Das homogene System H : Ax 0 hat genau dann nichttriviale Losungen, wenn derzugehorige Homomorphismus fA nicht injektiv ist. Die Menge der Losungen von H ist ein Unterraumvon Kn der Dimension n rgpAq.So hat, falls der Korper K unendlich viele Elemente besitzt, H entweder eine oder unendlich viele Losun-gen.Die Losungsgesamtheit f1

A pbq von G wird nun mit LG bezeichnet. Zwei Gleichungssysteme G und G1heißen aquivalent, falls LG LG1 ist. Die Spaltenvektoren von A werden mit s1, . . . , sn bezeichnet undals Elemente von Km aufgefasst.

6.1-5 Satz: Fur das Gleichungssystem G : Ax b mit A P MmnpKq sind folgende Aussagen aquiva-lent:

1. G besitzt eine Losung.

2. b P im fA.

3. rgpAq rgpA|bq.Daruberhinaus hat das System G hat genau dann eine eindeutige Losung, wenn

rgpAq rgpA|bq n

ist.

Erinnerung: Die augmentierte Matrix pA|bq entsteht durch Hinzufugen der Spalte b zur Matrix A (vgl.5.7-18).

6.1-6 Satz: Sei x0 eine Losung des Systems G. Dann ist

LG x0 ker fA.

Hier sind noch zwei leichte Folgerungen:

6.1-7 Korollar: Sei G : Ax b ein lineares Gleichungssystem von n Gleichungen in n Unbestimmten.Dann hat G eine eindeutige Losung genau dann, wenn A invertierbar ist. In diesem Fall ist die Losunggegeben durch:

x A1b.

84

6.1-8 Korollar: Sei m n und sei H : Ax 0 ein homogenes System von m Gleichungen in n

Unbestimmten. Dann hat H nichttriviale Losungen.

6.2 Konkretes

Wir wollen nun zur Losung linearer Gleichungssysteme einen Algorithmus erarbeiten. Wir beginnen miteinem Problem, wobei G : Ax b wieder das System von m Gleichungen in n Unbestimmten mitKoeffizientenmatrix A pαjiq sei:Sie erinnern sich sicher aus der Schule, dass man mit Systemen von Gleichungen folgende Manoverdurchfuhren darf:

1. Multiplikation einer Gleichung mit einem Skalar 0.

2. Addition eines Vielfachen einer Gleichung zu einer anderen.

3. Und sicher darf man Gleichungen vertauschen.

Alle anderen Operationen lassen sich auf diese zuruckfuhren.

6.2-1 Satz: Sei G : Ax b ein lineares Gleichungssystem mit A PMmnpKq. Ergibt sich die mpn1q-Matrix pA1|b1q aus pA|bq durch elementare Zeilenoperationen, so ist LG LG1 , wobei das Gleichungssy-stem G1 durch G1 : A1x b1 gegeben ist. Ergibt sich A2 aus A durch eine Permutation π der Spalten vonA, und bezeichnet G2 das Gleichungssystem A2x b, so erhalt man LG, indem man auf die Komponenteneines jeden Losungsvektor x0 von G2 die inverse Permutation π1 anwendet.

6.2-2 Bemerkung: Beachten Sie, dass Zeilenoperationen einen Basiswechsel im Bildraum Km dar-stellen und daher durch Linksmultiplikation mit den entsprechenden Basiswechselmatrizen produziertwerden konnen. Solange wir die Basis En unseres Ursprungraumes beibehalten, andern wir die Losungs-menge nicht.

Ein Basiswechsel in Kn hingegen andert die Losungen. Die einzige Spaltenoperation, die wir (wenn’s garnicht anders geht) daher zulassen wollen, ist die Vertauschung von Spalten. Dies entspricht dann demVertauschen der entsprechenden Variablen, und dies mussen wir dann am Ende ruckgangig machen.

6.2-3 Problem: Warum kann man alle diese Vertauschungen von Spalten dann zu einer einzigen Per-mutation der Spalten zusammenfassen (die man jederzeit, vor/ nach/ zwischen den Zeilenoperationenanwenden kann)? Wie wir sehen werden, genugen diese Operationen, um pA, bq in eine Gestalt zu trans-formieren, dass wir alle Losungen von G unmittelbar hinschreiben konnen.

6.2-4 Problem: In Satz 5.7-9 hatten wir eine spezielle Wahl von Basen in V und W vorgenommen,um eine besonders “schone” Matrix eines gegebenen Homomorphismus f : V Ñ W zu produzieren.Nun konnen wir lediglich solche Basiswechsel vornehmen, die elementaren Zeilenoperationen und einerPermutation der Spalten von A entsprechen. Die resultierende Matrix ist nicht mehr ganz so schon undwird im folgenden Satz 6.2-5 beschrieben. Zeigen Sie mit einem abstrakten Argument, dass eine solcheMatrix durch obige eingeschrankten elementaren Operationen erreicht werden kann.

85

6.2-5 Satz: Sei G : Ax b ein lineares Gleichungssystem mit A PMmnpKq. Dann kann die augmen-tierte Matrix pA|bq durch Zeilenoperationen und die Anwendung einer Permutation π der Spalten von A

auf folgende Gestalt pA1|b1q gebracht werden:1 0 0 0 δ1,r1 δ1,n β110 1 0 0 δ2,r1 δ2,n β12...

. . ....

......

...0 0 1 0 δr1,r1 δr1,n β1r1

0 0 0 1 δr,r1 δr,n β1r0 0 0 0 β1r1

......

......

...0 0 0 0 β1m

ÆÆÆÆÆÆÆÆÆÆÆÆ mit gewissen Skalaren δkl und β1i, 1 ¤ k ¤ r, r 1 ¤ l ¤ n und 1 ¤ i ¤ m. Hierbei ist r der Rang derMatrix A (und daher ist insbesondere r ¤ n).

Aus den obigen Erkenntnissen wissen wir, dass wir aus den Losungen von G1 : A1x b1 die Losungen vonG zuruckgewinnen konnen. Daher wollen wir nun die Losungsgesamtheit von G1 beschreiben:

6.2-6 Satz: Sei G : Ax b ein Gleichungssystem, sodass pA|bq die folgende Form hat:1 0 0 0 α1,r1 α1,n β1

0 1 0 0 α2,r1 α2,n β2

.... . .

......

......

0 0 1 0 αr1,r1 αr1,n βr1

0 0 0 1 αr,r1 αr,n βr

0 0 0 0 βr1

......

......

...0 0 0 0 βm

ÆÆÆÆÆÆÆÆÆÆÆÆ .Dann ist G genau dann losbar, wenn βr1 βr2 βm 0 ist, und in diesem Fall besteht dieLosungsgesamtheit LG des Systems aus allen Vektoren der Form:

x x0 λ1x1 λ2x2 λsxs

mit λ1, λ2, . . . , λs P K, s n r und r rgpAq. Die Vektoren xi, i 0, 1, . . . , s sind wie folgt definiert:

x0 β1

β2

...

...βr

0......0

ÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆ P Kn und xi α1,riα2,ri

...αr,ri

0...0 Ý pr iq-ter Eintrag10...0

ÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆ P Kn

86

fur i 1, 2, . . . , s, wobei der Eintrag 1 in xi in Position r i steht. Dabei ist x0 eine spezielle Losungund die xi, i 1, 2, . . . , s spannen ker fA auf.

Es ist nun klar, wie wir im allgemeinen vorzugehen haben:

6.2-7 Kochrezept: Vorgelegt sei ein Gleichungssystem G : Ax b. Wir bilden die augmentierte MatrixC pA|bq. Ist die erste Spalte von C eine Nullspalte, so vertauschen wir sie mit der ersten Spalte vomA-Teil von C, die nicht die Nullspalte ist (ist A die Nullmatrix, so sind wir fertig). Dann erreichen wirdurch eine Permutation der Zeilen von C, dass an Position 1, 1 ein Korperelement verschieden von 0 steht.Durch Abziehen geeigneter Vielfacher der ersten Zeile von den ubrigen erreichen wir, dass in der erstenSpalte bis auf den ersten Eintrag nur Nullen stehen. Wir dividieren die erste Zeile durch den Skalar anPosition 1, 1. Nun fahren wir mit der zweiten Spalte ahnlich fort, wobei unsere Zeilenoperationen zunachstnicht mehr die erste Zeile involvieren.Am Schluss steht an Platz zwei der zweiten Spalte eine Eins und man kann durch Abziehen eines geeig-neten Vielfachen der zweiten von der ersten Zeile erreichen, dass diese Eins der einzige Eintrag in derzweiten Spalte ist. Die erste Spalte bleibt dabei fest. Wir fahren mit den folgenden Spalten und Zeilen fortund enden mit einer Matrix C 1 pA1|b1q der Form, wie sie in den vorigen Satzen gegeben ist, wobei wiruns dabei die ausgefuhrten Spaltenvertauschungen merken:

C 1 1 0 0 0 δ1,r1 δ1,n β110 1 0 0 δ2,r1 δ2,n β12...

. . ....

......

...0 0 1 0 δr1,r1 δr1,n β1r1

0 0 0 1 δr,r1 δr,n β1r0 0 0 0 β1r1

......

......

...0 0 0 0 β1m

ÆÆÆÆÆÆÆÆÆÆÆÆ Ist β1i 0 fur ein r 1 ¤ i ¤ m, so ist das System nicht losbar. Sonst fullen wir die Matrix C 1 mitNullen auf oder streichen Nullen, bis eine Matrix mit n Zeilen entsteht. Dann multiplizieren wir alleEintrage der Spalten r 1 bis n mit 1 und ersetzen beim i-ten Vektor an Position r i die 0 durcheine 1. Die Spalten sr1, . . . , sn der modifizierten Matrix ergeben eine Basis B px1, . . . , xnrq derLosungsgesamtheit des zugehorigen homogenen Systems. Die letzte modifizierte Spalte bleibt unverandertund ergibt unsere spezielle Losung x0:

1 0 0 0 δ1,r1 δ1,n β110 1 0 0 δ2,r1 δ2,n β12...

. . ....

......

...0 0 1 0 δr1,r1 δr1,n β1r1

0 0 0 1 δr,r1 δr,n β1r0 0 0 1 0 β1r1ä 0...

......

. . ....

...0 0 0 0 β1mä 00 0...

. . ....

0 Òx1

1Òxs

0Òx0

ÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆÆ 87

Dann machen wir die Spaltenvertauschungen durch die entsprechende Permutation in den Komponentender Vektoren x0, x1, . . . , xnr wieder ruckgangig. Die allgemeine Losung des Systems ergibt sich, indemwir zu x0 (der von der letzten Spalte kommt) eine beliebige Linearkombination von B hinzuaddieren.

6.2-8 Beispiel: G sei folgendes Gleichungssystem:

x1 5x2 6x4 x5 12x1 2x2 x3 4x4 3x5 0 7x2 x3 7x4 x5 1x1 2x2 x3 x4 2x5 2

.

Wir fuhren folgende elementare Operationen durch:pA|bq 1 5 0 6 1 p2q 112 2 1 4 3 ê00 7 1 7 1 11 2 1 1 2 ê2

ÆÆ ;

1 5 0 6 1 10 8 1 8 1 20 7 1 7 1 10 7 1 7 1 1

ÆÆ Spalte 2 und 3 vertauschen

;

1 0 5 6 1 10 1 8 8 1 è20 1 7 7 1 è10 1 7 7 1 1 11

ÆÆ ;

1 0 5 6 1 10 0 1 1 0 30 0 0 0 0 00 1 7 7 1 1

ÆÆ Zeile 4 in die 2.Zeile

;

1 0 5 6 1 è10 1 7 7 1 è10 0 1 1 0 7 5 p1q30 0 0 0 0 0

ÆÆ ;

1 0 0 1 1 140 1 0 0 1 220 0 1 1 0 30 0 0 0 0 0

ÆÆ Der Vektor

x0 1422300

ÆÆÆÆ P R5

ist fast eine spezielle Losung des Systems.Wir haben jedoch die zweite und dritte Spalte vertauscht, d. h. die Variablen x2 und x3. Diese Vertau-

88

schung mussen wir jetzt ruckgangig machen. Ebenso mussen wir diese Vertauschung bei

x1 10110

ÆÆÆÆ und x2 11001

ÆÆÆÆ durchfuhren.Wir erhalten daher als Losungsgesamtheit von G:

LG $''''&''''% 1432200

ÆÆÆÆ λ 11010

ÆÆÆÆ µ 10101

ÆÆÆÆ λ, µ P R

,////.////- .

Beachten Sie, dass die Permutation der Spalten, die man durchfuhrt, gewohnlich als Kette von Ver-tauschungen zweier Spalten gegeben ist. Beim Ruckgangigmachen mussen dann diese in umgekehrterReihenfolge durchlaufen werden (warum?). Machen Sie die Probe!Hier sind noch einige weitere Anwendungen von linearen Gleichungssystemen:Angenommen wir haben k Gleichungssysteme mit derselben Koeffizientenmatrix vorgelegt, d. h. wirhaben k Vektoren b1, . . . , bk P Km gegeben und sollen simultan die Gleichungssysteme

Ax bi i 1, . . . , k

losen. Wie wird man vorgehen? Naturlich muss man die oben beschriebene Prozedur nicht k mal durch-laufen, sondern man kann das auf einmal erledigen, indem man das Verfahren auf die augmentierteMatrix

C pA|b1, b2, . . . , bkqanwendet. Man transformiert C durch Zeilenoperationen und, wenn notig, Spaltenoperationen im A-Teilauf eine Form

C 1 pA1|b11, b12, . . . , b1kqmit

”schonem“ A1 gemaß unserem obigen Kochrezept.

Dann machen wir wieder die Spalten b1i zu Elementen des Kn und haben die speziellen Losungen xpiq0 .

Die Basis des Kerns von fA andert sich nicht, es ist ja gerade die Losungsgesamtheit des zugehorigenhomogenen Systems. Diese kann nach obigen Verfahren direkt aus A1 gewonnen werden. Naturlich kannman auch diese k Gleichungssysteme simultan durch eine Matrizengleichung ausdrucken:

AX B,

wobei der i-te Spaltenvektor fur eine (unbekannte) Losung des i-ten Gleichungssystems steht (so ist Xein n k-Matrix), und die i-te Spalte von B gerade bi ist (so ist B eine m k-Matrix).Ein Spezialfall entsteht, wenn m n und B E ist. Dann lautet die Matrizengleichung

AX E

und die Losung ist die Inverse A1, sofern sie existiert. Ist A singular , d. h. nicht invertierbar, so isteben AX E nicht losbar. Aber kommt uns das nicht bekannt vor? Blattern Sie mal zu Beispiel 5.7-19zuruck!

89

6.3 Numerisches

Aus dem vorigen Paragraphen ist unschwer zu erkennen, dass in der Praxis durchaus große Gleichungssy-steme mit vielen Unbestimmten auftreten konnen. (

”Groß“ und

”viel“ kann hier etwa bedeuten: Mehrere

tausend Gleichungen in ebenso vielen Unbestimmten).Die Losungsgesamtheit LG eines linearen Gleichungssystems braucht man aber nicht immer in der Form,wie sie im Abschnitt

”Konkretes“ entwickelt wurde.

Oft genugt es, eine Reihe von Variablen als frei wahlbar auszuzeichnen und Gleichungen fur die Abhangig-keit der ubrigen Variablen von den freien aufzustellen. Um eine Darstellung der Losungsgesamtheit indieser Form zu erreichen, kann man ein etwas einfacheres Verfahren wahlen, das lediglich Zeilenoperatio-nen erfordert: Der sogenannte Gauß-Algorithmus.

6.3-1 Definition: Eine m n-Matrix A pαjiq mit Zeilenvektoren zj (1 ¤ j ¤ m) ist in Treppenform(”row echelon“ form), falls gilt: A ist die Nullmatrix oder es gibt Indizes 1 ¤ i1 i2 ir ¤ n mit

r rgpAq und folgenden Bedingungen.

1. Alle Zeilen zj mit j ¡ r sind Nullzeilen.2. Ist j ¤ r, so ist der erste von Null verschiedene Eintrag in der j-ten Zeile von A in Spalte ij:

Ist k ij , so ist αjk 0 und αjij 0. (Wegen ij ij1 “wandern” diese fuhrenden von Null

verschiedenen Koeffizienten mit wachsendem Zeilenindex strikt nach rechts.)

6.3-2 Beispiel: Seien

A 2 1 10 0 50 0 2

, B 1 1 20 1 40 0 0

, C 1 1 20 2 10 0 1

,dann ist A nicht, aber B und C sind in Treppenform.

6.3-3 Beobachtung: Sei Ax b ein Gleichungssystem in oberer Dreiecksgestalt: Das heißt, dass n m

ist und A die Gestalt

A α11 α12 . . . α1,n1 α1n

0 α22 . . . α2,n1 α2n

.... . .

......

. . ....

0 0 . . . 0 αnn

ÆÆÆÆÆÆ hat. Das zugehorige Gleichungssystem

Ax b

lasst sich dann ganz leicht von unten aufrollen:

1. Ist αnn 0, so ist xn bnαnn.2. Ist αnn 0 und bn 0, so ist das System nicht losbar und man kann aufhoren.3. Ist αnn 0 bn, so kann man xn frei wahlen.4. Hat man xj fur i 1 ¤ j ¤ n aus Gleichungen i 1 bis n schon berechnet, so setze man diese

Werte in Gleichung i ein und erhalt eine Bestimmungsgleichung fur xi.5. Ist αii 0, so ist diese sofort losbar.6. Ist αii 0 erhalten wir eine Gleichung fur die Variablen xj mit i 1 ¤ j ¤ n. Kann diese mit den

schon errechneten moglichen Werten dieser Variablen erfullt werden, ist xi frei wahlbar. Sonst istdas System nicht losbar, und wir konnen aufhoren.

90

So konnen wir das System losen oder herausfinden, dass es nicht losbar ist. Ist αii 0 fur alle 1 ¤ i ¤ n,so erhalt man naturlich immer eine eindeutige Losung.

6.3-4 Bemerkung: Man kann immer annehmen, dass die Koeffizientenmatrix quadratisch ist: Entwederman fugt einige Nullzeilen hinzu, was dem Hinzufugen

”trivialer“ Gleichungen entspricht, oder man fugt

die richtige Anzahl von Nullspalten hinzu, was bedeutet, dass man”Dummy“ Variable hinzunimmt, die

am Ende als Parameter frei wahlbar sind (und am Ende wieder weglassen werden konnen).

6.3-5 Algorithmus pGaußq: Durch folgenden Algorithmus kann jede m n-Matrix A pαjiq in Trep-penform gebracht werden:

1. Sei die i1-te Spalte die erste, die von der Nullspalte verschieden ist. Sei 1 ¤ k ¤ m, sodass αki1 0ist. Wir vertauschen Zeilen 1 und k und erhalten A1 pα1jiq mit αki1 α11i1

0.2. Fur 2 ¤ j ¤ m fuhren wir die Zeilenoperation

zj Ñ zj α1ji1

α11i1z1

durch. Wir erhalten eine Matrix Ap1q pαp1qji q, in der die i1-te Spalte sp1qi1

die erste Spalte ist, dienicht eine Nullspalte ist. Diese hat nur einen von 0 verschiedenen Eintrag und der steht an Position(=Zeile) 1. Dies Element wird fuhrendes Element der ersten Zeile genannt.

3. Ist die Matrix nun in Treppenform, so horen wir auf. Sonst lassen wir die ersten i1 Spalten unddie erste Zeile weg und wenden das Verfahren auf die resultierende kleinere Matrix an, um i2 zubestimmen, vertauschen die zweite und die k-te Zeile von Ap1q, wobei wir 2 ¤ k ¤ m so wahlen, dass

αp1qki2 0 ist und subtrahieren Vielfache der zweiten Zeile von den folgenden wie in Schritt 2 oben.

Die i2-te Spalte in der resultierenden Matrix hat dann hochstens in den ersten beiden Positionenvon Null verschiedenen Eintrage, und der Eintrag an zweiter Position ist nicht 0.

4. Wir iterieren das Verfahren und erhalten Ap1qAp2q, . . . , Aprq. Spatestens mit Apmq bricht das Ver-fahren ab, d.h. r ¤ m.

Aus der Konstruktion sehen wir, dass T pAq Aprq Treppenform hat, wobei die naturlichen Zahlen 1 ¤i1 i2 . . . ir ¤ n durch den Algorithmus oben bestimmt sind. Die Zahl r ist dann naturlich der Rang

von A. Die αpνqkiν 0 im ν-ten Iterationsschritt heißen Pivotelemente. Man beachten, dass der Algorithmus

lediglich Zeilen- und keine Spaltenoperationen involviert. So kann man A durch Zeilenoperationen aufTreppenform bringen.

91

Kapitel 7

Determinanten: Rechenregeln

Die Theorie der Determinanten ist wohl eines der schwierigsten Kapitel in der linearen Algebra. Willman Determinanten ordentlich motivieren und definieren, so braucht man eine ganze Menge Theorie imBereich der Gruppentheorie und der multilinearen Algebra. Die Herleitung der Rechengesetze gestaltetsich dann ebenfalls technisch kompliziert.Andererseits ist zunachst uberhaupt nicht klar, wozu man Determinanten eigentlich braucht. Die Einsicht,dass sie nutzlich sind, kommt erst mit ihren Anwendungen, zum Beispiel bei der Berechnung von Eigen-werten und Eigenvektoren von Endomorphismen eines Vektorraums (siehe nachstes Kapitel). Da wirdauch schnell klar, dass die Definition von Determinanten wenig nutzlich ist, dafur aber die Rechengesetzeumso wichtiger sind, mit deren Hilfe man konkrete Determinanten ausrechnen kann.Wir werden also einen Mittelweg beschreiten: Zunachst verzichten wir auf die tiefgrundige theoretischeDefinition von Determinanten und fuhren sie im wesentlichen uber die Rechengesetze selbst ein, derenBeweise ebenfalls weitgehend auf spater verschoben werden.Dann wenden wir die Theorie der Determinanten an, um das Eigenwertproblem zu behandeln und dasHauptachsentheorem zu beweisen. Zu einem spateren Zeitpunkt werden wir dann die theoretische Be-grundung der Determinanten im Rahmen der multilinearen Algebra nachschieben und werden dann furalle Rechenregeln, die wir bis dahin munter benutzt haben, ordentliche Beweise liefern.In diesem Kapitel seien, wie immer, ein KorperK und ein K-Vektorraum V gegeben. Wenn nichts anderesgesagt wird, soll V endlich dimensional sein. Sei f ein Endomorphismus von V und sei A Mf pB,Bq dieMatrix von f bezuglich einer fest gewahlten Basis B von V . Nun erhebt sich die Frage, wie man an denEintragen der Matrix A erkennt, ob A invertierbar ist oder nicht, d. h. also ob f ein Automorphismus istoder nicht. Wie wir sehen werden, kann dies mit Hilfe der Determinanten entschieden werden.

7.1 Definition der Determinante

7.1-1 Problem: Sei die 2 2-Matrix A α11 α12

α21 α22

gegeben. Zeigen Sie, dass A invertierbar ist

genau dann, wenn α11α22 α12α21 0 ist.

7.1-2 Beobachtung: Sei A pαijq eine 2 2-Matrix. Dann ist

α11α22 α12α21 α1πp1qα2πp2q α1σp1qα2σp2q,wobei π die Permutation von t1, 2u ist, die alle Elemente festlasst (die Identitat), und σ die Zahlen 1und 2 vertauscht, also erhalt man α11α22 α12α21, indem man aus jeder Zeile und jeder Spalte von A

92

genau ein Element nimmt und das Produkt uber diese Elemente bildet. Sodann summiert man uber allemoglichen solcher Kombinationen unter Hinzufugen eines Vorzeichens, das wir spater genauer definierenwollen.

Diese Beobachtung wollen wir nun verallgemeinern fur beliebige n n-Matrizen. Dazu fuhren wir einigeneue Begriffe ein.Mit Sn bezeichnen wir die symmetrische Gruppe auf n Buchstaben, d. h. die Menge aller Permutationender Zahlen 1, 2, . . . , n. Eine Permutation einer Menge ist dabei einfach eine bijektive Abbildung der Mengein sich. Man schreibt

π 1 2 . . . n

πp1q πp2q . . . πpnqfur eine Permutation π P Sn. Die Gruppenmultiplikation in der Sn ist durch die Komposition vonAbbildungen gegeben. Damit wird Sn zur Gruppe mit n! n pn 1q 2 1 vielen Elementen. DasSignum signpπq einer Permutation π P Sn erhalt man wie folgt: Man uberlegt sich schnell, dass manjede Permutation π durch eine Verkettung von Vertauschungen zweier Zahlen (Transpositionen) erreichenkann. Naturlich sind diese kein bisschen eindeutig durch π bestimmt, man kann auf sehr viele verschiedeneArten π als ein solches Produkt hinschreiben.Nicht einmal die Anzahl der benutzen Transpositionen ist dabei durch π festgelegt. Aber man kann zeigen,dass die Anzahl modulo 2 festliegt, d. h. entweder benutzt man bei allen Darstellungen von π als Produktvon Transpositionen eine gerade oder bei allen eine ungerade Anzahl derselben. Im ersten Fall heißt πgerade im zweiten Fall ungerade Permutation und man setzt signpπq 1 fur gerades und signpπq 1fur ungerades π. Alternativ definiert man die Lange ℓpπq von π als Machtigkeit der Mengetpi, jq | 1 ¤ i j ¤ n, πpiq ¡ πpjquvon Fehlstanden (Displacements) von π. Diese Zahl misst sozusagen, wie stark π die Menge t1, 2, . . . , nupermutiert.Die Permutation

π 1 2 . . . n 1 n

n n 1 . . . 2 1

ist die Permutation großter Lange. (Wie lang ist sie?) Man hat nun signpπq p1qℓpπq.Hier ist nun unsere Definition der Determinante von A. Aber seien Sie gewarnt: Obwohl man einen nichtinduktiven, geschlossenen Ausdruck fur die Determinante einer quadratischen Matrix erhalt, benutztman diesen sehr selten fur konkrete Rechnungen, da die Anzahl der zu berechnenden Summanden mitwachsenden n extrem schnell sehr groß wird (fur n 10 in der Großenordnung von 3 Millionen).

7.1-3 Definition pDeterminanteq: Sei A pαijq P MnpKq. Dann ist die Determinante detA |A|von A definiert als

detA ¸πPSn

signpπqα1πp1qα2πp2q αnπpnq.Betrachtet man einen Summanden Tπ signpπqα1πp1qα2πp2q αnπpnq in obiger Summe, und wahlt manIndizes i bzw. j, so sieht man unmittelbar, dass in Tπ genau ein Faktor mit erstem Index i und ein Faktormit zweitem Index j vorkommt, namlich αiπpiq bzw. απ1pjqj7.1-4 Folgerungen: Sei A pαijq P MnpKq und sei Tπ der zu π P Sn gehorende Summand von |A|in Definition 7.1-3. Dann gilt:

1. In Tπ kommt aus jeder Zeile und jeder Spalte von A genau ein Eintrag als Faktor vor.

2. Sei T ein Produkt von Elementen der Matrix A, sodass aus jeder Zeile und jeder Spalte von A genauein Element in T vorkommt. Dann gibt es ein π P Sn, sodass signpπqT Tπ ist.

93

Fur 33-Matrizen kann man die Determinante noch nach der Definition ausrechnen. Folgende Merkregelist dabei hilfreich:

7.1-5 Kochrezept pRegel von Sarrusq: nach Pierre Frederic Sarrus (1798-1861)Sei A pαijq P M3pKq. Dann erhalt man die Determinante von A, indem man zu A die beiden erstenSpalten von A als Spalte 4 und 5 hinzufugt, die Produkte uber alle Diagonalen bildet und summiert,indem man aufsteigende Diagonalen mit negativen und absteigende Diagonalen mit positiven Vorzeichenversieht:

++ +

−− −

α11

α21

α31

α12

α22

α32

α13

α23

α33

α11

α21

α31

α12

α22

α32

7.1-6 Bemerkung: Die Determinante einer 33-Matrix ist das Volumen des von den Spaltenvektoren

(Zeilenvektoren) aufgespannten Parallelotops im R3 fur K R. Insbesondere ist sie 0, falls diese linearabhangig sind, was genau dann der Fall ist, wenn die Matrix nicht invertierbar ist. Wie wir sehen werden,gilt dies allgemein, und man kann daher (fur K R) das Volumen des Parallelotops, das von n Vektorenim Rn aufgespannt wird, als die Determinante der Matrix definieren, deren Spaltenvektoren gerade dien gegebenen Vektoren sind.

7.1-7 Problem: Berechnen Sie die Determinante der Matrix

A 2 0 0 0 20 2 0 2 00 0 2 0 00 2 0 2 02 0 0 0 2.

ÆÆÆÆ Am Problem sieht man, dass man mit der strikten Definition nicht wirklich bei der Berechnung der De-terminante weiterkommt. Hat man etwa eine ganz große Matrix (meinetwegen 10 10) mit ganz unter-schiedlichen Eintragen, die alle nicht 0 sind, jedoch mit zwei gleichen Zeilen, dann wird sich herausstellen,dass die Determinante 0 ist. So benotigen wir Rechenregeln, um Determinanten konkret auszurechnen.

7.2 Rechenregeln

A,B, . . . seien nun immer n n-Matrizen uber K.

7.2-1 Lemma: Enthalt eine Zeile (oder eine Spalte) von A nur Nullen als Eintrage, so ist detA 0.

Eine Matrix, in der in jeder Zeile und in jeder Spalte genau ein von Null verschiedener Eintrag vorkommt,heißt monomial , sind alle diese Eintrage Eins, so spricht man von einer Permutationsmatrix. (MonomialeMatrizen sind immer quadratisch! Warum?)

94

7.2-2 Lemma: Die Determinante einer monomialen Matrix ist bis aufs Vorzeichen gleich dem Produktihrer nicht verschwindenden Eintrage. Insbesondere ist die Determinante einer Permutationsmatrix gleich1.

7.2-3 Problem: Woher kommt der Name”Permutationsmatrix“? Zeigen Sie:

1. Anwendung einer Permutationsmatrix A PMnpKq auf die naturliche Basis

E pe1, . . . , enqpermutiert diese, d. h. es gibt ein π P Sn mit

Aei eπpiqfur alle 1 ¤ i ¤ n.

2. Die Menge der n n-Permutationsmatrizen ist eine Untergruppe W von GLnpKq.3. Die Abbildung, die einer Permutationsmatrix A die Permutation π wie oben zuordnet, ist ein

Isomorphismus von W auf Sn. Die Matrix A ist dann die Basiswechselmatrix der Permutation π

der geordneten Basis E .

4. Ist A die zu π P Sn gehorende Permutationsmatrix, so ist detA signpπq.7.2-4 Problem: Zeigen Sie:

detAt detA.

Bis jetzt haben wir alles bewiesen oder zumindest plausibel gemacht. Jetzt kommt ein Satz, den wir nichthier, sondern erst spater beweisen wollen, wenn wir genugend Hilfsmittel aus der multilinearen Algebrazur Verfugung haben.

7.2-5 Satz: Seien A,B PMnpKq. Dann ist

detpABq pdetAqpdetBq.Da die Determinante der Einsmatrix 1 ist, folgt aus Satz 7.2-5 sofort

7.2-6 Korollar: Sei A invertierbar. Dann ist

detpA1q pdetAq1.

Erinnern Sie sich, dass elementare Zeilen- und Spaltenoperationen als Multiplikation mit bestimmtenMatrizen, namlich Elementarmatrizen, von rechts bzw. links aufgefasst werden konnen Damit folgt ausdem obigen Satz sofort:

7.2-7 Satz: Sei A PMnpKq. Dann gilt:

1. Addiert man zu einer Zeile (Spalte) von A ein Vielfaches einer anderen Zeile (Spalte), so andertsich die Determinante nicht.

2. Vertauscht man zwei Zeilen (Spalten) von A, so andert die Determinante ihr Vorzeichen.3. Multipliziert man eine Zeile (Spalte) von A mit einem Skalar λ, so wird die Determinante mit λ

multipliziert.

95

In 5.7-15 hatten wir gesehen, dass eine Matrix durch elementare Zeilen- und Spaltenoperationen aufDiagonalgestalt gebracht werden kann, wobei Multiplikation von Zeilen (Spalten) nur mit Skalaren 0gestattet ist. In der Tat, wenn man nicht verlangt, dass auf der Diagonalen am Schluss nur noch Einsenund Nullen stehen, kann man auf Manover drei in obigem Satz ganz verzichten, wie man sich leichtuberlegt. So ist die resultierende Determinante der Diagonalmatrix bis aufs Vorzeichen dieselbe wie dieder Ausgangsmatrix und wir schließen:

7.2-8 Satz: Eine quadratische Matrix A ist invertierbar genau dann, wenn ihre Determinante nicht 0ist.

Diese Ergebnisse liefern auch ein Verfahren, wie man konkret Determinanten berechnet:

7.2-9 Kochrezept: Ist eine quadratische Matrix gegeben, so kann man ihre Determinante berechnen,indem man zuerst die Matrix durch elementare Umformungen der ersten und der zweiten Art in obigemSatz auf Dreiecksgestalt bringt und sich dabei die Vorzeichen bei Anwendung von Vertauschungen vonZeilen (Spalten) merkt. Ist die Anzahl dieser Vertauschungen gerade, so ergibt sich die Determinante alsProdukt der Diagonalelemente, sonst als deren Negatives.

7.2-10 Korollar: Hat eine quadratische Matrix zwei identische Spalten oder Zeilen, so ist ihre Deter-minante 0.

Die nachste Rechenregel ist nutzlich, wenn es in der Matrix Zeilen oder Spalten mit vielen Nullen gibt.Dazu benotigen wir die folgende Definition:

7.2-11 Definition: Sei 1 ¤ i, j ¤ n. Der Kofaktor Aij vom pijq-ten Eintrag αij von A ist die pn 1qpn 1q-Matrix, die man erhalt, wenn man aus A die i-te Zeile und die j-te Spalte streicht.

Der franzosische Mathematiker und Astronom Marquis de Pierre Simon Laplace (1749-1827) war einerder fuhrenden Wissenschaftler seiner Zeit. Seine Arbeiten erstrecken sich von der Himmelsmechanik uberdie Kosmogenie, die Potentialtheorie, die Schwingungs- und Warmelehre bis zur Wahrscheinlichkeitsrech-nung.

7.2-12 Satz pLaplacesche Entwicklungq: Sei k P t1, . . . , nu und A pαijq nn-Matrix mit KofaktorenAij . Dann ist

detA n

i1

p1qikαik detpAikq Entwicklung nach der k-ten Spalte n

j1

p1qkjαkj detpAkjq Entwicklung nach der k-ten Zeile

7.2-13 Problem: Zeigen Sie, dass die Determinante einer Dreiecksmatrix das Produkt ihrer Diagonal-elemente ist.

96

7.2-14 Satz: Die Abbildungdet : MnpKq Ñ K : A ÞÑ detA

ist multiplikativ und surjektiv. Insbesondere ist daher ihre Einschrankung auf die generelle lineare Gruppeeine Gruppenepimorphismus:

det : GLnpKq Ñ K.Der Kern dieses Gruppenhomomorphismus heißt spezielle lineare Gruppe und wird mit SLnpKq bezeich-net. So ist SLnpKq die Menge aller n n-Matrizen mit Determinante 1.Wir kommen nun zu einer besonders wichtigen Eigenschaft von Determinanten, namlich ihrer Invarianzgegenuber Basiswechsel, die es erlaubt, uber Determinanten von Endomorphismen zu sprechen:

7.2-15 Definition/Satz: Die Matrizen A und B heißen ahnlich, falls es eine invertierbare n n-Matrix P mit

B P1AP

gibt. Man schreibt dann A B und sagt auch, A und B seien konjugiert in GLnpKq. Die Relation isteine Aquivalenzrelation.

7.2-16 Satz: Die Determinanten ahnlicher Matrizen stimmen uberein.

Mit anderen Worten ist die Abbildung det konstant auf den Aquivalenzklassen von .Sei f P EndKpV q. Seien B und C Basen von V . Dann ist

detpMf pB,Bqq detpMidpC,Bqq1 detpMf pC, Cqq detpMidpC,Bqq detpMf pC, CqqSo macht die folgende Definition Sinn.

7.2-17 Definition: Sei f ein Endomorphismus von V . Dann ist det f detA die Determinante von f ,

wobei A Mf pB,Bq fur irgend eine Basis B von V ist.

Wie wir gesehen haben, ist der Aufwand, eine Determinante zu berechnen, in etwa derselbe, wie denRang einer Matrix zu bestimmen. Will man also lediglich herausfinden, ob eine konkret gegebene Matrixinvertierbar ist, so haben wir durch die Einfuhrung von Determinanten noch nicht viel gewonnen. Wiewir sehen werden, bilden sie fur viele Anwendungen ein unentbehrliches Hilfsmittel.

7.3 Eine Anwendung

Sei A pαijq PMnpKq und Aij der Kofaktor aus Definition 7.2-11.

7.3-1 Definition: Die Adjunkte der n n-Matrix A pαijq ist die n n-Matrix

adjA p1q11 |A11| p1q21 |A21| . . . p1qn1 |An1|p1q12 |A12| p1q22 |A22| . . . p1qn2 |An2|...

.... . .

...p1q1n |A1n| p1q2n |A2n| . . . p1qnn |Ann|ÆÆÆ .Beachten Sie die Nummerierung: adjA ist die Transponierte der Matrix pp1qij |Aij |q!

97

7.3-2 Satz: Sei A PMnpKq. Dann ist

1. A padjAq pdetAq En.2. Ist A invertierbar, so ist A1 pdetAq1padjAq.

Durch diesen Satz erhalt man die folgende geschlossene Formel zur Losung eindeutig losbarer linearerGleichungssysteme:

7.3-3 Satz pCramersche Regelq: von Gabriel Cramer (1704-1752). Sei ein lineares GleichungssystemL der folgenden Form gegeben:

α11x1 α12x2 α1nxn β1

α21x1 α22x2 α2nxn β2

......

......

αn1x1αn2x2 αnnxn βn

.

Die Koeffizientenmatrix von L sei A pαijq P MnpKq. Sei detA 0. Dann ist L eindeutig losbar unddie Losung ist durch folgende Formel gegeben: Fur 1 ¤ j ¤ n ist

xj 1

detA n

i1

βip1qij |Aij | .

98

Kapitel 8

Eigenwerte und Eigenvektoren

8.1 Schone Matrizen

Wir kommen jetzt auf die Frage zuruck, fur einen Endomorphismen f eines K-Vektorraums V eine BasisB von V so zu finden, dass die Matrix Mf pB,Bq besonders

”schon“ wird, was immer das heißen mag.

Anders ausgedruckt: wir suchen in

AGLnpKq tP1AP | P P GLnpKqubesonders gutartige Matrizen. Hier ist A eine Matrix von f bezuglich irgendeiner Basis von V . Die obeneingefuhrte Menge AGLnpKq ist aber gerade die Ahnlichkeitsklasse von A.

8.1-1 Problem: Wir setzen AP P1AP . Zeigen Sie: cP : A ÞÑ AP ist K-Algebraautomorphismus.

8.1-2 Problem: Was ist der Unterschied zwischen der hier definierten Menge AGLnpKq und der in 5.7betrachteten Menge

Mf p,q GLnpKqAGLnpKq(wobei A wieder wie oben eine Matrix fur f ist)?

Im folgenden ist K wie immer ein Korper, V ein K-Vektorraum und f ein Endomorphismus von V .

8.1-3 Bezeichnung: Sei B eine endliche Basis von V . Dann schreiben wir abkurzend Mf pBq anstattMf pB,Bq und nennen diese Matrix die Matrix von f fur B.

Vektorraume, insbesondere solche großer Dimension, sind recht kompliziert, und noch mehr gilt das furEndomorphismen. Die Idee ist nun, den “großen” Vektorraum in eine direkte Summe von “kleinen” zuzerlegen, die invariant unter f sind, d. h. die unter der Operation von f in sich abgebildet werden.

8.1-4 Definition: Sei U ein Unterraum von V und sei f P EndKpV q. Dann heißt U invariant unter foder f -invariant, falls fpuq P U ist fur alle u P U .

Sei etwa U ker f . Dann ist fpuq 0 P U fur u P U , und daher ist U ein f -invarianter Unterraum. Sei0 u P ker f . Dann gilt

fpλuq λfpuq 0 P Ku λ P K.Daher ist der eindimensionale UnterraumKu von V invariant unter f . Dies ist ein Beispiel eines “kleinen”f -invarianten Unterraums.

99

8.1-5 Probleme: Sei U ¤ V invariant unter f , und sei B pv1, . . . , vnq Basis von V , sodass pv1, . . . , vkqBasis von U ist.

1. Wie sieht A Mf pBq aus? Gilt die Umkehrung, d. h. wenn Mf pBq die Gestalt hat, die Siehoffentlich herausgefunden haben, ist dann U xv1, . . . , vky invariant unter f?

2. Sei W xvk1, . . . , vny ein f -invariantes Komplement von U in V . Wie sieht dann A aus? Was istmit der Umkehrung?

3. Ist fpviq P Kvi fur 1 ¤ i ¤ n, was konnen wir dann uber A sagen? Gilt die Umkehrung?

Wir sehen, dass eindimensionale f -invariante Unterraume besonders nutzlich sind, und dass man furDiagonalmatrizen besonders viele von ihnen findet. Fur V K2 sei:

A 1 30 7

Hier haben wir unmittelbar einen eindimensionalen invarianten Unterraum (welchen?), aber konnen wiraber auch einen fur

B 10 35 2

hinschreiben? Probieren Sie mal Kp1,1q!Wann ist der eindimensionale Unterraum Kv fur 0 v P V invariant unter f? Naturlich genau dann,wenn gilt:

fpvq λv Dλ P K.Das fuhrt uns im nachsten Abschnitt auf unsere erste grundlegende Definition.

8.2 Die charakteristische Gleichung

8.2-1 Definition: Der Vektor 0 v P V heißt Eigenvektor (EV) zum Eigenwert (EW) λ P K, fallsfpvq λv ist.Einen Eigenvektor bzw. Eigenwert von fA nennt man dann auch Eigenwert bzw. Eigenwert von A.

Wir haben naturlich fp0q λ0 fur jeden Skalar λ, und daher wird man aus dem Nullvektor nicht vielInformation ziehen konnen. So schließen wir diesen Fall aus und betrachten den Nullvektor nicht alsEigenvektor.Bleiben wir bei unserem Beispiel der 22-Matrix B oben. Konnen wir alle Eigenvektoren und Eigenwertebestimmen? Offensichtlich mussen wir dazu das Gleichungssystem

B

x

y

λx

λy

losen.

8.2-2 Problem: Finden Sie alle Losungen von

10x 3y λx5x 2y λy.

Sie werden sicher mit mir ubereinstimmen, dass Diagonalmatrizen besonders”schon“ sind. Sie sind so

schon, dass sie eine besondere Bezeichnung erhalten:

100

8.2-3 Bezeichnung: Seien λ1, . . . , λn P K. Die Diagonalmatrixλ1 0 . . . 0

0 λ2

. . ....

.... . .

. . . 00 . . . 0 λn

ÆÆÆÆ wird im folgenden mit diag tλ1, . . . , λnu bezeichnet.

Was ist nun der Zusammenhang mit Eigenvektoren und Eigenwerten?

8.2-4 Satz: Sei B pv1, . . . , vnq geordnete Basis von V . Dann istMf pBq diag tλ1, . . . , λnugenau dann, wenn vi Eigenvektor zum Eigenwert λi ist fur 1 ¤ i ¤ n.

Sei λ P K. Durch ℓλ : V Ñ V : v ÞÑ λv wird ein Endomorphismus ℓλ von V definiert, namlich dieLinksmultiplikation mit λ. Folgendes Lemma ist offensichtlich:

8.2-5 Lemma: Sei B eine beliebige Basis von V und dimV n. Dann istMℓλpBq diag tλ, . . . , λu λ En.

Wir wenden uns der Frage zu, unter welchen Bedingungen das Korperelement λ ein Eigenwert von f seinkann. Dies trifft aber nach Definition nur zu, wenn wir einen Vektor 0 v P V finden, der

fpvq λv

oder aquivalent dazu0 fpvq λv pf ℓλqv

erfullt. Mit anderen Worten, v muss im Kern der linearen Abbildung f ℓλ liegen.Dieser enthalt aber Vektoren 0 dann und nur dann, wenn f ℓλ kein Automorphismus von V ist,d. h. wenn die Matrix von f ℓλ bzgl. irgendeiner Basis von V singular ist. Nach Satz 7.2-8 gilt:

8.2-6 Satz: Der Skalar λ ist Eigenwert von f genau dann, wenn detpf ℓλq 0 ist.

Nach der im Kapitel 5 entwickelten Theorie sind Ergebnisse uber Endomorphismen von V und ubern n-Matrizen (n dimV ) vollig aquivalent, wenn man eine Basis B von V wahlt (Satz 5.5-10). Somitkann man jede Aussage uber Endomorphismen in eine solche uber quadratische Matrizen ubersetzen undumgekehrt. Wir werden das in Zukunft oft so tun, ohne jedesmal langere Erklarungen wie etwa

”und nun

wahlen wir eine Basis . . .“ anzugeben.Hier ist nun die Matrizenversion des obigen Satzes:

8.2-7 Satz: Der Skalar λ ist Eigenwert der n n-Matrix A genau dann, wenn detpA λEnq 0 ist.

Von nun an werden wir nicht immer jede Aussage zweimal, fur Endomorphismen und Matrizen, formu-lieren, sondern werden oft stillschweigend annehmen, dass mit einer Version die andere ebenfalls bekanntist.Wir haben nun unser abstraktes Problem, Eigenwerte von Endomorphismen bzw. Matrizen zu finden, inein reines Rechenproblem ubersetzt: Fassen wir λ als Unbestimmte auf, so ist (mit E En)

detpA λEq 0, detpf ℓλq 0

eine Bestimmungsgleichung fur λ, die sogenannte charakteristische Gleichung von A bzw. f .Was fur eine Sorte von Gleichung ist das?

101

8.2-8 Problem:

1. Bestimmen Sie alle Eigenwerte von

f : R2 Ñ R2 : px, yq ÞÑ px 2y, x 2yq.2. Berechnen Sie die charakteristische Gleichung von

A 3 1 12 4 21 1 3

.Im allgemeinen ist die charakteristische Gleichung einer Matrix A pαijq gegeben als:

α11 λ α21 . . . α1n

α21 α22 λ α2n

.... . .

...... αn1,n1 λ αn1,n

αn1 . . . αn,n1 αnn λ∣

Beachten Sie, dass detpf ℓλq p1qn detpℓλ fq ist. Die Nullstellen sind dieselben fur die mit 1durchmultiplizierte Gleichung, und die kleine Vorzeichenanpassung im folgenden Satz hat lediglich dieBedeutung, 1 als hochsten Koeffizienten des dort definierten Polynoms zu erhalten.

8.2-9 Satz: Sei f ein Endomorphismus eines K-Vektorraums V und sei t eine Unbestimmte. Dann istp1qn detpf ℓtq ein Polynom χf ptq P Krts der Form

χf ptq tn βn1tn1 β1t β0

fur bestimmte Koeffizienten βi P K (0 ¤ i n).

Das Polynom χf ptq heißt charakteristisches Polynom von f . Ahnlich wird das charakteristische PolynomχAptq P Krts einer quadratischen Matrix A definiert.Beachten Sie, dass die Skalarmatrix λEn mit jeder n n-Matrix kommutiert. Man sagt, λEn ist imMatrizenring MnpKq zentral . Daher haben wir:

8.2-10 Korollar: Ahnliche Matrizen besitzen dasselbe charakteristische Polynom.

8.2-11 Problem: Wie lautet die Endomorphismenversion dieses Korollars?

Zwei Koeffizienten des charakteristischen Polynoms haben eine besondere Bedeutung, namlich der kon-stante Term β0 und βn1. Den ersten erhalt man als χf p0q:8.2-12 Satz: Der konstante Term β0 des charakteristischen Polynoms ist p1qn mal die Determinantedet f .

Um βn1 zu erklaren, wechseln wir zur Matrizenseite:

102

8.2-13 Satz: Sei A pαijq PMnpKq, und sei

χAptq tn βn1tn1 β1t β0

das charakteristische Polynom von A. Dann istβn1 n

i1

αii,

die Summe der Diagonalelemente von A.

Diese Summe der Diagonalelemente einer quadratischen Matrix A ist so wichtig, dass sie einen eigenenNamen erhalt: Man nennt sie Spur der Matrix A und bezeichnet sie mit trpAq (tr fur trace = Spur).Wegen Korollar 8.2-10 kann man nun die Spur trpfq eines Endomorphismus f eines n-dimensionalenVektorraums V als Koeffizient von tn1 im charakteristischen Polynom χf ptq definieren und hat:

8.2-14 Satz: Die Abbildungtr : EndKpV q Ñ K : f ÞÑ trpfq

ist K-linear und fur f, g P EndKpV q ist trpfgq trpgfq.Die anderen Koeffizienten des charakteristischen Polynoms haben ebenfalls eine Interpretation (namlichals elementarsymmetrische Funktionen in den Eigenwerten), die aber weniger wichtig ist.Wir haben also gezeigt:

8.2-15 Satz: Die Eigenwerte von f sind genau die Nullstellen des charakteristischen Polynoms χf ptq.Dabei ist α P K eine Nullstelle des Polynoms hptq P Krts, falls hpαq 0 ist.Wir brauchen jetzt einige Fakten, deren Beweis wir auf spatere Vorlesungen (Algebra) verschieben mussen.Zur Unterscheidung nennen wir diese nicht Satze, sondern

”Fakten“.

Polynomdivision zeigt unmittelbar folgenden Fakt, (der in der Vorlesung Algebra tatsachlich genauerbehandelt wird, auch wenn er oberflachlich betrachtet simpel erscheinen mag):

8.2-16 Fakt: Sei 0 hptq P Krts und sei α eine Nullstelle von h. Dann gibt es ein Polynom gptq vomGrad deg g deg h 1, sodass

hptq gptqpt αqist. Sind α1, . . . , αk genau die Nullstellen von h, dann gibt es ν1, . . . , νk P N, sodass gilt:

hptq g1ptqpt α1qν1pt α2qν2 pt αkqνk ,

wobei g1ptq ein Polynom ohne Nullstellen in K ist vom Grad deg g1 deg h ν1 ν2 νk. Fur1 ¤ i ¤ k heißt νi die Vielfachheit oder Multiplizitat der Nullstelle αi und wird mit mαi

phptqq bezeichnet.

8.2-17 Korollar: Ein Polynom vom Grad n hat hochstens n verschiedene Nullstellen.

Hat der Korper K die Eigenschaft, dass jedes Polynom p P Krts mit deg p ¥ 1 in K eine Nullstelle besitzt,so nennt man K algebraisch abgeschlossen. So ist R nicht algebraisch abgeschlossen, da z. B. t2 1 keineNullstellen in R hat.

8.2-18 Fakt pHauptsatz der Algebraq: C ist algebraisch abgeschlossen.

Polynome vom Grad 1 heißen linear . Solche Polynome haben nicht nur genau eine Nullstelle in K, sondernman kann diese auch ohne weiteres direkt berechnen!

103

8.2-19 Korollar: Jedes Polynom p P Krxs von positivem Grad uber einem algebraisch abgeschlossenenKorper K zerfallt in Linearfaktoren, d. h. p ist Produkt von Linearfaktoren.

8.2-20 Fakt: Jeder Korper K ist in einem algebraisch abgeschlossenen Korper enthalten und es gibt

einen kleinsten solchen, den sogenannten algebraischen Abschluss K von K. So zerfallt jedes Polynomin Krts uber K in Linearfaktoren.

8.2-21 Problem: Bestimmen Sie Eigenwerte und Eigenvektoren der reellen Matrix

A 3 1 12 4 21 1 3

.Wie findet man also die Eigenvektoren zu einem Eigenwert? Oder besser, fur einen Eigenwert (eine Null-stelle des charakteristischen Polynoms also) suchen wir die Gesamtheit aller zugehorigen Eigenvektoren?Schauen wir uns dafur noch einmal an, wie wir Satz 8.2-6 hergeleitet haben: Dass v P V Eigenvektorvon f P EndKpV q zum Eigenwert λ P K ist, ist aquivalent dazu, dasspf ℓλqv 0

ist. Mit anderen Worten, wir haben:

8.2-22 Definition/Satz: Die Gesamtheit der Eigenvektoren von f zum Eigenwert λ besteht aus allenVektoren in kerpfℓλqzt0u. Der Unterraum kerpfℓλq von V wird Eigenraum zum Eigenwert λ genanntund mit Vλpfq oder einfach mit Vλ bezeichnet, falls keine Missverstandnisse zu befurchten sind.

Nun ist klar, wie man rechnerisch vorgeht, um die Eigenraume zu bestimmen:

8.2-23 Prozedur:

1. Man wahlt sich eine Basis von V und schreibt f als Matrix A. Dann berechnet man das Polynom

χf ptq χAptq detptE Aq P Krts.2. Man bestimme die Nullstellen von χf ptq, etwa λ1, λ2, . . . , λk.3. Fur jede solche Nullstelle λi lose man das homogene GleichungssystempA λiEqx 0.

Wahrend Schritte eins und drei in Prozedur 8.2-23 mit Hilfe der linearen Algebra exakt gelost werdenkonnen, ist das mit Schritt zwei so eine Sache: Fur 2 2-Matrizen haben wir es mit einer quadratischenGleichung zu tun, die wir ja bekanntlich losen konnen. Ahnliche allgemeine Formeln (bloß viel kompli-zierter) gibt es auch noch fur Polynome vom Grad drei und vier, aber nicht mehr fur Polynome vomGrad ¥ 5.Dies ist nicht so, weil die Mathematiker bisher zu blode waren, eine zu finden, sondern man kann beweisen,dass das nicht geht (in der Algebra Vorlesung sehen Sie den Beweis voraussichtlich). Oft muss man sichdaher fur die Bestimmung der Eigenwerte eines Endomorphismus mit Naherungslosungen zufrieden geben.

104

8.2-24 Probleme:

1. Was sind die Eigenwerte einer Dreiecksmatrix?

2. Bestimmen Sie das charakteristische Polynom und die Eigenraume der Matrizen1 10 1

,

1 00 1

.

Was fallt auf?

3. Bestimmen Sie Eigenwerte und Eigenraume von

A 2 0 0 00 2 0 01 2 0 12 4 1 0

ÆÆ 4. Konnen nicht ahnliche Matrizen dasselbe charakteristische Polynom haben?

Das zweite Problem oben zeigt, dass im folgenden Satz “echt kleiner” wirklich vorkommt:

8.2-25 Satz: Die Dimension des Eigenraums von f zum Eigenwert λ P K ist kleiner hochstens gleichder Vielfachheit von λ als Nullstelle von χf ptq.Mit anderen Worten: Ist mλ wie in 8.2-16 definiert, dann ist

dimpkerpf ℓλqq ¤ mλpχf ptqq.8.2-26 Satz: Eine quadratische Matrix A ist genau dann zu einer Dreiecksmatrix ahnlich, wenn ihrcharakteristisches Polynom in Linearfaktoren zerfallt.

Insbesondere gilt daher:

8.2-27 Korollar: Sei K algebraisch abgeschlossen und sei A quadratische Matrix uber K. Dann ist Azu einer Dreiecksmatrix ahnlich.

Hier sind nun zwei Satze, die den Gaul zum Saufen bringen, d. h. auf ihnen beruhen die meisten Anwen-dungen von Eigenwerten und Eigenvektoren:

8.2-28 Satz: Eigenvektoren v1, . . . , vk P V zu paarweise verschiedenen Eigenwerten λ1, . . . , λk P Keines Endomorphismus f von V sind linear unabhangig.

8.2-29 Satz: Sei f P EndKpV q und seien λ1, . . . , λk P K paarweise verschiedene Eigenwerte von f . SeiUi kerpf ℓλi

q fur i 1, . . . , k. Dann ist die Summe der Ui direkt, d.h.

k

i1

Ui kài1

Ui,

und insbesondere ist

dim

k

i1

Ui

k

i1

dimpUiq .Als letztes wenden wir uns nun der Frage zu, wann eine quadratische Matrix diagonalisierbar , d. h. zueiner Diagonalmatrix ahnlich ist. Klar ist

105

8.2-30 Satz: Eine quadratische pn nq-Matrix A ist genau dann diagonalisierbar, wenn Kn eine ausEigenvektoren von A bestehende Basis besitzt.

So konnen wir einen Endomorphismus f von V diagonalisierbar nennen, wenn V eine Basis hat, die ausEigenvektoren von f besteht. Hier ist nun das Kriterium:

8.2-31 Satz: Seien λ1, . . . , λk die verschiedenen Eigenwerte von f P EndKpV q. Dann ist f diagonali-sierbar genau dann, wenn

k

i1

dimVλipfq n dimV

ist (Automatisch zerfallt dann χf in Linearfaktoren).

Gegeben sei eine n n-Matrix A. Wie kann man nun entscheiden, ob A diagonalisierbar ist, wie berechnetman gegebenfalls eine invertierbare Matrix P fur die P1AP eine Diagonalmatrix ist? Und was sind dieEintrage dieser Diagonalmatrix?

8.2-32 Prozedur: Ist A eine diagonalisierbare n n-Matrix, dann kann man P und die Diagonalmatrixwie folgt berechnen:

1. Man berechne das charakteristische Polynom χAptq.2. Man bestimme dessen Nullstellen. Da A diagonalisierbar ist, erhalt man

χAptq k¹i1

pt λiqνi

fur die paarweise verschiedenen Eigenwerte λi P K, wobei νi mλipχf ptq gesetzt wird.

3. Man bestimme eine Basis Bi von kerpf ℓλiq Vλi

pfq.4. Dann ist B B1 Y B2 Y Y Bk eine Basis von Kn. Sei P MidpEn,Bq. Dann ist

P1AP diag tλ1, . . . , λ1, λ2, . . . , λk, . . . , λku ,wobei λi genau mλi

pχf ptqq dimpkerpf ℓλiqq oft als Eintrag in der Diagonalmatrix vorkommt.

Ob eine gegebene Matrix diagonalisierbar ist, kriegt man heraus, indem man versucht, die Prozedur aufA anwenden. Wenn man das nicht schafft (weil χAptq nicht in Linearfaktoren zerfallt oder B zu wenigVektoren enthalt, um eine Basis zu sein), dann war A nicht diagonalisierbar.

8.2-33 Probleme:

1. Zeigen Sie, dass

A 3 2 12 6 20 0 2

PM3pRqdiagonalisierbar ist und bestimmen P P GL3pRq und ihre Inverse, sodass P1AP Diagonalmatrixist.

2. Warum ist eine quadratische Matrix A genau dann invertierbar, wenn 0 kein Eigenwert von A ist?

8.3 Direkte Summen und Blockdiagonalform

106

8.3-1 Definition/Satz: Seien V1, V2, . . . , Vk Vektorraume uber K und seien Endomorphismen fi :Vi Ñ Vi fur i 1, 2, . . . , k gegeben. Dann wird durch

fpv1, . . . , vkq ÞÑ pf1pv1q, . . . , fkpvkqqmit vi P Vi ein Homomorphismus

f kài1

fi :kà

i1

Vi Ñ kài1

Vi

definiert. Dieser wird die direkte Summe der Endomorphismen fi genannt.

8.3-2 Lemma: In der Situation der vorigen Definition sei Bi eine Basis von Vi fur i 1, . . . , k und sei

die Dimension von Vi gleich ni. Sei Ai MfipBiq und sei f die direkte Summe der fi. Sei B B1Y YBk

in der einzig naturlichen Ordnung, die man sich hier denken kann (welche ist das?). Dann istMf pBq A1 0 0 . . . 00 A2 0 . . . 0...

. . ....

Ak1 00 . . . 0 Ak

ÆÆÆÆÆ A ,

wobei die Ai selbst ni ni-Matrizen sind.

Die MatrixMf pBq im Lemma oben heißt Blockdiagonal -Matrix und wird auch mitMf pBq diag tA1, . . . , Akubezeichnet. Wie groß ist die Matrix?

8.3-3 Lemma: In der Situation des vorigen Lemmas ist

det f detpA1q detpA2q detpAkq k¹i1

det fi.

8.3-4 Korollar: Seien die Bezeichnungen wie in den vorigen Lemmata. Dann gilt:

χf ptq χf1ptqχf2

ptq χfkptq.

8.3-5 Korollar: Sei f ein Endomorphismus des endlich dimensionalen Vektorraums V , und sei

V V1 ` V2 ` ` Vk

eine Zerlegung von V als direkte Summe von f -invarianten Unterraumen. Sei fi die Einschrankung vonf auf Vi. Dann ist

det f k¹i1

det fi

und

χf ptq k¹i1

χfiptq .

Wir wollen diese Ergebnisse nochmals verallgemeinern:

107

8.3-6 Definition: Eine n n-Matrix A pαijq ist eine (obere) Blockmatrix falls sie die folgende Formhat:

A B C

0 D

.

Hier ist B pαijq1¤i,j¤r eine r r-, D analog eine pn rq pn rq- und C ist eine r pn rq-Matrix.Untere Blockmatrizen werden ahnlich definiert.

8.3-7 Satz: Sei A eine Blockmatrix mit Blocken B,C,D wie in obiger Definition. Dann ist

detA detB detD,

undχAptq χBptqχDptq.

8.3-8 Bemerkung: Naturlich lasst sich obiger Satz auf mehr als zwei Blocke auf der Diagonalen ver-allgemeinern.

8.3-9 Problem: Sei f P EndKpV q und sei U ein f -invarianter Unterraum. Sei f die Einschrankung

von f auf U und f der induzierte Endomorphismus von V U , der durch

f : V U Ñ V U : v U ÞÑ fpvq Udefiniert ist. Sei B1 eine geordnete Basis von U , die durch B2 zu einer Basis B B1 Y B2 von V erganztwird. Dann ist B2 tbU | b P B2u eine Basis von V U . Zeigen Sie: f ist wohldefinierter Endomorphismusvon V U , und es gilt Mf pBq M

fpB1q 0 Mf pB2q

Wie lautet die Endomorphismenversion von Satz 8.3-7?

108

Kapitel 9

Euklidische und UnitareVektorraume

Jetzt wird’s geometrisch! Was ist Geometrie? Der Begriff Geometrie kommt aus dem Griechischen undbedeutet Landvermessung. Geometrie hat also mit

”Messen“ zu tun. Die einfachsten Messungen, die man

durchfuhren kann, sind Langenmessungen. Aber man will auch die relative Lage zweier Strecken oderGeraden zueinander beschreiben, und das geschieht durch Winkelmessung. Damit hat man aber schonzwei wichtige Ingredienzien, um Geometrie treiben zu konnen. Wie wir spater sehen werden, liegen aberbeiden Betrachtungsweisen lineare Raume bzw. gewisse Verallgemeinerungen hiervon zugrunde.Wir wollen also

”Messungen“ in Vektorraumen einfuhren, genauer in reellen oder komplexen Vektorraum-

en, und zwar Langen- und Winkelmessungen. Die Lange eines Vektors kann man mit Hilfe einer Normdefinieren:

9.0-1 Definition pNormq: Sei V ein K-Vektorraum, K R oder K C. Eine Norm ‖‖ auf V isteine Abbildung von V nach R, fur die gilt:

1. ‖v‖ ¥ 0 fur alle v P V und ‖v‖ 0 v 0,

2. ‖αv‖ |α| ‖v‖ fur alle v P V, α P K,

3. ‖v1 v2‖ ¤ ‖v1‖ ‖v2‖ fur alle v1, v2 P V . (Dreiecksungleichung)

Dabei ist |α| fur α P K der Absolutbetrag von α. Die Dreiecksungleichung heißt so, weil sie besagt, dass dieLange einer Dreiecksseite kleiner hochstens gleich der Summe der Langen der gegenuberliegenden Seitenist. Bedingungen 2. und 3. in der Definition stellen sicher, dass Addition von Vektoren und Multiplikationmit Skalaren stetige Funktionen werden. Definiert man namlich als Abstand dpv1, v2q zweier Vektorenv1, v2 P V

dpv1, v2q ‖v1 v2‖ ,so wird V zum metrischen Raum, und man hat einen Stetigkeitsbegriff.Ein Vektorraum V zusammen mit einer Norm ‖‖ auf V heißt normierter Vektorraum. Hier sind jedeMenge von Beispielen, um es genau zu sagen uberabzahlbar viele:

9.0-2 Beispiel pOhne Beweisq: Sei V Kn, und v pα1, . . . , αnq P V . Dann sind alle folgendenAbbildungen Normen auf V :

1. ‖v‖8 maxt|αj | | 1 ¤ j ¤ nu.2. ‖v‖p p

b°nj1 |αj |p fur 1 ¤ p 8.

109

Um nun auch eine vernunftige Messung von Winkeln zu ermoglichen, muss man das Konzept der Normverscharfen. Dies geschieht mit Hilfe von sogenannten inneren Produkten oder Skalarprodukten.

9.1 Skalarprodukte

Hier ist eine Definition von Funktionen, die (im Falle K R oder mit einer leichten Modifikation K C)nicht nur die Lange von Vektoren, sondern auch Winkel zwischen zwei solchen einfangt. Da Winkel zweiArgumente involvieren, ist es keine Uberraschung, dass man Funktionen zweier Veranderlicher benotigt:

9.1-1 Definition: Sei K ein Korper und V ein K-Vektorraum. Eine Abbildungx , y : V V Ñ K : px, yq ÞÑ xx , yyheißt bilinear , falls fur x, y, z P V und α P K gilt:xx y , zy xx , zy xy , zyxx , y zy xx , yy xx , zyxαx , yy xx , αyy α xx , yy .Wir beschranken uns zunachst auf reelle Vektorraume:

9.1-2 Definition: Sei x , y eine Bilinearform auf dem reellen Vektorraum V . Dann heißt diese sym-metrisch, falls xx , yy xy , xyist fur alle x, y P V . Ist xx , xy ¥ 0

fur alle x P V , so heißt sie positiv semidefinit und positiv definit , fallsxx , xy ¥ 0 und xx , xy 0 ðñ x 0

ist fur alle x P V . Eine positiv definite symmetrische Bilinearform heißt Skalarprodukt auf V , und V

zusammen mit einem Skalarprodukt heißt euklidischer Vektorraum.

Achtung: Ein Skalarprodukt ist von der skalaren Multiplikation zu unterscheiden!

9.1-3 Beispiel:

1. Auf dem Rn definieren wir: xpα1, . . . , αnq , pβ1, . . . , βnqy n

i1

αiβi.

2. Seien 0 a, b P R. Wir definieren auf dem R2 eine Bilinearformxpα, βq , pγ, δqy 1

a2αγ 1

b2βδ.

3. Nun ein etwas komplizierteres Beispiel: Als reellen Vektorraum nehmen wir die Menge aller stetigenFunktion auf dem Intervall ra, bs mit a b P R:

V tf : ra, bs Ñ R | f ist stetig u,und definieren x , y : V V Ñ R : pf, gq ÞÑ xf , gy » b

a

fptqgptqdt.110

9.1-4 Probleme pzu Beispiel 9.1-3q:zu 2. Was ist die Menge der Punkte x P R2 mit xx , xy 1?

zu 3. Warum ist x , y uberhaupt Bilinearform, warum symmetrisch, warum positiv definit?

Wie wir sehen werden, konnen wir mit Hilfe eines Skalarprodukts die Lange ‖x‖ eines Vektors x P Vdurch ‖x‖ axx , xy definieren, in der Tat wird dadurch V zum normierten Vektorraum im Sinne vonAbschnitt 9.0. Der Winkel ρ zwischen den Vektoren x und y von V ist dann indirekt durch

cospρq cospx, yq xx , yy‖x‖ ‖y‖

definiert. Um zu sehen, dass dies auch wirklich funktioniert (was heißt hier funktionieren?), mussen wirnoch eine ganze Menge zeigen. Klar ist aber, dass vernunftigerweise die Lange eines Vektors ( 0) einepositive reelle Zahl sein sollte, und der Winkel zwischen zwei Vektoren sollte nicht von deren Reihenfolgeabhangen! Allerdings gibt es

”Geometrien“, fur die von diesen Prinzipien abgewichen wird.

9.1-5 Problem: Was genau geht schief, wenn man ein Skalarprodukt fur den C2 durchxpα, βq , pγ, δqy αγ βδ α, β, γ, δ P C

definiert?

Wie wir am obigen Problem gesehen haben, mussen wir uns etwas einfallen lassen, um zu einer vernunf-tigen Definition eines Skalarprodukts fur komplexe Vektorraume zu kommen. Die Idee ist, auf den Abso-lutbetrag einer komplexen Zahl zu starren, und dies zu verallgemeinern:|α βi| a

α2 β2 apα βiq pα βiqfur α, β P R, das heißt |z| ?zzfur z α βi P C, wobei z α βi die zu z konjugiert komplexe Zahl ist.

9.1-6 Problem: Zeigen Sie, dass : C Ñ C : z ÞÑ z

ein Korperautomorphismus der komplexen Zahlen ist.

Wir werden also ein bisschen an der Definition einer bilinearen Abbildung drehen:

9.1-7 Definition: Sei V ein komplexer Vektorraum. Eine hermitische Form x , y auf V ist eine Abbil-dung, die jedem Paar px, yq von Vektoren eine komplexe Zahl xx , yy zuordnet, sodass fur alle x, y, z P Vund λ P C gilt:

1. xx y , zy xx , zy xy , zy ,2. xλx , yy λ xx , yy,3. xx , yy xy , xy.

So ersetzt man die Symmetrie bei reellen Vektorraumen durch die Eigenschaft 3. oben. Unmittelbar folgtnun:

111

9.1-8 Lemma: Fur eine hermitische Form gilt mit obigen Bezeichnungen:

1. xx , y zy xx , yy xx , zy,2. xx , λyy λ xx , yy,3. xx , xy P R.

Wegen 3. in obigem Lemma konnen wir wieder positiv definite und positiv semidefinite hermitischeFormen definieren:

9.1-9 Definition: Eine hermitische Form heißt positiv semidefinit , wenn xx , xy ¥ 0 ist fur alle x P Vund positiv definit, falls aus x 0 stets xx , xy ¡ 0 folgt. Eine positiv definite hermitische Form auf einemkomplexen Vektorraum V heißt Skalarprodukt auf V , und V heißt dann zusammen mit dieser Formunitarer Raum.

9.1-10 Beispiel:

1. Auf V Cn definieren wir xpα1, . . . , αnq , pβ1, . . . , βnqy n

i1

αiβi.

2. Auf dem C2 setzen wir xpα, βq , pγ, δqy 4αγ 2αδ 2βγ 3βδ.

Im folgenden sei nun, wenn nichts anderes gesagt, K stets der Korper der reellen oder komplexen Zahlen,V ein K-Vektorraum und x , y eine bilineare bzw. hermitische Form auf V , sodass V mit dieser Formeinen euklidischen oder unitaren Raum bildet.Nun konnen wir Vektoren mit einer Lange versehen:

9.1-11 Definition: Sei x P V . Die Lange oder Norm von x ist die reelle Zahl

‖x‖ axx , xy.Insbesondere ist ‖x‖ 0 genau dann, wenn x 0 ist.

Naturlich hangt die Lange ‖x‖ eines Vektors x ganz wesentlich von der Wahl des Skalarprodukts ab.Die Frage erhebt sich nun naturlich, ob diese Norm unseren Vektorraum V zum normierten Vektorraumim Sinne von Abschnitt 9.0 macht. 1. in Definition 9.0-1 ist erfullt, da x. , .y positiv definit ist, also ist‖x‖ xx , xy ¥ 0, und fur x 0 gilt sogar ‖x‖ xx , xy ¡ 0. 2. ist ebenfalls erfullt:

‖αx‖ axαx , αxy aα2 xx , xy |a| ‖x‖

9.1-12 Lemma: Sei 0 x P V . Dann hat x‖x‖ die Lange 1.

Vektoren der Lange 1 heißen normiert oder Einheitsvektoren.Wie steht es nun mit der Dreiecksungleichung? Versuchen Sie einmal, diese direkt aus unseren bisherigenAxiomen herzuleiten!Fur ihren Beweis braucht man den folgenden grundlegenden Satz:

112

9.1-13 Satz pCauchy-Schwarz’sche Ungleichungq: Sei V ein euklidischer oder unitarer Vektorraum,und seien x, y P V . Dann ist |xx , yy| ¤ ‖x‖ ‖y‖ .Anders ausgedruckt ist |xx , yy| ¤axx , xy xy , yy.Wir haben zwei wichtige Folgerungen:

9.1-14 Korollar: Sei V ein euklidischer oder unitarer Vektorraum und sei ‖x‖ fur x P V wie inDefinition 9.1-11. Dann ist V zusammen mit ‖‖ ein normierter Vektorraum im Sinne von Definition9.0-1, d. h. erfullt insbesondere die Dreiecksungleichung

‖x y‖ ¤ ‖x‖ ‖y‖ x, y P V.Die zweite Folgerung ermoglicht die Definition von Winkeln, zumindest im Falle von euklidischen Vek-torraumen:

9.1-15 Korollar: Sei V euklidischer oder unitarer Vektorraum und ‖‖ wie oben. Dann ist der Betragvon

cospx, yq xx , yy‖x‖ ‖y‖

eine reelle nichtnegative Zahl ¤ 1. Insbesondere ist cospx, yq fur euklidische Vektorraume eine Zahl imIntervall r1, 1s.Es ist also xx , yy ‖x‖ ‖y‖ cospx, yq9.1-16 Bemerkung: Rechnet man das Skalarprodukt xx y , x yy aus und ersetzt xx , yy durch obigeFormel, so erhalt man im reellen Fall

‖x y‖2 ‖x‖2 ‖y‖2 2 ‖x‖ ‖y‖ cospx, yq,was der bekannte Kosinussatz ist: Bilden x und y zwei Seiten eines Dreiecks, so ist die Lange der Sei-te, die dem Winkel α zwischen x und y gegenuberliegt, gerade ‖x y‖. Fur einen rechten Winkel α,d. h. cospx, yq 0 erhalt man den Satz von Pythagoras.

9.1-17 Definition pWinkelq: Sei V ein euklidischer Vektorraum, x, y P V . Dann ist der Winkel αzwischen x und y gegeben durch

cosα cospx, yq xx , yy‖x‖ ‖y‖ .

α ist hier nicht ganz eindeutig, zum einen, weil 2π und 0 als Winkel gleich sind, zum anderen ist esnicht ganz klar, wie herum der Winkel orientiert werden soll. Kurz gesagt: Die Kosinusfunktion ist nichtinjektiv.Und gleich das zweite Problem: Was machen wir fur unitare Vektorraume? Da ist cospx, yq nicht unbedingtreell.Die Antwort ist einfach: Wir brauchen fur viele Anwendungen gar keine wirklichen Winkel, sondern nurdas Konzept zweier zueinander senkrechter , d.h. orthogonaler Vektoren. Das konnen wir aber auch imKomplexen haben:

113

9.1-18 Definition pOrthogonalitatq: Sei V ein euklidischer oder ein unitarer Raum und seien x, y P V .Dann heißen x und y orthogonal , falls xx , yy 0 ist. Wir bezeichnen diesen Sachverhalt durch x K y.Zwei nichtleere Teilmengen M und N von V heißen orthogonal, falls x K y ist fur alle x PM und y P N .Die Menge der zu M orthogonalen Vektoren ist ein Unterraum von V und wird mit MK bezeichnet.

Naturlich ist K eine symmetrische Relation auf V .Eine nichtleere Teilmenge M von V , die aus paarweise orthogonalen Elementen besteht, von denen keinesder Nullvektor ist, heißt orthogonales System in V . Sind zusatzlich alle Vektoren in M normiert, so sprichtman von einem orthonormalen System. Wir haben den wichtigen Satz:

9.1-19 Satz: Ein System orthogonaler Vektoren in V ist linear unabhangig.

Ein orthonormales System, das V erzeugt, heißt Orthonormalbasis (kurz ONB) von V .Wir stellen nun das beruhmte Orthonormalisierungsverfahren nach Jorgen Pedersen Gram (1850-1916)und Erhard Schmidt (1876-1959) vor, das aus einer beliebigen Basis eines euklidischen oder unitarenRaumes hochstens abzahlbarer Dimension eine ONB produziert:

9.1-20 Prozedur: Sei V ein euklidischer oder unitarer Vektorraum, und sei B pv1, v2, . . .q eine linearunabhangige Teilmenge von V . Sei B entweder endlich oder abzahlbar unendlich. Sei E pe1, e2, . . .q (vonderselben Machtigkeit n P NY t8u wie B) folgendermassen induktiv definiert:

1.e1 v1

‖v1‖.

2. Ist k P N mit k ¤ n, dann nehmen wir an, dass ei fur 1 ¤ i ¤ pk 1q bereits definiert ist. Wirsetzen

uk vk k1

i1

xvk , eiy ei und ek uk

‖uk‖.

Beachten Sie, dass dieses Verfahren wirklich konstruktiv ist.Zumindest fur endlichdimensionale euklidische oder unitare Vektorraume kann man damit ein solches Eaus jeder gegebenen Basis B in endlich vielen mechanischen Schritten ausrechnen.

9.1-21 Satz pGram-Schmidtq: Seien V , B und E wie oben, und fur k P N, k ¤ n sei Bk pv1, . . . , vkqund Uk xBky. Dann ist Ek pe1, . . . , ekq eine ONB von Uk und E ist eine ONB von V . Die Basiswech-selmatrix

Mk MidVpEk,Bkq

ist eine obere Dreiecksmatrix mit positiver Determinante.

Was macht ONB’s so schon? Erstens kann man mit Hilfe des Skalarprodukts leicht die Koeffizienten einesbeliebigen Vektors bezuglich einer ONB ausrechnen. Zweitens lassen sich Skalarprodukte zweier Vektoren,deren Koeffizienten bezuglich der ONB bekannt sind, leicht bestimmen:

9.1-22 Korollar:

1. Sei E pe1, e2, . . .q eine ONB von V mit n dimV P NY t8u und x P V . Dann ist

x n

i1

xx , eiy ei.

114

2. Ist x α1e1 α2e2 P V und y β1e1 β2e2 P V , so istxx , yy α1β1 α2β2 (wobei im euklidischen Fall α α fur α P R ist).

Hier passiert etwas ahnliches wie am Anfang bei der Einfuhrung von Vektorraumen: Wir hatten inBeispiel 9.1-3 den Rn mit dem gewohnlichen Skalarprodukt eingefuhrt, als Beispiel und Motivation furdie allgemeinere Definition von euklidischen Vektorraumen (Definition 9.1-2). Und nun stellen wir fest,dass wir im wesentlichen doch wieder den Rn mit dem gewohnlichen Skalarprodukt vor uns haben. Wirwerden das weiter unten praziser formulieren.Ist man nur an Orthogonalitat, nicht aber an normierten Vektoren interessiert, so benutzt man dasfolgende modifizierte Gram-Schmidt-Verfahren:

9.1-23 Satz: Sei V ein Vektorraum mit einem Skalarprodukt, und sei B pv1, v2, . . .q eine linearunabhangige Teilmenge. Definiere induktiv E px1, x2, . . .q durch:

1. x1 v1.

2. Sind x1, . . . , xk1 schon gefunden, so definieren wir xk durch:

xk vk k1

i1

xvk , xiy‖xi‖

2xi fur k 2, 3, . . . .

Dann ist E ein System orthogonaler Vektoren in V .

9.1-24 Beispiel: Sei V R3 mit dem Standardskalarprodukt und Basis B pv1, v2, v3q mit v1 p1, 1, 0q, v2 p2, 0, 1q und v3 p2, 2, 1q gegeben. Wir wollen diese Vektoren orthogonalisieren. Dazusetzen wir x1 v1 und errechnen x2 durch

x2 v2 xv2 , x1y‖x1‖

2x1 p2, 0, 1q 2

2p1, 1, 0q p1,1, 1q

und x3 durch

x3 v3 xv3 , x1y‖x1‖

2x1 xv3 , x2y

‖x2‖2x2 p2, 2, 1q 4

2p1, 1, 0q 1

3p1,1, 1q 1

3p1, 1, 2q.

Fourier, Jean-Baptiste Joseph, Baron de (1768–1830), franzosischer Mathematiker und Physiker, Mit-glied der Academie des Sciences. Er entdeckte im Rahmen seiner Arbeiten uber die Theorie der Warme-ausbreitung die nach ihm benannte Fourieranalyse, in der Funktionen als Reihen von trigonometrischenFunktionen dargestellt werden. Diese Methoden erwiesen sich insbesondere in der theoretischen Physikals außerst fruchtbar.

9.1-25 Definition pFourierkoeffizientenq: Sei B ein System orthonormaler Vektoren in einem Vektor-raum V mit Skalarprodukt und sei x P V . Dann heißen die Skalare xx , yy mit y P B Fourierkoeffizientenvon x bezuglich B.

Bevor wir uns dem nachsten Beispiel zuwenden, brauchen wir noch einige Tatsachen uber komplexwertigeFunktionen, d. h. Funktionen von einer Teilmenge von R nach C. Die imaginare Einheit i kann bezuglichder Integration als Konstante betrachtet werden. Ist f f1 if2 eine komplexwertige Funktion mitRealteil f1 und Imaginarteil f2, so gilt fur das Integral:»

f »f1 i » f2 und

»f »

f.

115

9.1-26 Beispiel: Sei H Cr1, 2πs der komplexe Vektorraum der komplex-wertigen stetigen Funktionenauf dem abgeschlossenen Intervall r0, 2πs. Wir definieren das Skalarprodukt von f, g P H durch:xf , gy 1

» 2π

0

fptqgptqdt.Damit wird H ein unitarer Raum.Wir betrachten E teimx | m P Zu. Dann haben wir fur m, k P Z, m k :

eimx , eikxD 1

» 2π

0

eimteiktdt 1

» 2π

0

eipmkqtdt 1

2πipm kqeipmkqt2π

0 0

und eimx , eimx

D 1

» 2π

0

eipmmqtdt 1

» 2π

0

dt 1

und daher ist E ein System orthonormaler Vektoren in H . Sei nun f P H . Dann ist der Fourierkoeffizientαn von f gegeben als:

αn 1

» 2π

0

fptqeintdt.

Man kann nun zeigen, dass die Folge

sn,mpfq n

km

αkeikx

im Sinne der Norm aus Definition 9.1-11 gegen f konvergiert, d. h.

‖f sn,m‖ bxf sn,m , f sn,my Ñ 0 fur n,mÑ8.Wir konnen also schreiben:

f nPZ

αneinx.

Fur f x erhalten wir etwa (unter Anwendung von partieller Integration)

αn f , einx

D 1

» 2π

0

teintdt 1

infur n 0

α0 xf , 1y 1

» 2π

0

t 1dt π.

Daher ist

fpxq x π ¸0nPZ

1

ineinx π ¸

0nPZ

1

inpcospnxq i sinpnxqq π ¸

0nPZ

1

npsinpnxq i cospnxqq.

Hier ist eine Interpretation dieser Formel: Wenn wir einx in seinen Real- und seinen Imaginarteil cospnxqund i sinpnxq zerlegen, so gibt der Fourierkoeffizient |αn| den Anteil (Amplitude) der Frequenz n in der

116

Funktion f an. In unserem Beispiel ist das gerade 1n. Das heißt aber naturlich nicht , dass E eine Basis von

H als C-Vektorraum gemaß Definition 4.4-9 ist, da man im allgemeinen nicht αn 0 fur fast alle n P Z

hat. In der Tat hat H uberabzahlbare Dimension, wahrend E abzahlbar ist.Ein abzahlbares System orthonormaler Vektoren, das die Eigenschaft hat, dass jeder Vektor sich alsunendliche Linearkombination wie oben schreiben lasst, nennt man Schauderbasis des zugrunde liegendenVektorraums. (Schauder, Pawel Juliusz, 1896-1943).Wie etwa beiH oben macht es durchaus Sinn, solche verallgemeinerten Basen zu betrachten, insbesondere,da man in solchen Vektorraumen eine gewohnliche Basis nur per Auswahlaxiom hat, und daher eine solcheprinzipiell nicht konstruierbar ist. Eine Schauderbasis hingegen kann man oft konstruieren. Aber naturlichmuss man an anderer Stelle einen Preis zahlen:Man kann nicht mehr die Elemente des Vektorraums als beliebige unendliche Linearkombinationen einerSchauderbasis darstellen, nicht alle solche Linearkombinationen sind erlaubt, sondern nur solche, dieauch konvergieren! Die Kunst wird sein, ausgehend von einer abzahlbaren Menge linear unabhangigerVektoren, nach Orthonormalisierung mit Gram-Schmidt zu zeigen, dass man wirklich eine Schauderbasishat, d. h. dass jeder Vektor sich durch Linearkombinationen des gewonnenen Systems orthonormalerVektoren approximieren lasst. Aber mehr davon spater.

Hier sind noch weitere Anwendungen:

9.1-27 Satz: Sei V ein Vektorraum mit Skalarprodukt, M,N ¤ V . Sind M und N orthogonal, so ist

M X N p0q und daher die Summe M N direkt. Insbesondere ist M MK direkt. Ist M endlich-dimensional, so ist

V M `MK.Der Unterraum MK ist das eindeutig bestimmte orthogonale Komplement von M in V . Jeder zu M

orthogonale Unterraum von V ist in MK enthalten.

So hat M zwar viele Komplemente, aber nur ein orthogonales Komplement, namlich MK. Dieses hangtaber naturlich vom gewahlten Skalarprodukt ab!Man hat nun unmittelbare Folgerungen:

9.1-28 Folgerungen: Sei V ein euklidischer oder unitarer Vektorraum.

1. Ist W ¤ V endlich dimensional mit orthonormaler Basis pe1, . . . , ekq und ist y P V , dann gibt esgenau ein z PWK mit

y k

i1

xy , eiy ei z.Der Vektor

y1 k

i1

xy , eiy ei

ist der eindeutig bestimmte Vektor von W , der y am nachsten ist, d.h.

‖y u‖ ¥ ‖y y1‖ u PWund z y y1 PWK.

2. Sei dimKpV q n 8, und sei pe1, . . . , ekq ein System orthonormaler Vektoren in V . Dann kanndies zu einer orthonormalen Basis pe1, . . . , ek, ek1 . . . enq von V erganzt werden und pek1, . . . , enqspannt das orthogonale Komplement zu W xe1, . . . , eky auf und ist ONB desselben.

117

3. Ist dimKpV q n ¤ 8 und W ¤ V , so ist

dimKpV q dimKpW q dimKpWKqfur alle Unterraume W von V .

Klar ist auch das folgende Korollar:

9.1-29 Korollar: Sei V ein endlich-dimensionaler euklidischer oder unitarer Vektorraum und sei Mein Unterraum. Dann ist pMKqK M.

9.2 Euklidische Vektorraume: Orthogonale Abbildungen

Gegenstande der Untersuchungen in der Mathematik sind Strukturen (definiert uber Axiome) und struk-turerhaltende Abbildungen, sogenannte Morphismen. Uns sind schon einige solcher Strukturen zusammenmit ihren Morphismen (man nennt so etwas eine Kategorie) begegnet:

Struktur Morphismen

1. Gruppen Gruppenhomomorphismen2. Ringe Ringhomomorphismen3. Korper Korperhomomorphismen4. Algebren Algebrenhomomorphismen5. Vektorraume lineare Abbildungen6. Metrische Raume Stetige Abbildungen7. Euklidische Vektorraume ???8. Unitare Vektorraume ???

Wir suchen also Abbildungen von euklidischen oder unitaren Vektorraumen, die nicht nur ihre algebraischeStruktur (Vektorraumstruktur), sondern auch ihre geometrische Struktur, d. h. Lange und Orthogonalitat(Winkel) erhalten.Der Einfachheit halber beschranken wir uns nun zunachst auf euklidische Vektorraume, um dann in einerspateren Runde unitare Raume miteinzubeziehen. Seien im folgenden V und W euklidische Vektorraume.

9.2-1 Definition: Seien V,W euklidische Vektorraume und sei f : V Ñ W eine lineare Abbildung.Dann heißt f orthogonale Abbildung, fallsxfpxq , fpyqy xx , yy x, y P Vgilt. Ist f ein orthogonaler Isomorphismus, so spricht man auch von einer Isometrie.

9.2-2 Satz: Seien V ein euklidischer Vektorraum endlicher oder abzahlbar unendlicher Dimension, undW ein beliebiger euklidischer Vektorraum. Sei f : V Ñ W ein Homomorphismus. Dann sind folgendeAussagen aquivalent:

1. f ist orthogonale Abbildung.

2. Sei x P V . Dann gilt: ‖x‖ 1 ùñ ‖fpxq‖ 1.

3. ‖x‖ ‖fpxq‖ x P V .

118

4. Ist E pe1, e2, . . .q ein System orthonormaler Vektoren in V , so ist

Ef pfpe1q, fpe2q, . . .qein ebensolches in W .

5. Es gibt eine ONB B von V , sodass Bf Orthonormalsystem ist.

Unmittelbar daraus folgt:

9.2-3 Korollar: Eine orthogonale Abbildung ist injektiv. Ist insbesondere dimRpV q dimRpW q und istf : V ÑW eine orthogonale Abbildung, so ist f eine Isometrie.

Euklidische Vektorraume heißen isometrisch, falls es eine Isometrie zwischen ihnen gibt. Man sieht auchleicht, dass die Komposition zweier orthogonaler Abbildungen wieder orthogonal, und das Inverse einerIsometrie wieder Isometrie ist. Wir haben daher:

9.2-4 Korollar: Die Menge der Isometrien eines euklidischen Vektorraums V in sich ist eine Unter-gruppe der vollen linearen Gruppe GLRpV q, die orthogonale Gruppe ORpV q.Sei nun dimRpV q n. Den Rn versehen wir mit dem naturlichen Skalarprodukt (erstes Beispiel in9.1-3). Die zugehorige orthogonale Gruppe wird dann auch mit OnpRq bezeichnet. Sei B px1, . . . , xnqeine orthonormale Basis von V . Wir definieren

f : V Ñ Rn :n

i1

αixi ÞÑ pα1, α2, . . . , αnq P Rn.

Dann gilt:

9.2-5 Satz: Sei f : V Ñ Rn wie oben definiert. Dann ist f eine Isometrie, und V und Rn sindisometrisch. Das Bild der orthonormalen Basis B von V unter f ist die naturliche Basis des Rn.

9.2-6 Problem: Zeigen Sie: Isometrische euklidische Vektorraume haben isomorphe orthogonale Grup-pen.

Wir haben also wieder eine ahnliche Situation wie am Anfang der Vorlesung mit den Vektorraumen: Da-mals starteten wir mit dem Rn (bzw. Kn), definierten abstrakt Vektorraume nur um dann festzustellen,dass durch die Einfuhrung einer Basis das Ganze wieder auf den Kn zuruckgefuhrt ist. Hier tut mandasselbe, man zeigt, dass im Wesentlichen die Raume Rn mit dem naturlichen Skalarprodukt alle eu-klidischen endlich-dimensionalen Vektorraume abdecken. Warum aber die Muhe? In der Natur kommendurchaus Vektorraume und reelle Vektorraume mit Skalarprodukt vor, die nicht in Standardform sind,und dann hilft uns das obige Verfahren, diese auf Bekanntes zuruckzufuhren.

9.2-7 Bemerkung: Sind A und B zwei n n-Matrizen, so ist der ij-te Eintrag der ProduktmatrixAB gerade das Skalarprodukt von Zeile i von A mit Spalte j von B oder aquivalent mit Zeile j von dertransponierten Matrix Bt.

Was schließen wir daraus?

119

9.2-8 Lemma: Die Spalten- (bzw.Zeilen-)vektoren einer reellen n n-Matrix A pαrlq bilden genaudann eine orthonormale Basis von Rn, wenn

AAt AtA En

ist, d.h.A1 At

gilt.

Eine invertierbare n n-Matrix A mit A1 At nennt man orthogonale Matrix. Ist At A, so heißt Asymmetrisch.

9.2-9 Korollar: Sei V Rn, versehen mit dem Standardskalarprodukt. Die Elemente von V seien alsSpaltenvektoren geschrieben. Seien A pαrlq eine reelle n n-Matrix und fA der Endomorphismus vonV , den man durch Linksmultiplikation mit der Matrix A erhalt:

fApxq Ax.

Dann ist die naturliche Basis von V orthonormal, und fA ist orthogonale Abbildung genau dann, wennA orthogonale Matrix ist. So ist

ORpV q OnpRq tA P GLnpRq | A1 Atu.9.2-10 Korollar: Sei f ein Endomorphismus des euklidischen Vektorraums V der Dimension n. Sei B

eine orthonormale Basis von V und A pαrlq Mf pB,Bq. Dann ist f genau dann orthogonal, wenn A

orthogonal ist.

9.2-11 Korollar: Sei E eine Orthonormalbasis des euklidischen Vektorraums V endlicher Dimension.Dann ist eine Basis B von V genau dann orthonormal, wenn die Basiswechselmatrix

A MidVpE ,Bq

orthogonal ist.

In diesem Fall ist dann die inverse Matrix

A1 MidVpB, Eq

besonders einfach als At zu berechnen! (Allerdings steckt im Normalfall eine erheblicher Rechenaufwandin der Berechnung einer orthonormalen Basis B!)Man kann zeigen, dass ORpRnq genau aus den Drehungen und Spiegelungen des Rn besteht.

9.2-12 Korollar: Die Determinante einer orthogonalen Abbildung fA ist 1.

Drehungen haben positive, Spiegelungen negative Determinanten.

9.3 Hauptachsentheorem

120

9.3-1 Definition: Eine n n-Matrix heißt symmetrisch, falls At A ist.

Erinnern Sie sich an unser Programm der besonders”schonen“ Matrizen? Klar ist, diagonalisierbare

Matrizen sind besonders schon, und so wollen wir in diesem Abschnitt das folgende schone Resultatbeweisen:

9.3-2 Satz pHauptachsentheoremq: Symmetrische reelle Matrizen sind diagonalisierbar.

Wir werden sogar noch mehr zeigen: Das Diagonalisieren einer symmetrischen, reellen n n-Matrix kannman durch Konjugation mit einer orthogonalen Matrix erreichen, und die kann man mit Hilfe von Gram-Schmidt algorithmisch ausrechnen. Den allgemeineren Fall komplexer Vektorraume verschieben wir aufden nachsten Abschnitt.

9.3-3 Definition: Zwei Endomorphismen f und g eines euklidischen Vektorraums V heißen orthogonalaquivalent , falls es einen orthogonalen Automorphismus p von V mit

g p1 f pgibt. Analog definiert man orthogonal aquivalente quadratische reelle Matrizen.

Hier ist nun die volle Version des Hauptachsentheorems:

9.3-4 Satz pHauptachsentheorem 2q: Jede reelle symmetrische n n-Matrix ist orthogonal aquivalentzu einer Diagonalmatrix.

Zum Beweis benotigen wir noch einige Ergebnisse:

9.3-5 Satz: Sei K ein Korper und sei A eine symmetrische n n-Matrix uber K. Seien λ, µ P KEigenwerte mit Eigenvektoren

x x1

x2

...xn

ÆÆÆ bzw. y y1y2...yn

ÆÆÆ P Kn.

Ist λ µ, dann gilt

xty n

i1

xiyi 0 P K.Dieses Ergebnis gilt fur symmetrische Matrizen uber beliebigen Korpern, fur den Korper der reellenZahlen bedeutet es aber:

9.3-6 Korollar: Sei A eine symmetrische reelle n n-Matrix. Dann sind Eigenvektoren von A zuverschiedenen Eigenwerten orthogonal bezuglich des Standardskalarprodukt auf Rn. Eigenraume zu ver-schiedenen Eigenwerten sind paarweise orthogonal.

Wir denken uns nun die reellen Zahlen als Teilmenge von C. Nun ist aber C nach dem Hauptsatz derAlgebra algebraisch abgeschlossen.

9.3-7 Satz: Sei A PMnpRq MnpCq. Sei λ P C ein komplexer Eigenwert mit Eigenvektor x P Cn von

A. Dann ist x Eigenvektor von A zum Eigenwert λ.

9.3-8 Satz: Die Eigenwerte symmetrischer reeller n n-Matrizen sind alle reell.

121

9.3-9 Korollar: Das charakteristische Polynom einer reellen symmetrischen n n-Matrix A zerfalltuber den reellen Zahlen in Linearfaktoren.

9.3-10 Satz: Sei A eine reelle symmetrische n n-Matrix. Dann besitzt Rn eine Basis aus Eigenvek-toren von A.

Die folgende Prozedur ist nun ein konstruktiver Beweis fur das Hauptachsentheorem.

9.3-11 Prozedur: Sei A eine symmetrische reelle n n-Matrix. Wir bestimmen eine orthogonale

n n-Matrix P (d. h. P1 P t) mit

P1AP P tAP D

mit einer Diagonalmatrix D, indem wir folgende Schritte ausfuhren:

1. Wir berechnen das charakteristische Polynom χAptq von A und zerlegen es in Linearfaktoren (Ko-rollar 9.3-9 garantiert, dass dies geht!):

χAptq pt λ1qk1pt λ2qk2 pt λsqks .

So sind also die λi paarweise verschieden und kommen mit Vielfachheit ki vor. Die Matrix D habenwir nun schon:

D diag

$&%λ1, . . . , λ1loooomoooonk1 viele

, λ2, . . . , λ2loooomoooonk2 viele

, . . . λs, . . . , λsloooomoooonks viele

,.- .

2. Fur jeden Eigenwert λi berechnen wir eine Basis Bi des zugehorigen Eigenraums Ei. Dann mussnach Satz 9.3-10 dessen Dimension ki sein und die Ei sind paarweise orthogonal.

3. Falls notig orthonormalisieren wir Bi mit Hilfe von Gram-Schmidt, um eine orthonormale Basis Ci

von Ei zu erhalten.4. Die Ci sind ja schon paarweise orthogonal, also ist auch

C s¤i1

Ci

eine disjunkte Vereinigung und orthonormale Basis von Rn. Sei En die naturliche Basis von Rn.Dann ist die Basiswechselmatrix

P MidpEn, Cqnach Korollar 9.2-11 orthogonale Matrix. Insbesondere ist

P1 MidpC, Enq P t

und man hatP1AP P tAP D.

Die Voraussetzung, dass wir es mit reellen Matrizen zu tun haben, ist im Hauptachsentheorem wesentlich:

122

9.3-12 Beispiel: Hier ist ein Beispiel einer symmetrischen komplexen Matrix, die nicht diagonalisierbarist:

A 2i 11 0

.

Wir habenχAptq tpt 2iq 1 t2 2it 1 pt iq2

und daher ist i der einzige Eigenwert. Man sieht aber unmittelbar, dass rgpA iEq 1 ist, d. h. derEigenraum zum Eigenwert i nur eindimensional sein kann.

Woher kommt der Begriff”Hauptachsentheorem“? Der Prozedur konnen wir entnehmen, dass man eine

Basis aus orthonormalen Eigenvektoren von A durch eine orthogonale Transformation erhalt. Dies lasstsich aber im Rn als Drehung oder Spiegelung interpretieren: Man dreht bzw. spiegelt das gewohnliche kar-tesische Koordinatensystem mit Hilfe der orthogonalen Matrix P und erhalt neue Koordinaten, bzgl. dererdie zu A gehorende lineare Transformation fA von Rn Diagonalgestalt hat, d. h. durch Dehnungen umden Faktor Eigenwert in Richtung der Eigenvektorachsen bestimmt ist. Diese sind die Hauptachsen vonA.

9.4 Unitare Abbildungen und das Hauptachsentheorem fur nor-

male Endomorphismen

In diesem Abschnitt seien V und W unitare Vektorraume.

9.4-1 Definition: Eine C-lineare Abbildung f : V Ñ W heißt unitar , falls sie das Skalarproduktrespektiert, d. h. falls gilt: xfpxq , fpyqy xx , yy x, y P V.Satz 9.2-2 kann nun wortlich ubertragen werden. Nur fur die Implikation 3. ñ 4. etwas muss man etwastiefer in die Trickkiste greifen.So braucht man zum Beispiel nur zu nachprufen, dass f Vektoren der Lange 1 in ebensolche abbildet,oder dass f eine ONB in eine ebensolche uberfuhrt, um zu sehen, dass f unitar ist.Es gilt ebenfalls wieder, dass unitare Abbildungen injektiv sind, und dass jeder unitare Raum der Di-mension n isometrisch zum Cn mit Standardskalarprodukt ist (durch Wahl einer ONB). Klar ist auch,dass die Menge der unitaren Abbildungen von V in sich eine Untergruppe von AutCpV q bildet. Sie heißtunitare Gruppe und wird mit UCpV q bezeichnet.Ist A pαijq PMnnpCq, so wird die konjugiert komplexe Matrix pαijq mit A bezeichnet. Man pruft nunleicht nach:

9.4-2 Beobachtung: Die Zeilen- (oder aquivalent die Spaltenvektoren) einer komplexen n n-Matrixbilden genau dann eine Orthonormalbasis von Cn, wenn

AAt A

tA E

d. h. wennA

t A1

ist.

Die Matrix Atist so wichtig, dass sie einen eigenen Namen und ein eigenes Symbol erhalt: Man nennt sie

die adjungierte Matrix von A und bezeichnet sie mit A.Die Abbildung : MnpCq Ñ MnpCq : A ÞÑ A ist ein semilinearer C-Algebraantiautomorphismus vonMnpCq der Ordnung zwei, d. h.

123

9.4-3 Lemma: Seien A,B PMnpCq und λ P C. Dann gilt:

1. A A,

2. pABq A B,3. pλAq λA und

4. pABq BA9.4-4 Definition: Sei A PMnpCq.

1. A ist unitar , falls A1 A ist. (Entspricht den orthogonalen Matrizen im euklidischen Fall!)2. A heißt hermitisch oder selbstadjungiert , falls A A ist (entspricht symmetrischen Matrizen im

Reellen).3. A heißt normal , falls AA AA ist.

9.4-5 Satz: Unitare und hermitische Matrizen sind normal.

9.4-6 Satz: Sei V endlichdimensional, und sei f ein Endomorphismus von V . Dann ist f unitar genau

dann, wenn Mf pB,Bq fur jede Orthonormalbasis B unitare Matrix ist.

Wir haben adjungierte Matrizen definiert. Was ist die Entsprechung auf der Seite der Endomorphismen?

9.4-7 Definition/Satz: Sei dimpV q n, f P EndCpV q, und sei B pv1, . . . , vnq eine Orthonormalbasis

von V . Sei A Mf pB,Bq pαijq. Dann sei f : V Ñ V auf B wie folgt definiert:

fpvjq n

i1

αjivi.

Der durch lineare Ausdehnung definierte Endomorphismus f heißt der zu f adjungierte Endomorphis-mus. Es gilt: MfpB,Bq A pMf pB,Bqq.9.4-8 Korollar: Sei f P EndCpV q und seien x, y P V . Dann istxfpxq , yy xx , fpyqy .Nun definiert man hermitische und normale Endomorphismen als solche f P EndCpV q, fur die f f

bzw. ff ff gilt. Das sind naturlich genau solche Endomorphismen, deren Matrizen bezuglich einerOrthonormalbasis hermitisch bzw. normal sind. Fur einen hermitischen Endomorphismus f von V giltdaher xfpxq , yy xx , fpyqy x, y P V.9.4-9 Satz: Sei f ein Endomorphismus von V . Dann ist f normal genau dann, wenn fur alle x, y P Vgilt: xfpxq , fpyqy xfpxq , fpyqy .Ist f normal, dann gilt insbesondere fur alle x P V ‖fpxq‖ ‖fpxq‖ und außerdem kerpfq kerpfq:Ist x P ker f , dann ist xfpxq , fpxqy xfpxq , fpxqy 0, und daher fpxq 0.

124

9.4-10 Satz: Sei f ein normaler Endomorphismus von V und sei x ein Eigenvektor zum Eigenwertλ P C von f . Dann ist

fpxq λx,

d. h. x ist Eigenvektor von f zum Eigenwert λ.Insbesondere ist Vλpfq Vλpfq.9.4-11 Satz pHauptachsentheorem fur normale Abbildungenq: Sei V ein endlichdimensionaler uni-tarer Raum, und sei f P EndCpV q. Ist f normal, so besitzt V eine Orthonormalbasis aus Eigenvektorenvon f . Ist B irgendeine Orthonormalbasis von V und ist A Mf pB,Bq, so ist A unitar-aquivalent zueiner Diagonalmatrix, d. h. es gibt eine unitare Matrix P , sodass P1AP Diagonalmatrix ist.

Im Spezialfall hermitischer Endomorphismen hat man:

9.4-12 Satz: Sei f P EndCpV q hermitisch. Dann sind alle Eigenwerte von f reell und V hat eine Ortho-normalbasis bestehend aus Eigenvektoren von f . Ist A die Matrix von f bezuglich einer Orthonormalbasisvon V so ist A unitar-aquivalent zu einer reellen Diagonalmatrix.

9.5 Hyperflachen, Quadriken und quadratische Formen

Man kann Teilmengen des Rn, die durch differenzierbare Funktionen definiert sind, eine Dimension zuord-nen, indem man sich auf kleine Umgebungen von Punkten zuruckzieht, die man dann annaherungsweiseals lineare Raume (Tangentialraume) betrachten kann. Die Dimension der Teilmenge des Rn in einembestimmten Punkt ist dann definiert als Dimension des Tangentialraums an diesem Punkt. Ist die Di-mension in allen Punkten der Teilmenge dieselbe, so spricht man von der Dimension der Teilmenge.Hyperflachen im Rn sind Teilmengen der Dimension n 1. Fur den R2 sind das Kurven, fur den R3

(gekrummte) Flachen im Raum etc.

9.5-1 Definition: Eine Hyperflache 2. Ordnung (auch Quadrik genannt) im euklidschen Raum Rn istdie Gesamtheit aller Punkte

x x1

x2

...xn

ÆÆÆ P Rn,

deren Koordinaten xi einer Gleichung

G :¸

1¤i¤j¤n

αijxixj n

i1

βixi γ 0

mit αij , βi, γ P R genugen, wobei die Koeffizienten αij nicht alle 0 sind.

9.5-2 Bemerkung: Sind in einer solchen Gleichung alle Koeffizienten αij 0, dann ist die Gleichung einlineares Gleichungssystem, dessen Losungen wir bereits kennen. Diese wollen wir nicht mehr untersuchen.

Wir definieren nun die symmetrische n n-Matrix A pαijq durch

αij $'&'% 12αij fur i j

12αji fur i ¡ j

αii fur i j,

125

und den Zeilenvektor b pβ1, . . . , βnq.Unsere Gleichung G lasst sich nun als Matrizengleichung

G : xtAx bx γ 0

mit A 0 schreiben. Nach dem Hauptachsentheorem gibt es eine orthogonale Matrix P mit

P tAP D λ1 0 . . . 0 00 λ2 0 0...

. . ....

0 λn1 00 0 . . . 0 λn

ÆÆÆÆÆ .Wir interpretieren P als Basiswechselmatrix:

P MidpE ,Bq,wobei E die naturliche und B die Ortonormalbasis von Rn, die aus Eigenvektoren von A besteht, bezeich-net.Sei nun y P Rn und x Py. Dann ist xE pPyqE pMidpE ,BqyqE yB, d. h. x und y beschreibendenselben Vektor, aber bezuglich verschiedener Basen.Sei d bP , dann gilt

ytDy ytP tAPy xtAx und dy bPy bx.

So erfullt x Py die Gleichung G genau dann wenn y P tx P1x die Gleichung

G1 : ytDy dy γ 0,

erfullt, d. h. die Gleichung

G1 : λ1y21 λny

2n δ1y1 δnyn γ 0

mit d pδ1, . . . , δnq.Die Koordinaten lassen sich nun so umordnen, dass λ1, . . . , λr 0, und λr1 λr2 λn 0 ist(Vertauschen zweier Koordinaten entspricht der Spiegelung an einer Winkelhalbierenden). Man beachte,dass man fur 1 ¤ i ¤ r folgende Umformungen machen kann (quadratische Erganzung):

λiy2i δiyi λi

y2

i δi

λi

yi δ2i4λ2

i

δ2i4λi

λi

yi δi

2λi

2 δ2i4λi

So konnen wir G1 durch Verschieben des Ursprungs um den Vektor

h 1

2

δ1

λ1

...δr

λr

0...0

ÆÆÆÆÆÆÆÆ auf die Form

G2 : λ1z21 λrz

2r δr1zr1 δnzn δ 0

bringen, der konstante Term ist dabei

δ γ r

i1

δ2i4λi

.

Dies nennt man die Normal- oderHauptachsenform von G und wir haben den folgenden Satz gezeigt:

126

9.5-3 Satz: Zu jeder Hyperflache zweiter Ordnung existiert die Normalform.

An den Koeffizienten der Normalform kann man den Typ der Quadrik ablesen, etwa Parabel, Ellipse,Hyperbel im R2 oder parabolisches Hyperboloid, Ellipsoid, etc. im R3. Dazu bringt man

G2 : λ1z21 λrz

2r δr1zr1 δnzn δ 0

auf die folgende einheitliche Form:

• Durch Multiplikation der Gleichung mit einer Konstanten kann man annehmen, dass δ P t0, 1,1uist.

• Durch Vertauschen der Koordinaten kann man annehmen, dass λi ¡ 0 ist fur 1 ¤ i ¤ s und λi 0ist fur s i ¤ r mit 1 ¤ s ¤ r.

• Durch eventuelle Multiplikation der Gleichung mit 1 und Vertauschen der Koordinaten kann manerreichen, dass s ¥ r s ist, und fur s r s δ ¥ 0 ist.

• Ist r n und λi 0 fur mindestens ein i ¡ r, dann sei T eine orthogonale Matrix der Form

T 1 0 0 0 00 1 0 0 0 0

0. . .

......

...0 1 0 0 00 1 0 00 0 cδr1 ...

......

......

0 0 cδn ÆÆÆÆÆÆÆÆÆÆÆÆ

Diese Matrix bekommt man mit Hilfe des Schmidtschen Orthonormalisierungsverfahrens. Betrachtetman ahnlich wie vorher T t T1 als Basiswechselmatrix, dann wird G2 zu einer Gleichung, in derδr2 . . . δn 0 gilt. Außerdem kann man annehmen, dass δr1 ¡ 0 ist (notfalls spiegelt man).

• Ist δr1 0, dann kann man durch eine Verschiebung erreichen, dass δ 0 ist.

• Oft schreibt man nun die Gleichung G2 in der Form

G2 : λ1z21 λsz

2s λs1z1s

2 λrz2r δr1zr1 δ 0

wobei λi ¡ 0 und δr1 ¥ 0 sind.

Die Anzahl der positiven bzw. negativen Koeffizienten (bzw. die Anzahl der und ), und die Vorzeichenvon δr1 bzw. δ bestimmen nun den Typ der Quadrik.Fur den R3 ergeben sich folgende Typen, wobei wir zuerst entartete Quadriken betrachten, d. h. Quadri-ken, die im Reellen nicht zweidimensional sind (allerdings im Komplexen!):

• Die Gleichungen λ1x21 λ2x

22 λ3x

23 1 0, λ1x

21 λ2x

22 1 0 und λ1x

21 1 0 besitzen (im

Reellen!) keine Losungen.

• Die Gleichung λ1x21 λ2x

22 λ3x

23 0 beschreibt einen einzigen Punkt (namlich den Ursprung).

• Die Gleichung λ1x21 λ2x

22 0 beschreibt eine Gerade.

Die nichtentarteten Typen sind die folgenden:

127

Ellipsoidλ1x

21 λ2x

22 λ3x

23 1 0

Einteiliger Kegelλ1x

21 λ2x

22 λ3x

23 0

Zweischaliges Hyperboloidλ1x

21 λ2x

22 λ3x

23 1 0

Einschaliges Hyperboloidλ1x

21 λ2x

22 λ3x

23 1 0

Elliptischer Zylinderλ1x

21 λ2x

22 1 0

Elliptisches Paraboloidλ1x

21 λ2x

22 λ3x3 0

128

Einteiliges Paar schneidender Ebenenλ1x

21 λ2x

22 0

Hyperbolischer Zylinderλ1x

21 λ2x

22 1 0

Hyperbolisches Paraboloidλ1x

21 λ2x

22 λ3x3 0

Doppelebeneλ1x

21 0

Einteiliges Paar paralleler Ebenenλ1x

21 1 0

Parabolischer Zylinderλ1x

21 λ2x2 0

129

Kapitel 10

Mehr uber Faktorraume und Korper

10.1 Die Isomorphiesatze

Die folgenden drei Isomorphiesatze gelten mit kleinen Modifikationen auch fur Gruppen, Ringe, K-Algebren, usw. Sie werden hier fur Vektorraume formuliert, aber im Sinne der ersten beiden mathe-matischen Tugenden sollten Sie nun die entsprechenden Formulierungen und Beweise fur die anderenStrukturen finden (und beweisen) konnen.Im diesem Abschnitt sind V,W,U Vektorraume (nicht notwendig endlich dimensional) uber dem KorperK.Wir sagen, ein Homomorphismus f : V Ñ W faktorisiert uber U , falls es Homomorphismen g : V Ñ U

und h : U ÑW mit f h g gibt. Wir drucken dies auch aus, indem wir sagen, das folgende Diagrammsei kommutativ :

V W

U

-f

@@Rg

h

10.1-1 Satz p1. Isomorphiesatzq: Sei f : V Ñ W ein Homomorphismus und sei U ¤ ker f . Dann

faktorisiert f eindeutig uber V U , d. h. es gibt genau einen Homomorphismus f : V U ÑW , sodass dasfolgende Diagramm kommutiert:

V W

V U -f

@@@Rπ

f

,

wobei π : V Ñ V U die naturliche Projektion ist. Daruberhinaus ist im f im f .

Was ist, wenn man im obigen Satz U ker f wahlt?

10.1-2 Korollar: Sei f : V ÑW ein Homomorphismus. Dann induziert f einen Monomorphismus

f : V ker f ÑW.

Insbesondere sind daher V ker f und im f isomorph, der Isomorphismus ist gegeben durch f : V ker f Ñim f (mit Einschrankung des Bildbereichs).

Die Dimensionsformel 4.7-7 impliziert daher:

130

10.1-3 Korollar: Sei f : V ÑW ein Homomorphismus. Dann ist

dimV dim im f dimker f.

Ist insbesondere f ein Epimorphismus, so gilt

dimV dimW dimker f.

Diese Aussage hatten wir schon in Korollar 5.7-10 gezeigt!

10.1-4 Problem: Sei f D die Differenziation von Rnrxs nach Rn1rxs. Bestimmen Sie eine”naturli-

che“ Basis von Rnrxs kerD und die Matrix von D bezuglich der naturlichen Basis von Rn1rxs und dervon Rnrxs kerD.

10.1-5 Satz: Sei f : V ÑW ein Homomorphismus, und sei X ¤W . Dann ist

f1pXq tv P V | fpvq P Xuein Unterraum von V , der ker f enthalt. Ist daruberhinaus X ¤ im f , so ist

f1pXq ker f X

und X ÞÑ f1pXq definiert eine inklusionserhaltende Bijektion zwischen der Menge der Unterraume vonim f und der Menge der Unterraume von V , die ker f enthalten. Diese Inklusion respektiert Summe undDurchschnitt von Unterraumen.

Bekanntlich ist die Inklusion eine Ordnungsrelation auf der Menge V der Unterraume von V . Damit wirdV eine teilweise geordnete Menge, diese Menge wird auch Verband der Unterraume von V genannt. Mankann sie als Graphen wie in Bemerkung 1.1-24 veranschaulichen.

10.1-6 Problem:

1. Was wird wohl ein Homomorphismus von geordneten Mengen sein?

2. Sei V die geordnete Menge der Unterraume von V . Sei X,Y ¤ V . Gibt es eine kleinste obereund eine großte untere Schranke von tX,Y u? Was ist, wenn wir tX,Y u durch eine (un-)endlicheKollektion von Unterraumen ersetzen?

3. Sei X ¤ V . Was ist wohl mit dem Kegel gemeint, der X als untere (obere) Spitze hat? (”Kegel uber

bzw. unter X“).

4. Was besagt obiger Satz uber den Kegel uber ker f und dem Verband der Unterraume von im f?

Der zweite und der dritte Isomorphiesatz sind Anwendungen des ersten:

10.1-7 Satz p2. Isomorphiesatzq: Seien U,W ¤ V , dann istpU W qU W pU XW q.131

10.1-8 Bemerkung: Wenn man sich den zweiten Isomorphiesatz nicht merken kann, dann hilft dasfolgende Diagram weiter, das einen Teil des Untermodulverbands von V darstellt:

V

U WU W

U XWp0q

@@

@

@@

@

Man muss nun an parallelen Seiten der Raute die entsprechenden Faktorraume bilden, diese sind dannisomorph, also pU W qU W pU XW q und pU W qW UpU XW q.10.1-9 Problem: Sei f : V Ñ W ein Epimorphismus, und sei C ein Komplement von ker f in V .Zeigen Sie mit Hilfe des 2. Isomorphiesatzes, dass W C ist.

Hier ist nun der 3. Isomorphiesatz:

10.1-10 Satz p3. Isomorphiesatzq: Sei U ¤W ¤ V . Dann ist W U ¤ V U und es gilt:pV UqMpW Uq V W.Hier ist eine Folgerung aus dem 1. Isomorphiesatz, die wir spater noch brauchen werden.

10.1-11 Satz: Sei f : V Ñ W ein Homomorphismus, und sei U ¤ V der Kern von f . Sei U 1 einKomplement von U in V . So ist V U`U 1. Dann ist die Einschrankung von f auf U 1 ein Isomorphismusvon U 1 auf im f . Ist insbesondere

A pv1, . . . , vk, vk1, . . . , vnqeine Basis von V , sodass pv1, . . . , vkq eine Basis von U 1 und pvk1, . . . , vnq eine solche von U ist, so istpfpv1q, . . . , fpvkqq eine Basis des Bildes von f .

10.2 Mehr uber Korper

In den Ubungen haben wir bereits gesehen, dass der Ring Zpnq fur n 2 und n 3 ein Korper ist,wahrend er fur n 6 keinen Korper bildet. Dies wollen wir nun genauer untersuchen.

132

10.2-1 Lemma: Seien p und q zwei positive ganze Zahlen und d P N ihr großter gemeinsamer Teiler.Dann gibt es a, b P Z, sodass

ap bq d

ist.

10.2-2 Satz: Zpnq ist ein Korper genau dann, wenn n eine Primzahl ist.

10.2-3 Problem: Berechnen Sie das Matrizenprodukt1 4 2 30 1 4 22 3 1 0

2 10 23 44 4

ÆÆ wobei die Eintrage aus Zp5q sind.

10.2-4 Problem:

1. Sei K Zppq Korper und n P N0, x, y P K. Zeigen Sie, dass der binomische Lehrsatz gilt:px yqn n

k0

n

k

xnkyk,

wobeink

n!k!pnkq! ist.

2. Sei p eine Primzahl und K Zppq. Zeigen Sie, dass die Abbildung K Ñ K : x ÞÑ xp xx xein Ringhomomorphismus ist. Gilt das auch fur K Q?

10.2-5 Problem: Bestimmen Sie die Machtigkeit der GLnppq GLnpZppqq.Insgesamt erhalt man so, dass |GLnppq| pqn 1qpqn qqpqn q2q pqn qn1q ist.

10.2-6 Definition: Sei K ein Korper. Eine Teilmenge F K heißt Unterkorper von K, wenn F mitder Addition und Multiplikation von K (eingeschrankt auf F ) wieder einen Korper bildet.

10.2-7 Bemerkung: Sei F K ein Unterkorper. Dann ist 1F 1K : Es gilt 1F 1F 1F 1F 1K .

Multipliziert man diese Gleichung mit dem Inversen von 1F , so erhalt man 1F 1K . Ahnlich gilt 0K 0F .

10.2-8 Lemma: Sei K ein Korper. Dann besitzt K einen kleinsten Unterkorper, in dem Sinn, dassjeder Unterkorper diesen kleinsten Unterkorper enthalt.

10.2-9 Definition: Sei K ein Korper. Den kleinsten Unterkorper von K nennt man Primkorper von K.

10.2-10 Lemma: Die Korper Q und Zppq (mit p prim) besitzen keine echten Unterkorper und sinddaher ihre eigenen Primkorper.

Wie wir sehen werden, sind dies auch die einzigen Primkorper, die vorkommen konnen, naturlich bis aufIsomorphie.

133

10.2-11 Definition: Sei K ein Korper. Die Charakteristik charpKq von K ist definiert als:

• charpKq p, falls p die kleinste naturliche Zahl ist mit 1K 1K . . . 1Kloooooooooomoooooooooonpmal

0K .

• charpKq 0, falls es keine solche Zahl gibt, d. h. falls 1K 1K . . . 1Kloooooooooomoooooooooonnmal

0K ist fur alle n P N.

10.2-12 Problem: Sei K ein Korper der Charakteristik p ¡ 0. Zeigen Sie, dass p eine Primzahl ist.

10.2-13 Satz: Sei K ein Korper.

1. Ist charpKq 0, dann ist der Primkorper von K isomorph zu P Q.

2. Ist charpKq p ¡ 0, dann ist der Primkorper von K isomorph zu P Zppq.10.2-14 Problem: Sei K ein endlicher Korper. Zeigen Sie, dass es eine Primzahl p und ein n P N gibtmit |K| pn.

134

Kapitel 11

Anwendungen

11.1 Lineare Gleichungssysteme

11.1.1 Praktisches

Wir wollen nun kurz eine Klasse von Anwendungen diskutieren: Sogenannte Netzwerkprobleme. Man hateine Netzwerk von Leitern gegeben, durch die etwas fließt. Das kann z. B. ein System von Abwasserkanalen,von Straßen oder ein Stromnetz sein. Im System hat man Verzweigungspunkte, in die das Mediumentweder hinein- oder hinausfließt. Die Idee ist nun, dass die Menge, die in das System pro Zeiteinheitinsgesamt hineinfließt (die Flussgeschwindigkeit des Mediums), gleich der Menge sein muss, die es proZeiteinheit verlasst, und dass derselbe Sachverhalt fur jeden Verzweigungspunkt gilt. Dies ergibt einlineares Gleichungssystem, das die Mengen des Mediums in den einzelnen Leitungen miteinander inBeziehung setzt. Am besten kann man das durch ein Beispiel veranschaulichen:

11.1-1 Beispiel: Das Diagramm unten soll ein System von Einbahnstraßen schematisch darstellen.Wir nehmen an, dass 500 Fahrzeuge pro Stunde in die Kreuzung A hineinfahren und dass 400 bzw. 100Fahrzeuge pro Stunde das System an Kreuzungen B und C wieder verlassen. Wir wollen die moglicheVerkehrsdichte in den einzelnen Straßen bestimmen.Der Verkehrsfluß in den Straßen sei gegeben als f1, f2, . . . , f6 Fahrzeuge pro Stunde in die Richtungen,die durch die Pfeile gegeben sind. Wir erhalten Gleichungen, indem wir an jeder Kreuzung den zu- undabfließenden Verkehr gleichsetzen:

Kreuzung A: 500 f1 f2 f3Kreuzung B: f1 f4 f6 400Kreuzung C: f3 f5 f6 100Kreuzung D: f2 f4 f5.

Wir erhalten vier lineare Gleichungen fur die Großen f1, . . . , f6 mit folgender augmentierter Koeffizien-tenmatrix: 1 1 1 0 0 0 500

1 0 0 1 0 1 4000 0 1 0 1 1 1000 1 0 1 1 0 0

ÆÆ 135

D

f4

A B

500 400

f1

f2

f3

f5

f6

C

100

und daraus durch Zeilenunformungen 1 0 0 1 0 1 4000 1 0 1 1 0 00 0 1 0 1 1 1000 0 0 0 0 0 0

ÆÆ .Die Losungsmenge L ist also die Menge der Vektoren der Form 400

0100

000

ÆÆÆÆÆÆ λ 110100

ÆÆÆÆÆÆ µ 011010

ÆÆÆÆÆÆ ρ 101001

ÆÆÆÆÆÆ mit Skalaren λ, µ, ρ P R.Man kann L auch durch die Gleichungen

f1 400 f4 f6,f2 f4 f5,f3 100 f5 f6

ausdrucken, wobei die Parameter f4, f5, f6 frei wahlbar sind. Naturlich kommen nicht alle Losungenwirklich vor: z. B. sollten die Zahlen f1, . . . , f6 alle nichtnegativ sein (sollte ein Parameter negativ sein,wie konnte man das interpretieren?), d. h. man hat Einschrankungen fur die Werte der Parameter, dieweitere Einschrankungen fur die ubrigen Parameter implizieren konnen. So impliziert f1, f3 ¥ 0 sofort,dass f4 f6 ¤ 400 und f5 f6 ¤ 100 sein muss.

136

In ihrer allgemeinsten Form werden solche linearen Gleichungssysteme mit zusatzlichen Einschrankungenspater (in der Numerik) in Form von Optimierungsproblemen mit dem sogenannten Simplex-Algorithmusbehandelt.

11.1-2 Problem:

1. Die folgenden Netzwerke (Abflusskanale, Straßen,...) seien gegeben. Berechnen Sie die moglichenFlussgeschwindigkeiten.

40

50

60

50

f1 f2

f3

f5

f4

60

40

f1 f2

25

50

75f3 f4

f6 f7

f5

A

B

C

D

55

20

15

20

f1

f2

f3

f4f5

2. Das untere Netzwerk ist ein Einbahnstraßennetz. Die Straße BC wird wegen Bauarbeiten geschlos-sen. Wieviel Autos pro Stunde muss die Straße AD mindestens bewaltigen um zu verhindern, dassirgendwo im Netz mehr als 30 Fahrzeuge pro Stunde passieren?

Jetzt wollen wir elektrische Netzwerke untersuchen. Wir benotigen zwei physikalische Gesetze:

11.1-3 Gesetz:

137

1. (Das Ohmsche Gesetz) Sei ein elektrische Widerstand der Starke R gegeben. Dann verhalten sichdie Spannung V und die Stromstarke I am Widerstand wie folgt:

V IR.

2. (Kirchhoffs Verzweigungsregel) Die Summen der Stromstarken der in einem Verzweigungspunkt desStromkreises zu- und abfließenden Strome sind gleich.

3. (Kirchhoffs Stromkreisregel) In einem geschlossenen Stromkreis ist die Summe der angelegten Span-nungen gleich der Summe der an den Widerstanden abfallenden Spannungen.

11.1-4 Beispiel: Wir wollen die Stromstarken im folgenden verzweigten Stromkreis ausrechnen:

A

B

C

D

10 Ω

20 V5 V

10 V

20 Ω

5 Ω

10 V

5 ΩI1

I2

I4I6

I5

I3

Wir wenden zunachst die Verzweigungsregel auf die Verzweigungspunkte A, B, C und D an:

Verzweigung A: I1 I2 I3Verzweigung B: I6 I1 I5Verzweigung C: I2 I4 I6Verzweigung D: I3 I5 I4

(Beachten Sie, dass die dritte Gleichung aus den anderen dreien folgt.)Nun wenden wir die Stromkreisregel und das Ohmsche Gesetz auf die drei geschlossenen Stromkreise desNetzes an:

Oben links: 10 5 20I1Oben rechts: 5 20 10I3 5I4

Unten: 105I5 5I4.

Dies sind 7 Gleichungen fur die 6 Unbestimmten I1, . . . , I6 (aber eine davon ist ja uberflussig, wie wirgesehen haben). Daraus errechnet man leicht

I1 1520, I2 1

20, I3 16

20,

I4 2820, I5 12

20, I6 27

20.

138

11.1.2 Okonomisches

Zu guter Letzt haben wir hier noch eine Anwendung fur die Wirtschaftswissenschaftler. Der Wirtschafts-wissenschaftler Wassily Leontief gewann im Jahr 1973 den Nobelpreis fur seine grundlegenden Arbeiten,in denen er mathematische Modelle fur verschiedene okonomische Phanomene entwickelt hat. Hier sindzwei Spezialfalle seiner Arbeiten:Wir betrachten eine einfache Gesellschaft, die aus genau drei Individuen besteht: Einer Bauerin (B), diealle Nahrungsmittel herstellt, einem Schneider (S), der fur die Kleidung sorgt, und einer Bauingenieurin(I), die alle Hauser baut. Alles, was produziert wird, wird auch konsumiert. Von außen kommt nichts indas System, wir haben es mit einem geschlossenen Modell zu tun. Hier ist eine Tabelle, welchen Anteilder produzierten Guter jede Person konsumiert:

Essen Kleiden Wohnen

B 0,4 0,2 0,2S 0,1 0,7 0,2I 0,5 0,1 0,6

Wir befinden uns in einer primitiven Tauschgesellschaft (Geld ist ja nur ein Aquivalent fur Warenwertund kein Wert an sich). Jede Person tauscht alles, was sie nicht konsumiert, ein. Seien p1, p2 und p3 dieGesamtwaren die B bzw. S bzw. I herstellen, d. h. mit denen sie Handel treiben konnen (gegeben jeweilsals Anteil an der Gesamtproduktion).Dann bedeutet das etwa fur die Bauerin, dass sie 0, 40p1 selbst konsumiert, und fur den Rest ihresEinkommens p1 die Waren 0, 20p2 von S und 0, 2p3 von I eintauscht, also:

0, 4p1 0, 2p2 0, 2p3 p1.

Fur die anderen gelten analoge Gleichungen, d.h. wir erhalten ein Gleichungssystem:

0, 4p1 0, 2p2 0, 2p3 p1

0, 1p1 0, 7p2 0, 2p3 p2

0, 5p1 0, 1p2 0, 6p3 p3

oder aquivalent dazu

AP P mit P p1

p2

p3

und A 0, 4 0, 2 0, 20, 1 0, 7 0, 20, 5 0, 1 0, 6

,wobei A die Koeffizientenmatrix des Systems ist. Sie heißt Input-Output- oder auch Konsumptionsmatrix .Die Gleichung AP P wird Equilibrium Bedingung genannt.Fur Matrizen B pβjiq und C pγjiq gleicher Große schreiben wir B ¥ C, falls βji ¥ γji ist fur alleIndizes i und j. Wir definieren B ¡ C analog. B heißt nichtnegativ , falls B ¥ 0 ist, wobei 0 hier dieNullmatrix derselben Große wie B bedeutet.

11.1-5 Problem: Zeigen Sie, dass im geschlossenen Modell AP ¤ P , (d.h. die Konsumption eineseinzelnen kann seine Produktion nicht ubersteigen) automatisch AP P zur Folge hat. Hint: Die Spal-tensummen von A sind 1.

Man kann die Gleichung AP P nun in das homogene System pAEqP O uberfuhren und losen:

P 0, 250, 350, 40

.Beachten Sie, dass wir nur an nichttrivialen nichtnegativen Losungen interessiert sind. Hier ist ein Satz,der ein nutzliches Kriterium fur die Existenz solcher Losungen bereitstellt:

139

11.1-6 Satz: Sei A eine n n Input-Output Matrix der Form

A B C

D E

,

wobei D eine positive 1pn1q und C eine positive pn1q1-Matrix ist. Dann ist die Losungsgesamtheitdes homogenen Gleichungssystems pE AqX 0

eindimensional und wird von einem nichtnegativen Vektor erzeugt.

Ein Beweis dieses Satzes kann in dem Artikel”Applications of Matrices to Economic Models and Social

Science Relationships“ von Ben Noble gefunden werden, der in”Proceedings of the Summer Conference

for College Teachers on Applied Mathematics,“ 1971, CUPM, Berkeley erschienen ist.Naturlich erfullt jede positive Input-Output Matrix die Bedingung des Satzes.Im offenen Modell nehmen wir nun an, dass auch eine Nachfrage nach Gutern von außen besteht: Soseien in unserem Modell nun x1, x2, x3 die Werte der produzierten Nahrungsmittel, Kleider und Hauserund sei durch d1, d2, d3 die Nachfrage nach den jeweiligen Gutern von außen gegeben. Wieder soll alles,was produziert wird, auch konsumiert bzw. exportiert werden, und daraus resultiert dann eine ahnlicheEquilibrium Bedingung fur das offene Modell: Der Uberschuss fur jedes einzelne Gut muss der Nachfragevon außen gleich sein, d. h.:

xi 3

j1

Aijxj di fur i 1, 2, 3

oder in Matrizenform pE AqX D mit D d1

d2

d3

.Wir suchen eine nichtnegative Losung dieses inhomogenen Systems.Beachten Sie, dass A und D nichtnegative Eintrage haben, und dass die Spaltensummen von A den Wert1 nicht ubersteigen. Es ist klar, dass eine Losung des System existiert und nichtnegativ ist, falls pE Aqinvertierbar und die Inverse nichtnegativ ist. Die Losung ist dann durch pE Aq1D gegeben.Erinnern Sie sich? Ist a P R, |a| 1, dann konvergiert ak fur k Ñ8 gegen null und die Reihe 1aa2 gegen p1 aq1. Wie wir spater sehen werden, kann man ahnliches fur Matrizen beweisen: Konvergieren

alle Eintrage von Ak pαpkqji q gegen 0 (d.h. limkÑ8 αpkqji 0 j, i), so konvergiert die Reihe EAA2 gegen pE Aq1. Da die Matrizen in der Reihe alle nichtnegativ sind, gilt dies auch fur den GrenzwertpE Aq1.

11.1-7 Beispiel: Wir nehmen an, dass die Bauerin 30 Ct Nahrungsmittel, 20 Ct Kleidung und 30 CtWohngeld braucht, um 1e Nahrung zu produzieren. Dies ergibt unsere erste Zeile der Matrix A. Dieanderen ergeben sich analog:

A 0, 3 0, 2 0, 30, 1 0, 4 0, 10, 3 0, 2 0, 3

und daher haben wir: pE Aq 0, 7 0, 2 0, 30, 1 0, 6 0, 10, 3 0, 2 0, 7

140

und pE Aq1 2, 0 1, 0 1, 00, 5 2, 0 0, 51, 0 1, 0 2, 0

.Nun nehmen wir an, die Nachfrage sei fur 30 TeNahrungsmittel, 20 Te Kleider und 10 Te Hauser. So

D 302010

und X pE Aq1D 906070

.So mussen fur 90 Te Nahrung, fur 60 Te Kleidung und fur 70 Te Hauser produziert werden, um dieNachfrage zu befriedigen.

11.2 Differenzialgleichungen

Wir machen nun einen Einschub, um eine wichtige Anwendung dessen, was wir bisher gelernt haben, zuuntersuchen. Wir beginnen mit dem folgenden physikalischen Problem:Ein (punktformiges) Gewicht der Masse m ist an einer Feder aufgehangt. Diese wird durch das Gewichtgedehnt bis der Gleichgewichtszustand erreicht ist. Fur den Moment ist das System im Ruhezustand. Wirfuhren ein x-y-Koordinatensystem ein, wobei wir als Ursprung den Ruhepunkt des Gewichtes wahlen, diey-Achse zeigt nach oben, die x-Achse nach rechts, und die Feder ist irgendwo oberhalb des Ursprungs aufder y-Achse aufgehangt. Nun, zur Zeit t 0, ziehen wir das Gewicht um die Wegstrecke s nach untenund lassen los: Die Feder fangt an zu schwingen. Wir wollen nun den Weg, den das Gewicht zurucklegt,als Funktion der Zeit darstellen.Das Gewicht bewegt sich lediglich auf der y-Achse auf und ab, daher wird dieser Weg vollstandig durchdie y-Koordinate des Massenpunktes beschrieben, und diese andert sich in der Zeit t:

y yptq.Unsere Bedingung, dass wir anfangs das Gewicht um die Wegstrecke s herunterziehen, kann man nundurch

yp0q sausdrucken. Diese Bedingung heißt daher Anfangsbedingung. Wir wollen nun die Funktion yptq bestimmen.Hier ist der Losungsweg fur obiges Problem: Wir brauchen erst einige physikalischer Ingredienzien:

1. Die Losungsfunktion ist beliebig oft differenzierbar. (Wie wir sehen werden, ist dies automatischerfullt).

2. Newton’s zweites Gesetz: Die Beschleunigung (= die 2. Ableitung y2ptq des Weges nach der Zeit)ist proportional zur ausgeubten Kraft F ptq, wobei der Proportionalitatsfaktor reziprok zur Masseist:

F ptq my2ptq.3. Die Kraft, die auf das Gewicht ausgeubt wird, ist proportional zur Entfernung des Gewichtes vom

Gleichgewichtszustand, d.h. hier vom Ursprung, (Hooke’s law):

F ptq kyptq,wobei k eine Geratekonstante ist.

141

Jetzt kommt Mathematik ins Spiel: Aus den beiden obigen Gleichungen folgt

my2 ky bzw. y2 k

my 0.

Diese Gleichungen bilden ein Beispiel fur eine sogenannte Differenzialgleichung, (”DGL“). Darunter ver-

stehen wir eine Gleichung fur eine Funktion y yptq, die y, t und die Ableitungen von y involviert.Eine Losung der DGL ist eine Funktion yptq, die diese Gleichung erfullt. Wir sprechen von einer linearenDifferenzialgleichung (n-ter Ordnung), falls sie von folgender Form ist:

anypnq an1y

pn1q a1yp1q a0y f,

wobei ypiq die i-te Ableitung (nach t) der Funktion y yptq bezeichnet, und die Koeffizienten ai und f

Funktionen (von t) sind (i 1, . . . , n). Dabei setzen wir immer voraus, dass an nicht die Nullfunktionist. Ist f die Nullfunktion, so heißt die DGL homogen. Wir wollen in diesem Abschnitt lineare homogeneDGL mit konstanten Koeffizienten mit Hilfe der linearen Algebra untersuchen (d. h. ai ist konstant).Da nach Voraussetzung an nicht Null ist, kann man durch den Leitkoeffizienten dividieren, d. h. unsereGleichung erhalt die Form:

ypnq bn1ypn1q b1yp1q b0y 0.

11.2-1 Beispiel: Die Funktion

yptq sin

k

mt

ist eine Losung von

y2 k

my 0,

die Funktion yptq t ist es nicht.

Aus Grunden, die spater ersichtlich werden, betrachten wir komplexwertige Funktionen, d. h. Funktionenvon R nach C. Solch eine Funktion

x : R Ñ C : t ÞÑ xptqlasst sich immer in Real- und Imaginarteil zerlegen:

xptq x1ptq ix2ptq fur t P R,

wobei x1 und x2 gewohnliche reelle Funktionen sind. In der Tat ist x1ptq der Realteil und x2ptq derImaginarteil von xptq.11.2-2 Lemma: Die Menge FpR,Cq der komplexwertigen Funktionen auf R ist ein komplexer Vektor-raum.

11.2-3 Definition: Sei x eine Funktion in FpR,Cq mit Realteil x1 und Imaginarteil x2. Wir sagen x

ist differenzierbar , wenn x1 und x2 differenzierbar sind, und wir definieren die Ableitung x1 von x als

x1ptq x11ptq ix12ptq fur alle t P R.

11.2-4 Problem: Sei xptq 2 sin 2t ip2 cos 2tq. Was sind Real- und Imaginarteil von x2?

142

11.2-5 Satz: Jede Losung einer linearen homogenen DGL mit konstanten Koeffizienten ist unendlichoft differenzierbar.

11.2-6 Definition: Die Menge der unendlich oft differenzierbaren komplexwertigen reellen Funktionenwird mit C8 bezeichnet.

Naturlich ist C8 ein Unterraum des komplexen Vektorraums FpR,Cq und daher insbesondere selbst einkomplexer Vektorraum. Beachte auch, dass mit x auch die Ableitung x1 von x und damit alle hoherenAbleitungen von x in C8 liegen. Daher haben wir:

11.2-7 Satz: Die Ableitung

D : C8 Ñ C8 : x ÞÑ x1ist ein Endomorphismus von C8.

Allgemeiner schauen wir uns Polynome in D an:

11.2-8 Definition: Sei

pptq antn an1t

n1 a1t a0 P Crts.Dann setzen wir

ppDq anDn an1D

n1 a1D a0.

Beachten Sie, dass Di

”die i-te Ableitung nehmen“ bedeutet, und dies ist dasselbe wie die i-fache Kom-

position des Endomorphismus D mit sich selbst.

11.2-9 Definition/Satz: Sei pptq P Crts. Die Abbildung ppDq : C8 Ñ C8 wird Differenzialoperatorfur pptq P Crts genannt. ppDq ist eine lineare Transformation.

Die Differenzialgleichungypnq bn1y

pn1q b1yp1q b0y 0

lasst sich nun umschreiben inppDqpyq 0,

wobei das Polynom pptq durch

pptq tn bn1tn1 b1t b0

gegeben ist. Dieses Polynom wird auch das zu obiger DGL assoziierte Polynom genannt.Die Aufgabe, eine homogene lineare DGL zu losen, lasst sich jetzt so formulieren:

11.2-10 Satz: Die Losungsgesamtheit einer homogenen linearen Differenzialgleichung mit konstantenKoeffizienten ist der Kern des Endomorphismus ppDq, wobei pptq P Crts das assoziierte Polynom ist.

Insbesondere ist also diese Losungsgesamtheit ein Unterraum von C8 und wird daher Losungsraum zurgegebenen homogenen DGL genannt.Als nachstes dehnen wir die Exponentialfunktion ins Komplexe aus. Fur t a ib P C, a, b P R setzenwir

et eaib eapcos b i sin bq.143

11.2-11 Problem: Zeigen Sie, dass fur s, t P C gilt:

ets etes undet1 et.

11.2-12 Satz: Sei c P C und sei fptq die Exponentialfunktion fptq ect. Dann ist f 1ptq cect.

Gegeben sei eine homogene lineare DGL G mit konstanten Koeffizienten und assoziiertem Polynom pptq.Die Ordnung der DGL ist naturlich gerade der Grad von pptq. Wir werden nun zeigen, dass der Losungs-raum von G endlichdimensional ist. So genugt es, endlich viele spezielle Losungen von G zu finden,namlich die einer Basis von ker ppDq, um einen Uberblick uber alle Losungen zu erhalten. Wir beginnenmit dem Spezialfall, dass G von der Ordnung 1 ist, d. h.:

G : y1 a0y 0, pptq t a0.

11.2-13 Satz: Der Losungsraum der homogenen DGL G erster Ordnung mit konstanten Koeffizientenist eindimensional mit Basisvektor

yptq ea0t,

wobei a0 der konstante Term des assoziierten Polynoms ist.

11.2-14 Korollar: Sei c P C. Dann ist pectq Basis des Kerns des Differenzialoperators D c.Sei nun

G : ypnq an1ypn1q a1y

p1q a0y 0

eine homogene lineare DGL der Ordnung n mit konstanten Koeffizienten. Nach Korollar 8.2-19 zerfalltdas assoziierte Polynom uber C in Linearfaktoren

pptq pt c1qpt c2q pt cnq,wobei c1, c2, . . . , cn (nicht notwendigerweise verschiedene) komplexe Zahlen sind. So ist

ppDq pD c1qpD c2q pD cnq.Wir brauchen nun einen Hilfssatz:

11.2-15 Lemma: Seien T1, T2, . . . , Tn Endomorphismen eines Vektorraums V , die paarweise kommu-tieren, d. h. TiTj TjTi fur alle 1 ¤ i, j ¤ n. Dann gilt fur i 1, . . . , n

kerTi kerpT1 T2 Tnq .Die OperatorenDci kommutieren paarweise, denn es ist pDciqpDcjq DDciDcjDcicj pD cjq pD ciq. Daher haben wir:

11.2-16 Korollar: Der Losungsraum kerpppDqq von G enthalt kerpD ciq fur alle i 1, . . . , n.

Nun ergibt sich sofort:

11.2-17 Korollar: Sei c Nullstelle des mit G assoziierten Polynoms p. Dann ist die Funktion ect eineLosung der DGL.

144

11.2-18 Beispiel: Sei

G : y2 3y1 2y 0.

Das assoziierte Polynom ist pptq t2 3t 2 und faktorisiert

pptq pt 1qpt 2q.Daher sind et und e2t Losungen und daher auch alle Funktionen in ihrem Aufspann tc1et c2e2t | c1, c2 PCu.Wir werden nun zeigen, dass der Losungsraum von G immer n-dimensional ist. Dazu brauchen wir einigeHilfssatze.

11.2-19 Lemma: Sei c P C. Dann ist pD cq : C8 Ñ C8surjektiv.

11.2-20 Lemma: Seien f, g Endomorphismen eines Vektorraums V . Sei g surjektiv und seien dieKerne beider Endomorphismen endlichdimensional. Dann ist

dimKpkerpf gqq dimKpker fq dimKpker gq.11.2-21 Satz: Sei G eine lineare homogene DGL der Ordnung n mit konstanten Koeffizienten. Dannist der Losungsraum von G von der Dimension n.

11.2-22 Lemma: Seien c1, c2, . . . , cn paarweise verschiedene komplexe Zahlen. Dann isttec1t, ec2t, . . . , ecntueine linear unabhangige Teilmenge des C8.

11.2-23 Satz: Sei G eine linear homogene DGL mit konstanten Koeffizienten der Ordnung n undassoziiertem Polynom

pptq pt c1qpt c2q pt cnq,und seien die Nullstellen c1, c2, . . . , cn paarweise verschieden. Dann ist

B pec1t, ec2t, . . . , ecntqeine Basis des Losungsraumes von G.

11.2-24 Problem: Bestimmen Sie die Losungen der Differenzialgleichungen y2 5y1 4y 0 undy2 9y 0.

11.2-25 Satz: Sei c P C. Dann ist

B pect, tect, t2ect, . . . , tn1ectqeine Basis des Losungsraumes des Differenzialoperators pD cqn.

145

11.2-26 Beispiel: Bestimmen wir alle Losungen der DGL

G : yp4q 4yp3q 6yp2q 4yp1q y 0.

Das assoziierte Polynom ist

pptq t4 4t3 6t2 4t 1 pt 1q4,also ist die Losungsgesamtheit von G gegeben alstb1et b2tet b3t2et b4t3et | b1, b2, b3, b4 P Cu.11.2-27 Satz: Sei G eine lineare homogene DGL mit konstanten Koeffizienten und assoziiertem Poly-nom

pptq pt c1qn1pt c2qn2 pt ckqnk

fur paarweise verschiedene komplexe Zahlen c1, c2, . . . , ck. Dann ist

B k¤i1

Bi mit Bi pecit, tecit, . . . , tni1ecitqeine Basis des Losungraumes von G.

11.2-28 Beispiel: Gegeben sei die DGL

G : yp3q 4yp2q 5yp1q 2y 0.

Wir wollen eine Basis B des Losungsraumes. Das assoziierte Polynom ist

pptq t3 4t2 5t 2 pt 1q2pt 2qund daher ist B tet, tet, e2tu und jede Losung von G lasst sich als

yptq b1et b2tet b3e2t

mit Skalaren b1, b2, b3 darstellen.

11.3 Differenzialgleichungssysteme

In diesem kurzen Abschnitt wollen wir das bisher Gelernte auf Systeme von Differenzialgleichungen an-wenden. Wir lernen das Verfahren, indem wir ein Beispiel durcharbeiten.Vorgelegt sei etwa das folgende lineare System:

D :

$&% x11 3x1 x2 x3

x12 2x1 4x2 2x3

x13 x1 x2 x3

Hierbei sind die xi fur i 1, 2, 3 reelle differenzierbare Funktionen xi xiptq einer Variablen t und x1iptqbezeichne die Ableitung. Eine triviale Losung ist naturlich xiptq 0 fur alle i. Wir sind an nichttrivialenLosungen interessiert.

146

Hier ist eine Umformulierung des Problems: Wir definieren die Funktion X als

X : R Ñ R3 : t ÞÑ x1ptqx2ptqx3ptq .

Die Ableitung von X ist die Funktion X 1 mit

X 1ptq x11ptqx12ptqx13ptq .

Wir setzen

A 3 1 12 4 21 1 1

.Dann suchen wir nichttriviale (und moglichst alle) Losungen der Gleichung

X 1 AX.

Man rechnet nun leicht nach, dass A diagonalisierbar ist:Setzt man

Q 1 0 10 1 21 1 1

,dann ist

Q1AQ D 2 0 00 2 00 0 4

diag t2, 2, 4u ,und daher ist

A QDQ1.

Das setzen wir in die Gleichung X 1 AX ein und finden:

X 1 QDQ1X bzw. Q1X 1 DQ1X.

Wir setzenY : R Ñ R3 : t ÞÑ Q1Xptq,

d. h. Y ist die Komposition von X mit der linearen Abbildung von R3 nach R3, die durch Multiplikationmit der Matrix Q1 gegeben ist.

11.3-1 Problem: Zeigen Sie, dass Y eine differenzierbare Funktion mit Ableitung

Y 1ptq Q1X 1ptqist.

Damit haben wir unser System D in die Gleichung

Y 1 DY

uberfuhrt.

147

Das ist gerade y11ptqy12ptqy13ptq 2 0 0

0 2 00 0 4

y1ptqy2ptqy3ptq 2y1ptq

2y2ptq4y3ptq mit

Y ptq y1ptqy2ptqy3ptq ,

und wir haben die drei unabhangigen Differenzialgleichungen erster Ordnung

y11ptq 2y1ptqy12ptq 2y2ptqy13ptq 4y3ptq,

die wir mit Hilfe der in 4.7 entwickelten Theorie simultan losen konnen. Nach Satz 11.2-13 erhalt man dieallgemeine Losung als y1ptq α1e

2t, y2ptq α2e2t und y3ptq α3e

4t mit beliebigen Skalaren α1, α2, α3.Nun erhalten wir die Losung des ursprunglichen Systems als:x1ptq

x2ptqx3ptq Xptq QY ptq 1 0 1

0 1 21 1 1

α1e2t

α2e2t

α3e4t

das heißt

Xptq α1e2t α3e

4t

α2e2t 2α3e

4tα1e2t α2e

2t α3e4t

.Damit ergibt sich:

Xptq e2t

α1

101

α2

011

e4t

α3

121

.Die Ausdrucke in den eckigen Klammern sind aber schlicht und einfach genau die Elemente zu denEigenraumen V2 zum Eigenwert 2 bzw. V4 zum Eigenwert 4, und man kann daher die Losungsgesamtheitvon D beschreiben als:

Xptq P te2tz2 e4tz4 | z2 P V2, z4 P V4u.Allgemein gilt:

11.3-2 Satz: Sei A eine reelle diagonalisierbare n n-Matrix und B pv1, v2, . . . , vnq eine Basis desRn, bestehend aus Eigenvektoren von A zum jeweiligen Eigenwert λi. Dann ist die Losungsgesamtheitdes (reellen) Differenzialgleichungssystems X 1 AX gegeben durch#

n

i1

αieλitvi | αi P R

+.

148

Kapitel 12

Etwas Multilineare Algebra

Erinnern wir uns: In Definition 7.1-3 wurden Determinanten eingefuhrt. Dabei definierten wir die De-terminante einer quadratischen Matrix A pαijq P MnnpKq uber einem Korper K als einen Rechen-ausdruck in ihren Eintragen αij :

detA detpαijq ∣

α11 . . . α1n

.... . .

...αn1 . . . αnn

¸πPSn

psignπq α1πp1q, . . . , αnπpnq .Dann zeigten wir einige Eigenschaften der Determinante wie Satz 7.2-5 (detAB detAdetB), dieBeweise waren allerdings sehr umstandlich und technisch.Ein wesentliches Ziel dieses Kapitels ist, eine nicht auf einer Formel beruhende Definition fur Determi-nanten zu finden, die erklart, was sie eigentlich sind, und aus der Satz 7.2-5 unmittelbar folgt. Dies ist einGesichtspunkt fur dieses Kapitel unter anderen. Das hier entwickelte Material hat aber daruber hinausfur viele Anwendungen Bedeutung.

12.1 Der Dualraum

Im folgenden sei K ein Korper, V , U , usw. seien endliche K-Vektorraume, wenn es nicht anders voraus-gesetzt wird.

12.1-1 Problem: Sei W HomKpV, Uq. Was ist dimK W? Wie konstruiert man eine Basis?

12.1-2 Erinnerung: W HomKpV, Uq wird zum K-Vektorraum durchpf gqpvq fpvq gpvq und pαfqpvq αpfpvqqfur α P K, f, g PW und v P V .

12.1-3 Definition: Der K-Vektorraum HomKpV,Kq wird mit V bezeichnet. V wird der zu V dualeRaum genannt. Die Elemente von V heißen Linearformen.

149

12.1-4 Beispiel:

1. V tf : ra, bs Ñ R | f stetig u (mit a, b P R) ist R-Vektorraum. Die Funktion

Iba : V Ñ R : Ib

apfq b»a

fpxq dxist eine Linearform.

2. V tf : r0, 2πs Ñ C | f stetig u ist C-Vektorraum. Sei n P Z. Dann ist

hnpfq 1

2π»0

fptqeint dt

eine Linearform auf V , der n-te Fourierkoeffizient von f .

3. Die Abbildungtr : MnnpKq Ñ K : A ÞÑ trpAq

mit trpαijq n°i1

αii ist eine Linearform.

12.1-5 Definition: Sei B tvi | i P Iu eine (nicht notwendigerweise endliche) Basis von V . Sei vi P V die Linearform gegeben durch

vi pvjq δij #1 P K fur i j

0 P K sonst

Man beachte, dass es nach Satz 5.1-11 genau eine Linearform vi mit dieser Eigenschaft gibt.

12.1-6 Problem: Sei x P V . Was ist vi pxq?12.1-7 Satz: Sei V endlich dimensional mit Basis B pv1, . . . , vnq. Die Linearformen vi seien wieoben definiert. Dann ist B pv1 , . . . , vnq eine Basis von V , die zu B duale Basis. Insbesondere sind Vund V isomorph, ein Isomorphismus ist gegeben durch vi ÞÑ vi (linear ausgedehnt).

12.1-8 Beobachtung: Die Voraussetzung”endlich dimensional“ ist wesentlich fur den Satz 12.1-7,

denn sonst ist die Summe°fpviqvi nicht definiert. Ist dimK V 8, so gilt immer dimK V ³ dimK V .

12.1-9 Problem: Sie V R2, E pe1, e2q die naturliche Basis von V , v1 p2, 1q, v2 p0, 1q und seiB pv1, v2q.

1. Sei f : V Ñ R : pα1, α2q ÞÑ 2α1 α2. Was sind die Komponenten von f bezuglich E, B?2. Was ist e2 p2, 0q und v2 p2, 0q?3. Nun ist aber e2 v2. Was schließen Sie daraus?

150

12.1-10 Bemerkung: Der in Satz 12.1-7 definierte Isomorphismus von V nach V : V Ñ V :n

i1

λivi ÞÑ n

i1

λivi v

hangt ganz wesentlich von der gewahlten Basis B pv1, . . . , vnq von V ab. Die Bezeichnung , d. h. v n°

i1

λivi ist daher irrefuhrend, wird aber doch beibehalten, wenn keine Missverstandnisse zu befurchten

sind. Immer, wenn die Bezeichnung”v“ fur eine Linearform auf V benutzt wird, meinen wir

n°i1

λivi

bzgl. einer festgewahlten Basis B pv1, . . . , vnq von V .

12.1-11 Problem: Sei B tvi | i P Iu eine Basis von V , wobei die (geordnete) Indexmenge I unendlichist. B tvi | i P Iu V sei wie in 12.1-5 definiert.

1. Bestimmen Sie eine Linearform von V , die nicht in xBy ist.

2. Was ist xBy ?

Von nun an sei, wenn nicht anders bemerkt, V ein endlich dimensionaler K-Vektorraum.

12.1-12 Definition/Lemma: Sei U ¤ V , dann ist

UK tf P V | fpUq p0quein Unterraum von V , das duale Komplement von U in V . Ist pv1, . . . , vnq eine Basis von V , sodasspv1, . . . , vkq eine Basis von U ist, dann ist pvk1, . . . , v

nq eine Basis von UK. Insbesondere gilt

dimK UK dimK V dimK U.

12.1-13 Satz: Sei v P V . Definiere

fv : V Ñ K durch fvpxq xpvq P K fur x P V .Dann ist fv K-lineare Abbildung, d. h. eine Linearform auf V und daher Element des Dualraums V pV q von V . Die Abbildung

E : V Ñ V : v ÞÑ fv

ist ein K-Isomorphismus.

12.1-14 Problem:

1. In 12.1-13 braucht man die Voraussetzung dimK V 8. Warum? Was kann man sagen, wenndimK V 8 ist?

2. Hangt E : V Ñ V von einer Basiswahl ab?

151

12.1-15 Bemerkung:

1. Sei B pv1, . . . , vnq Basis von V und B pv1 , . . . , vnq die duale Basis. Ist f P V , dann ist

f n

i1

µivi ,

wobei die Koeffizienten µi durch die Formel

µi fpviqgegeben sind.

2. Wie wir gesehen haben, hangt der Isomorphismus E : V Ñ V nicht von B ab. Man spricht voneinem kanonischen oder naturlichen Isomorphismus.

12.1-16 Problem: Sei wieder ist V R2, e1 p1, 0q, e2 p0, 1q, v1 p2, 1q, v2 p0, 1q undE pe1, e2q, B pv1, v2q. Zeigen Sie, dass v2 e2 ist auf zwei Weisen:

1. direkt durch Dualisierung der Basen E pe1 , e2 q und B pv1 , v2 q.2. indem Sie zeigen, dass e2 fe2

und v2 fv2gilt.

Problem 12.1-16 legt den folgenden Satz nahe:

12.1-17 Satz: Sei V ein K-Vektorraum. Dann wird durch

E : V Ñ V : v ÞÑ fv (siehe Satz 12.1-13)

ein injektiver Homomorphismus von K-Vektorraumen definiert. Ist V endlich dimensional, B Basis vonV , B die zugehorige duale Basis von V , B die zugehorige doppelduale Basis von V und ist b P B,so ist b fb und wir bezeichnen E auch mit . : V Ñ V ist dann ein Isomorphismus.

So ist die Bezeichnung”“ fur obigen Isomorphismus berechtigt, d. h. egal welche Basis man wahlt,

x fx ist immer dieselbe Abbildung, im Gegensatz zu der Situation, wenn man nur einmal dualisiert.Wir haben schon mehrfach gesehen, dass man Abbildungen wieder zu Mengen zusammenfassen kann.Hier ist ein weiteres Beispiel einer solchen Vorgehensweise: Seien U ,V K-Vektorraume und f : V Ñ U

eine K-lineare Transformation.Ist h P U, d. h. ist h : U Ñ K eine K-lineare Abbildung, so ist h f eine K-lineare Abbildung von V

nach K, d. h. ein Element des Dualraums V von V .

V U

K

-f

@@

@Rfphqhf ?hPU

12.1-18 Satz: Sei f : V Ñ U ein K-Vektorraumhomomorphismus. Dann wird durch

f : U Ñ V : h ÞÑ fphq h f P V eine K-lineare Abbildung f definiert.Fur endlich dimensionale Vektorraume V und U gilt:

152

1. ker f pim fqK.

2. dimKpim fq dimKpim fq.3. f ist surjektiv f ist injektiv.

4. f ist injektiv f ist surjektiv.

5. Identifiziert man V mit V , so werden f und f ebenfalls identifiziert, d. h. das Diagramm

V U

V U-f

?

?

-f

kommutiert.

6. Ist ferner g : U ÑW K-linear, so gilt pg fq f g.Man sagt, : HomKpV, Uq Ñ HomKpU, V q ist

”kontravariant“ (dreht Pfeile um):

V U W

V U W-f -g

f g12.1-19 Satz: Sei f : V Ñ U K-linear. Sei B pv1, . . . , vnq Basis von V und C pu1, . . . , umq Basis

von U . Sei A Mf pC,Bq die Matrix von f bzgl. B und C. Dann istMfpB, Cq At.

12.2 Bilinearformen

Wir haben schon spezielle Bilinearformen kennengelernt, namlich Skalarprodukte. Hier ist zunachst dieDefinition.

12.2-1 Definition: Seien V und U K-Vektorraume. Eine Abbildung f : V U Ñ W von V U ineinen K-Vektorraum W heißt bilinear (genauer K-bilinear), falls gilt:

1. fpv1 v2, uq fpv1, uq fpv2, uq fur alle v1, v2 P V, u P U ,

2. fpv, u1 u2q fpv, u1q fpv, u2q fur alle v P V, u1, u2 P U und

3. fpλv, uq fpv, λuq λfpv, uq fur alle v P V, u P U, λ P K.

Oft betrachtet man Bilinearformen mit W K und entweder U V oder U V . Fur W K,U V

sprechen wir dann von einer Bilinearform auf V . Manchmal (siehe etwa Kapitel 9, unitare Raume) ersetztman 3. in Definition 12.2-1 durch die Bedingung

31. fpλv, uq fpv, λuq λfpv, uq fur alle v P V, u P U, λ P K,

wobei ¯ : K Ñ K ein Automorphismus von K mit λ λ fur alle λ P K ist. Eine solche Abbildung heißtsemilinear (oder im Spezialfall 9.1-7 hermitsch).

153

12.2-2 Beispiel: Durch xα , vy αpvq fur α P V , v P V wird eine Bilinearform x , y : V V Ñ K

definiert.

12.2-3 Problem:

1. Auf V R2 definiere x , y : V V Ñ R :

α

β

,

γ

δ

ÞÑ Bα

β

,

γ

δ

F 3αγ 2βγ αδ βδfur α, β, γ, δ P R. Ist x , y bilinear?

2. Ist x , y bilinear, wenn man in 1. die Skalare 3,-2,1,-1 durch irgendwelche Skalare λ, µ, ν, ρ P R

ersetzt?

12.2-4 Definition/Lemma: Sei B tvi | i P Iu Basis von V , und sei x , y : V V Ñ K eineBilinearform. Dann ist x , y durch die Angabe der Skalare λij xvi , vjy P K vollstandig bestimmt. Gibtman umgekehrt Skalare λij P K vor, und definiert manC

iPI

αivi ,jPI

βjvj

G i,j

αiλijβj P Kfur αi, βj P K, wobei fast alle αi und βj gleich 0 sind, so ist x , y : V V Ñ K eine Bilinearform auf V .Die Matrix pλijqi,jPI heißt Grammatrix G GpBq der Bilinearform x , y bezuglich der Basis B. Ist insbe-sondere V endlich dimensional, B pv1, . . . , vnq, so ist GpBq eine n n-Matrix.

12.2-5 Bemerkung: Ist G pλijq die Grammatrix von x , y bezuglich B wie oben, und ist v °αivi, w °

βjvj pαi, βj P K fast alle 0), so kann man xv , wy als Produkt von Matrizen berechnen,namlich xv , wy pαiqtipλijqijpβjqjwobei pαiq und pβjq Spaltenvektoren sind.

12.2-6 Problem: zu Problem 12.2-3:

1. Bestimmen Sie GpEq.2. Beschreiben Sie

β

,

γ

δ

Fals Matrizenprodukt.

12.2-7 Problem: Sei V ein K-Vektorraum mit Basis B pv1, . . . , vnq. Zeigen Sie:

1. Die Abbildung GpBq, die einer Bilinearform f : V V Ñ K die Grammatrix Gf Gf pBq zuordnet,ist eine Bijektion zwischen der Menge der Bilinearformen auf V und MnnpKq.

2. MnnpKq ist K-Vektorraum. Finden Sie auf der Menge der Bilinearformen auf V eine Vektorraum-struktur, sodass GpBq ein Isomorphismus wird.

3. Sind B, C Basen von V und f : V V Ñ K eine Bilinearform. Wie kann man Gf pCq aus Gf pBq undden BasiswechselmatrizenMidpB, Cq bzw. MidpC,Bq ausrechnen?

4. Was gilt fur unendlich dimensionale Vektorraume V in 1., 2. und 3.?

154

Erinnern Sie sich? Im Kapitel 8 wurden Skalarprodukte eingefuhrt. Eine ganz wesentliche Bedingung wardie, dass ein solches positiv definit sein soll. Fur den Korper K haben wir im Allgemeinen kein Konzept

”positiv“, daher mussen wir

”positiv definit“ durch eine geeignete Bedingung abschwachen. Dazu wollen

wir insbesondere das geometrische Konzept der Orthogonalitat verallgemeinern: Im folgenden sei V einVektorraum uber K und f x , y : V V Ñ K eine Bilinearform.

12.2-8 Definition: Seien x, y P V . Ist xx , yy 0, so sagen wir x sei linksorthogonal zu y und y

rechtsorthogonal zu x und schreiben x K y. (Dies ist keine symmetrische Relation, wenn x , y nichtsymmetrisch ist!)

Im Allgemeinen kann so ziemlich jeder Blodsinn passieren, den man sich denken kann, und der unsererVorstellung zuwider lauft: Vektoren konnen z. B. senkrecht zu sich selbst stehen oder gar orthogonal zuallen Vektoren sein. Man erhalt ungewohnte geometrische Konzepte.

12.2-9 Definition: Die Menge

radlpfq radlpx , yq tx P V | x K y y P V uheißt Linksradikal , und die Menge

radrpfq radrpx , yq tx P V | y K x y P V uheißt Rechtsradikal der Bilinearform f x , y.12.2-10 Satz: Sei f : V V Ñ K bilinear. Dann sind Rechts- und Linksradikal von f Unterraume vonV .

12.2-11 Problem: Sei B pv1, . . . , vnq Basis von V und Gf pBq Grammatrix der Bilinearform f

bezuglich B. Sei v n°j1

xjvj P radrpfq. Was ist dann Gf pBq x1

...xn

Æ ? Wie kann man damit radrpfqberechnen? Was gilt fur radlpfq?12.2-12 Definition/Satz: Sei f x , y : V V Ñ K bilinear. Dann wird durch

El : V Ñ V : v ÞÑ λv mit λv : V Ñ K : x ÞÑ xv , xyein Homomorphismus El : V Ñ V definiert, der zu f assoziierte (kanonische) Linkshomomorphismus

von V nach V . Um zu verdeutlichen, dass El bezuglich f gebildet wurde, schreiben wir auch Efl . Analog

wird Er definiert: Erpvq ρv mit ρvpwq xw , vy. Es gilt:

radlpfq kerEl und radrpfq kerEr.

Ist V endlich dimensional und B Basis von V , B die duale Basis, dann istMErpB,Bq Gf pBq MEl

pB,Bqt .155

12.2-13 Folgerungen: Sei dimK V 8.

1. dimK radlpfq dimK radrpfq n rgGf pBq.2. radlpfq p0q radrpfq p0q. In diesem Fall heißt f nicht ausgeartet, sonst ausgeartet.

3. Ist f nicht ausgeartet, so definieren El und Er ”kanonische“ Isomorphismen von V auf V . (Fur

unendlich dimensionales V sind El und Er injektiv.)

12.2-14 Problem: Sei h : V Ñ V Homomorphismus. Gibt es Bilinearformen f1, f2 : V V Ñ K mit

Ef1

l h bzw. Ef2

r h?

12.2-15 Satz: f ÞÑ Efl (und ebenso f ÞÑ Ef

r ) definiert eine Bijektion zwischen der Menge der Biline-arformen f auf V und HomKpV, V q.12.2-16 Problem: Sei dimV 8. In Problem 12.2-7 haben wir eine Vektorraumstruktur auf derMenge der Bilinearformen auf V definiert, sodass die Bijektion zwischen der Menge der Bilinearformen aufV und MnnpKq ein Isomorphismus ist. Ist die Bijektion aus Satz 12.2-15 ebenfalls ein Isomorphismus?

Hier sind noch einige spezielle Typen von Bilinearformen:

12.2-17 Definition: Sei x , y : V V Ñ K bilinear.

1. x , y heißt symmetrisch, falls xv1 , v2y xv2 , v1y ist fur alle v1, v2 P V .

2. x , y heißt alternierend , falls xv1 , v2y xv2 , v1y ist fur alle v1, v2 P V .

12.2-18 Beobachtung:

1. Ist x , y alternierend oder symmetrisch, so ist x K y y K x und daher ist die Relation”K“ sym-

metrisch.

2. Ist x , y symmetrisch oder alternierend, so braucht man nicht zwischen Rechtsradikal und Links-radikal zu unterscheiden. Ist x , y symmetrisch, dann ist El Er, ist x , y alternierend, dann istEl Er.

3. Ist charK 2 (d. h. 1 1 in K), so sind alternierend und symmetrisch das gleiche. Sonst nicht!

4. x , y ist symmetrisch Gx , ypBq bezuglich einer Basis B ist symmetrisch.

Beachte: Ist At A,P P GLnpKq, dann ist PTAP symmetrisch, denn pP tAP qt P tApP tqt P tAP .

5. x , y ist alternierend Gx , ypBq bezuglich einer Basis B ist schiefsymmetrisch, d. h. At A12.3 Das Tensorprodukt: A First Go

Wir haben schon eine”binare Operation“ auf der Klasse der K-Vektorraume kennengelernt:

Die direkte SummeÀ

.Dimensionsformel: dimKpV `W q dimKpV q dimKpW q.Nun wollen wir ein Produkt

”b“ definieren, sodass b distributiv uber ` ist und dass gilt:

Dimensionsformel: dimKpV bW q dimKpV q dimKpW q156

12.3-1 Frage:

1. Wie sieht ein Element von V `W aus? Wie die Addition von solchen?

2. Wie sieht dann wohl ein typisches Element (”Tensor “) des Tensorproduktes V bW aus?

3. Wie addieren sich solche”Tensoren“? Was kann man aus der Eigenschaft

”distributiv“ uber Addition

(zunachst uber”`“, dann uber

”“) schließen? Was hat das mit

”bilinear“ zu tun?

4. Was bedeutet die Dimensionsformel fur V K?

Wie oft in der Mathematik haftet den Axiomen von Tensorprodukten etwas willkurliches an. Allerdingslegen hier die Forderungen

1.”Tensorprodukte von Vektoren sind distributiv uber Addition “ und

2. die Dimensionsformel

die Struktur von V bK W weitgehend fest:

12.3-2 Folgerungen: Angenommen, wir kennen das Tensorprodukt V b W schon und haben darinElemente v b w pv P V,w PW q entdeckt, die den Folgerungen 1. und 2. oben genugen. Dann gilt:

i.v b pw1 w2q v b w1 v b w2 fur alle v P V,w1, w2 PW

ii. pv1 v2q b w v1 b w v2 b w fur alle v1, v2 P V,w PW und

iii.λpv b wq pλvq b w v b λw fur alle v P V,w PW,λ P K.

Ziel ist es nun, V bW”bestmoglich“ zu definieren, d. h. so, dass es i. ii. iii. (und alles was zwangslaufig

daraus folgt) erfullt, aber nicht mehr!

12.3-3 Problem: Angenommen, wir haben ein Tensorprodukt V bW schon definiert. Zeigen Sie, dassdie Abbildung

ι : V W Ñ V bW : pv, wq ÞÑ v b wbilinear ist.

Zuruck zu unserem Ziel: Was heißt hier bestmoglich? Wie kann man dies mathematisch exakt erfassen?Allgemein:

1. Wir wollen ein mathematisches Objekt durch”Eigenschaften“ definieren.

Beispiel: f sei ein reelles Polynom durch den Ursprung und den Punkt (1,1) und habe Steigung 2im Punkt (1,1).

2. Dieses Objekt soll nicht noch zusatzliche, vermeidbare Eigenschaften aufweisen, sondern bestmoglichsein. In unserem Beispiel suchen wir ein Polynom kleinsten Grades, also eine Parabel, nicht einPolynom vom Grad ¥ 3.

Durch 1. und 2. ist dann das Objekt hoffentlich eindeutig (”bis auf Isomorphie“) festgelegt. Das Problem

ist dann, ob so ein Objekt uberhaupt existiert, und wie man es dann konstruieren kann.Fur unser Tensorprodukt heißt das: Die Tensoren vbw (v P V,w PW ) mussen das Tensorprodukt V bWerzeugen und die Bedingungen i., ii. und iii. oben erfullen.

157

12.3-4 Definition: Sei K ein Korper, V und W Vektorraume.

1. FpV W q ist der K-Vektorraum, bestehend aus Folgen von Elementen von K, die mit V W

indiziert sind:FpV W q tpkvwqvPV,wPW | fast alle kvw 0u

Man beachte: V W lasst sich nach dem Wohlordnungssatz irgendwie linear ordnen!Anstatt pkvwqvPV,wPW schreiben wir die

”formale Summe“¸pv,wqPVW

kvw pv, wq .FpV W q wird zum Vektorraum durch

°kvw pv, wq °

lvw pv, wq °pkvw lvwq pv, wq undλ°kvw pv, wq °pλkvwq pv, wq.

2. In FpV W q sei S die Teilmenge

S $''&''% pv1 v2, wq pv1, wq pv2, wq,pv, w1 w2q pv, w1q pv, w2q,pλv,wq λpv, wq, pλv,wq pv, λwqmit v, v1, v2 P V,w,w1, w2 PW,λ P K,//.//-

und R xSy ¤ FpV W q. Dann definieren wir

V bW FpV W qRund schreiben vbw fur die Nebenklasse pv, wq R von pv, wq 1 pv, wq °pv1,w1qpv,wq 0 pv1, w1q PFpV W q in V bW .

12.3-5 Bemerkung: Die Elemente von V b W sind Linearkombinationen von einfachen Tensoren,d. h. Elemente der Form v b w. Da ein skalares Vielfaches eines einfachen Tensors wieder ein einfacherTensor ist (λpv b wq pλvq b w), kann jedes Element von V bW sogar als Summe einfacher Tensoren

geschrieben werden, also in der Form°k

i1 vi b wi.

12.3-6 Problem:

1. Was ist die exakte Definition der Folgen pkvwq? Geben Sie damit eine neue, exaktere Definition vonFpV W q.

2. SeiM eine Menge. Definieren Sie FpMq. FpMq heißt der freieK-Vektorraum mit BasisM . Warum?

3. Beschreiben Sie die”naturliche“ Basis von FpV W q. Was ist die Dimension von FpV W q?

4. Sei f : V W Ñ U bilinear, g : U Ñ X sei K-linear (fur einen K-Vektorraum X), dann ist

g f : V W Ñ X

bilinear.

158

12.3-7 Satz pUniverselle Eigenschaft von Tensorproduktenq:Sei V bW wie in Definition 12.3-4 erklart. Dann gilt:

1. V bW wird von im ι tv b w | v P V,w PW u erzeugt.

2. Die Abbildung ι : V W Ñ V bW : pv, wq ÞÑ v b w ist bilinear.

3. Ist U K-Vektorraum und f : V W Ñ U bilineare Abbildung, so gibt es genau eine lineare Abbildungf : V bW Ñ U mit f ι f , d. h. das folgende Diagramm kommutiert:

V W V bWU

QQ

QQQs

f

p

p

p

p

p

p

p

p?D!f

Wir wollen zunachst die Nutzlichkeit von 12.3-7 demonstrieren: Als erstes zeigen wir, dass der VektorraumV die universelle Eigenschaft fur V bK besitzt:

12.3-8 Satz: Die Abbildungj : V K Ñ V : pv, λq ÞÑ λv P V

ist bilinear. Der Vektorraum V zusammen mit der bilinearen Abbildung j besitzt die universelle Eigen-schaft 12.3-7 fur Tensorprodukte, d. h. zu jeder bilinearen Abbildung f : V K Ñ U in einen VektorraumU gibt es genau eine lineare Abbildung f : V Ñ U , die das folgende Diagramm kommutativ macht:

V K V

U

-j

@@

@@R

f

p

p

p

p

p

p

p

p

p

p?

D!fDabei ist f : V Ñ U definiert durch fpvq fpv, 1q fur v P V .

Wir wollen diese Tatsache ausnutzen, um zu zeigen, dass V bK V ist.

12.3-9 Satz: Sei V ein K-Vektorraum. Dann ist die Abbildung

V bK Ñ V :¸vi b λi ÞѸ

viλi

ein Isomorphismus. Insbesondere ist

dimKpV bKq dimK V.

12.3-10 Problem:

1. Vergleichen Sie fur dimK V n P N und einen endlichen Korper K mit q Elementen die Machtig-keiten von V K und V bK. Was folgt daraus fur ι : V K Ñ V bK?

2. Betrachten wir V bW und ι : V W Ñ V bW . Finden Sie nichttriviale Elemente in ι1p0V bW q.Fur v P V, w PW finden Sie Elemente pv, wq in ι1pv b wq.

Im Beweis von Satz 12.3-9 haben wir lediglich mit den abstrakten Eigenschaften der Objekte ι, j, , ι, idhantiert und nicht wirklich Elemente abgebildet. Das geht viel allgemeiner!

159

12.3-11 Satz: Sei A ein K-Vektorraum, der folgende universelle Eigenschaft hat:

i. Es gibt eine bilineare Abbildung j : V W Ñ A.

ii. Ist U ein K-Vektorraum und ist f : V W Ñ U bilinear, so gibt es genau einen K-Homomorphismusf : AÑ U mit f j f .

Dann ist A V bW .

Wir hatten (behelfsmaßig) Tensorprodukte uber unsere Wunschvorstellung

1. Distributivitat

2. Dimensionsformel

konstruiert (oder vielmehr motiviert) und sind jetzt auf die universelle Eigenschaft 12.3-7 gestoßen.Man kann aber auch Satz 12.3-7 benutzen, um Tensorprodukte zu definieren, d.h. ein Objekt A mitj : V W Ñ A, sodass i. und ii. von Satz 12.3-11 gilt, heißt Tensorprodukt von V und W .So legt die universelle Eigenschaft 12.3-7 das Tensorprodukt V bW bis auf (naturliche) Isomorphie fest.

12.3-12 Prinzip pUniverselle Eigenschaftenq: Man definiert ein Objekt durch eine universelle Eigen-schaft (etwa in Form von Diagrammen). Was gibt die universelle Eigenschaft?

1. Die Eindeutigkeit, aber nicht die Existenz!

2. Hat man ein Objekt A mit der universellen Eigenschaft definiert, und stolpert man zufallig uber einObjekt B, das diese ebenfalls erfullt, so weiß man automatisch A B!

In Satz 12.3-9 hatten wir dies benutzt, um V bK V zu zeigen. Jetzt beweisen wir ahnlich, dass bdistributiv uber ` ist:

12.3-13 Satz: Seien U, V,W K-Vektorraume. Dann ist

U b pV `W q pU b V q ` pU bW q.und ahnlich pU ` V q bW pU bW q ` pV bW q.Ahnlich, aber komplizierter kann man das Verfahren auf mehr als zwei direkte Summanden, ja sogar aufunendlich viele ausdehnen, mehr dazu spater:

12.3-14 Satz: Seien I, J Indexmengen und Vi, i P I,Wj , j P J K-Vektorraume. Dann gilt:àiPI

Vi

bàjPJ

Wj

ài,j

pVi bWjq.Kurz: Tensorprodukte vertauschen mit direkten Summen. Eine wichtige Anwendung ist der folgendeSatz:

12.3-15 Satz: Sei B tvi | i P Iu Basis von V , C twj | j P Ju Basis von W . Dann ist

B b C tvi b wj | i P I, j P Jueine Basis von V bW .

160

12.3-16 Problem: Was sind die Fasern ι1pv b wq von ι : V W Ñ V bW?

Seien nun V und W endlich dimensionale Vektorraume. Wir wollen in diesem Fall einen Vektorraumangeben, der die universelle Eigenschaft von V bW besitzt. Dazu sei nun Y die Menge der bilinearenAbbildungen von V W nach K:

Y tf : V W Ñ K | f bilinearuIn Problem 12.2-7 haben wir gesehen, dass Y zum K-Vektorraum wird.

12.3-17 Lemma: Sei j : V W Ñ Y definiert durch jpv, wq αv,w P Y mit αv,wpgq gpv, wq furg P Y . Dann ist j bilinear.

12.3-18 Satz: Sei f : V W Ñ U bilinear. Dann gibt es genau eine Abbildung f : Y Ñ U , sodassdas Diagramm

V W Y U

-j

@@

@@@R

f

p

p

p

p

p

p

p

p

p

p

p?

D!fkommutiert. So erfullt Y zusammen mit der Abbildung j die universelle Eigenschaft des TensorproduktsV bW , es gilt also V bW Y .Wir benutzen die universelle Eigenschaft des Tensorprodukts, um Tensorprodukte von Abbildungen zudefinieren:

12.3-19 Lemma: Seien V , W , X, Y K-Vektorraume, und seien φ : V Ñ X und ψ : W Ñ Y K-lineareAbbildungen. Dann ist die Abbildung

φ ψ : V W Ñ X b Y : pv, wq ÞÑ φpvq b ψpwqbilinear.

12.3-20 Satz: Seien φ : V Ñ X und ψ : W Ñ Y wie in Lemma 12.3-19. Dann wird durch

φb ψ : V bW Ñ X b Y :i

vi b wi ÞÑi

φpviq b ψpwiqeine K-lineare Abbildung definiert.

12.3-21 Problem: Warum definiert man φ b ψ nicht einfach durch die im Satz 12.3-20 angegebeneFormel? Was geht dabei schief?

161

12.3-22 Problem:

1. Seien B pv1, . . . , vnq und C pw1, . . . , wmq Basen von V und W . Sei x n°i1

λivi und y m°

j1

µjwj . Was ist xb y ausgedruckt in der Basis B b C tvi b wj | 1 ¤ i ¤ n, 1 ¤ j ¤ mu?2. Zeigen Sie:

W b V HomKpV,W q .Der Isomorphismus ist kanonisch. Wie sieht er aus?

Problem 12.3-21 legt folgende Uberlegung nahe: Angenommen, ich will eine K-lineare Abbildung α :V bW Ñ X definieren, indem wir vorschreiben, wohin die Erzeugenden v b w abgebildet werden. Seietwa αpv b wq xvw P X . Wann ist dann

α : V bW Ñ X :i

vi b wi ÞÑi

xviwiP X

wohldefiniert?

12.3-23 Antwort: α ist genau dann wohldefiniert, wenn

α : V W : pv, wq ÞÑ xv,w P Xbilinear ist.

12.4 Symmetrische Gruppen

Erinnern wir uns: Um die Determinante zu definieren, brauchten wir die symmetrische Gruppe Sn derPermutationen der Menge t1, . . . , nu. Diese wollen wir nun etwas genauer untersuchen.

12.4-1 Definition/Satz: Sei G eine Gruppe, |G| 8 und g P G. Dann gibt es ein k P N, sodass

gk g g glooomooonkmal

1G ist. Die kleinste naturliche Zahl k, fur die gk 1G gilt, heißt Ordnung von g P Gund wird mit |g| bezeichnet.

12.4-2 Definition: Sei π P Sn und 1 ¤ i ¤ n. Da πapiq idpiq i ist fur |π| a, gibt es eine kleinste

naturliche Zahl k P N, sodass πkpiq i ist. Dann sind i, πpiq, π2piq, . . . , πk1piq paarweise verschieden,denn aus πspiq πtpiq mit s t folgt πtspiq i. Die Menge ti, πpiq, π2piq, . . . , πk1piqu heißt Bahn voni unter π oder auch Zykel und wird mit irπs bezeichnet. k ist die Lange der Bahn.

12.4-3 Lemma: Sei π P Sn und M t1, . . . , nu. Sei π die Relation auf M definiert durch

s π t πkpsq t fur ein k P N0

fur s, t P M. Dann ist π eine Aquivalenzrelation auf M, die Aquivalenzklassen rss sind gerade dieBahnen srπs unter π.

162

12.4-4 Korollar: Sei π P Sn. Dann istM disjunkt zerlegt in Bahnen bzgl. π. So existieren Elemente xi PM (i 1, . . . , t) und k1, . . . , kt P N derart, dass M disjunkte Vereinigung von txi, πpxiq, . . . , πki1pxiqufur i 1, . . . , t ist.

12.4-5 Notation: Sei π P Sn. Fur π schreiben wir

π px1, πpx1q, . . . , πk11px1qqpx2, πpx2q, . . . , πk21px2qq pxt, πpxtq, . . . , πkt1pxtqq.Diese Schreibweise nennt man Zykelschreibweise. Die Teile mit ki 1 lasst man auch weg.

12.4-6 Beispiel:

π 1 2 3 4 5 6 72 4 7 1 5 6 3

p124qp37qp5qp6q p124qp37q12.4-7 Definition: Ein Zykel ist eine Permutation π P Sn mit hochstens einer Bahn der Lange ¡ 1,d. h. π pa1, a2, . . . , akq. Es ist πpaiq ai1 fur 1 ¤ i ¤ k 1, πpakq a1 und πpbq b fur b PMzta1, . . . , aku.12.4-8 Beobachtung: Disjunkte Zykeln kommutieren, z. B. ist p124qp356q p356qp124q, aber es giltp123qp245q p12453q p14523q p245qp123q.12.4-9 Korollar: Jedes Element π P Sn kann bis auf die Reihenfolge der Faktoren eindeutig als Produktvon disjunkten Zykeln geschrieben werden. Die Zykeln entsprechen dabei den Bahnen der Lange ¡ 1.

12.4-10 Satz: Sei π P Sn. Dann ist |π| das kleinste gemeinsame Vielfache der Langen der Bahnen vonπ.

12.4-11 Definition: Ein Zykel der Lange 2 heißt Transposition. Eine Transposition der Form pi, i 1qheißt Fundamentaltransposition.

Transpositionen sind Involutionen, d. h. Elemente der Ordnung 2.

12.4-12 Satz: Jede Permutation π P Sn kann als Produkt von Transpositionen geschrieben werden. JedeTransposition kann als Produkt von Fundamentaltranspositionen geschrieben werden, und daher auch jedePermutation.

Naturlich gibt es viele Moglichkeiten, eine Permutation als Produkt von Fundamentaltranspositionen zuschreiben, so ist etwa id p1, 2qp1, 2q. Gesucht ist ein moglichst kurzer Ausdruck, aber selbst dieser mussnicht eindeutig sein, z. B. sind p1, 3q p1, 2qp2, 3qp1, 2q p2, 3qp1, 2qp2, 3q beides Produkte von 3 Fun-damentaltranspositionen, und p1, 3q kann nicht als Produkt von 0, 1 oder 2 Fundamentaltranspositionengeschrieben werden.

163

12.4-13 Definition: Sei π P Sn. Ein reduzierter Ausdruck von π ist ein Produkt von Fundamental-transpositionen π pi1, i1 1qpi2, i2 1q . . . pil, il 1q, sodass l minimal ist, d. h. π lasst sich nichtals Produkt von weniger als l Fundamentaltranspositionen schreiben. Der reduzierte Ausdruck fur id seidabei ein leerer Ausdruck mit 0 Faktoren. l nennt man die Lange der Permutation π und bezeichnet siemit lpπq.Nun stellt sich die Frage, wie man einen solchen reduzierten Ausdruck, bzw. die Lange einer Permutationbestimmen kann.

12.4-14 Definition: Sei π P Sn eine Permutation. Die Menge der Fehlstande von π ist definiert alstri, js | 1 ¤ i j ¤ n und πpiq ¡ πpjqu.12.4-15 Problem: Bestimmen Sie die Menge der Fehlstande der Permutation π p135qp24qp67q P S8.

12.4-16 Lemma: Fur eine Permutation π P Sm sei npπq die Anzahl der Fehlstande von π. Ist pk, k1qeine Fundamentaltransposition, dann gilt:

npπpk, k 1qq "npπq 1 falls πpkq πpk 1qnpπq 1 falls πpkq ¡ πpk 1q

12.4-17 Satz: Sei π P Sn eine Permutation. Dann ist lpπq gleich der Anzahl der Fehlstande von π.

12.4-18 Problem: Schreiben Sie die Permutation π aus Problem 12.4-15 als reduzierten Ausdruck undbestimmen Sie die Lange von π.

12.4-19 Korollar: Kein Produkt einer geraden Anzahl von (Fundamental-)transpositionen ist gleicheinem Produkt einer ungeraden Anzahl von (Fundamental-)transpositionen.

12.4-20 Definition: Eine Permutation π heißt gerade bzw. ungerade, wenn lpπq gerade (d. h. π istProdukt von einer geraden Anzahl von Transpositionen) bzw. lpπq ungerade ist.Sei signpπq p1qlpπq, d. h. signpπq 1, falls π gerade Permutation ist, und signpπq 1, falls πungerade Permutation ist. signpπq bezeichnet man als Signum von π.

12.4-21 Lemma: Die Abbildung sign : Sn Ñ t1,1u : π ÞÑ signpπq ist ein Gruppenhomomorphismusin die multiplikative Gruppe t1,1u, d. h. es gilt signpσπq signpσq signpπq.12.4-22 Korollar: Ein Produkt einer geraden Anzahl von Transpositionen multipliziert mit einem eben-solchen ist wieder ein Produkt einer geraden Anzahl von Tranpositionen, usw.

12.4-23 Problem: Sei si pi, i 1q. Zeigen Sie, dass gilt:

1. s2i id,

2. sisi1si si1sisi1.

164

12.4-24 Definition:

1. Zwei Elemente x, y einer Gruppe G heißen konjugiert (in G), falls es ein g P G gibt, sodass x gyg1

ist.

2. Fur x P G heißt die Menge tgxg1 | g P Gu Konjugationsklasse von x. Fur die Konjugationsklassevon x schreiben wir xG.

12.4-25 Lemma: Die Relation auf G gegeben durch x y genau dann, wenn es ein g P G gibt mit

x gyg1, ist eine Aquivalenzrelation. Die Aquivalenzklassen sind gerade die Konjugationsklassen, daherist G disjunkte Vereinigung seiner Konjugationsklassen.

12.4-26 Lemma: Sie π, σ P Sn und σ pa1, . . . , akq ein Zykel. Dann ist

πσπ1 pπpa1q, . . . , πpakqq.12.4-27 Definition:

1. Sei n P N. Eine Partition von n ist eine Folge λ pλ1, λ2, . . . , λkq von nichtnegativen ganzen Zahlen

λi, sodass λ1 ¥ λ2 ¥ λ3 ¥ . . . ¥ λk und°k

i1 λi n ist.

2. Sei π P Sn eine Permutation. Der Zykeltyp von π ist die Partition von n, die entsteht, wenn man πals Produkt von disjunkten Zykeln schreibt, und die Langen der Zykel (einschließlich der Zykel derLange 1) absteigend ordnet.

12.4-28 Beispiel: Die Permutation p1285qp34qp679q ist vom Zykeltyp p4, 3, 2q.12.4-29 Lemma: Zwei Elemente von Sn sind genau dann konjugiert, wenn sie vom selben Zykeltypsind.

12.4-30 Satz: Es gibt eine Bijektion zwischen den Konjugationsklassen der Sn und den Partitionen

von n. Die Bijektion bildet eine Konjugationsklasse πSn ab auf den Zykeltyp von π.

12.5 Multilinearformen

Sei K ein Korper. Klar ist doch nun, wie wir trilineare und multilineare Abbildungen definieren:

12.5-1 Definition: Seien V1, . . . , Vk und W K-Vektorraume und sei

f : V1 Vk ÑW

eine Abbildung. Dann heißt f multilinear (oder genauer k-fach linear), falls gilt:

1.fpv1, . . . , vi vi, . . . , vkq fpv1, . . . , vi, . . . , vkq fpv1, . . . , vi, . . . , vkq

fur v1 P V1, . . . , vi1 P Vi1, vi, vi P Vi, vi1 P Vi1, . . . , vk P Vk.

2.fpv1, . . . , λvi, . . . , vkq λfpv1, . . . , vi, . . . , vkq.

fur v1 P V1, . . . , vk P Vk.

165

Ist W K und V1 V2 . . . Vk, so spricht man von einer Multilinearform (oder genauer einerk-fachen Linearform).Die folgenden Fakten sollten nun eigentlich leicht zu zeigen sein: Wir betrachten die Menge M dermultilinearen Abbildungen

f : V1 Vk ÑW.

Auf M definieren wir eine Addition

f g : V1 Vk ÑW : pv1, . . . , vkq ÞÑ fpv1, . . . , vkq gpv1, . . . , vkqund eine skalare Multiplikationpλfq : V1 Vk Ñ W : pv1, . . . , vkq ÞÑ λpfpv1, . . . , vkqqfur vi P Vi, i 1, . . . , k, λ P K, f, g PM . Der Beweis des folgenden Satzes ist nun einfach:

12.5-2 Satz: M wird mit obiger Addition und skalarer Multiplikation zum K-Vektorraum.

12.5-3 Definition: Seien I1 t1, . . . , n1u, I2 t1, . . . , n2u, . . ., Ik t1, . . . , nku endliche Indexmengen.Ein Element i P I1 I2 . . . Ik wird Multiindex genannt.

Sind V1, . . . , Vk Vektorraume und vpνq1 , . . . , v

pνqnν Elemente von Vν , dann sei vi P V1 . . . Vk definiert

durchvi pvp1qi1

, vp2qi2, . . . , v

pkqikq.

12.5-4 Satz: Sind V1, . . . , Vk und W endlichdimensionale Vektorraume, dann ist M ebenfalls endlich-dimensional der Dimension

dimK M dimK V1 dimK V2 dimK Vk dimK W.

12.5-5 Beispiel: Seien V1, V2 und V3 die folgenden Vektorraume:

V1 Cvp1q1 , v

p1q2looomooon

B1

G, V2 C

vp2q1 , v

p2q2 , v

p2q3looooooomooooooon

B2

G, V3 C

vp3q1 , v

p3q2looomooon

B3

GDie Basen der Vektorraume sind dann indiziert durch folgende Mengen: I1 I3 t1, 2u, I2 t1, 2, 3u.Setze I I1 I2 I3, also

I " p1, 1, 1qp1, 1, 2q, p1, 2, 1q, p1, 2, 2q, p1, 3, 1q, p1, 3, 2qp2, 1, 1qp2, 1, 2q, p2, 2, 1q, p2, 2, 2q, p2, 3, 1q, p2, 3, 2q *Fur i pi1, i2, i3q ist vi

vp1qi1, v

p2qi2, v

p3qi3

P B1 B2 B3 tvi | i P Iu V1 V2 V3

z. B.

vp1,1,1q vp1q1 , v

p2q1 , v

p3q1

,

vp1,3,1q vp1q1 , v

p2q3 , v

p3q1

,

vp2,3,1q vp1q2 , v

p2q3 , v

p3q1

, usw.

Sei W nun K-Vektorraum, f : V1 V2 V3 Ñ W multilinear. Dann ist f durch die Bilder von f aufB1 B2 B3 eindeutig bestimmt:

166

x1 P V1 : x1 λ11vp1q1 λ12v

p1q2

x2 P V2 : x2 λ21vp2q1 λ22v

p2q2 λ23v

p2q3

x3 P V3 : x3 λ31vp3q1 λ32v

p3q2

,/./- mit λνi P KDann ist

fpx1, x2, x3q λ11λ21λ31fvp1q1 v

p2q1 v

p3q1

λ11λ21λ32fvp1q1 v

p2q1 v

p3q2

λ11λ22λ31fvp1q1 v

p2q2 v

p3q1

λ11λ22λ32fvp1q1 v

p2q2 v

p3q2

... λ12λ23λ32f

vp1q2 v

p2q3 v

p3q2

Also: fpx1, x2, x3q °

iPI λifvi, wenn wir λi λ1i1λ2i2λ3i3 fur i pi1, i2, i3q P I setzen.

Allgemein gilt: Ist I I1 I2 . . . Ik, i pi1, i2, . . . , ikq P I, xi °ni

j1 λijvpiqj P Vi mit dimVi ni,

Bi pvpiq1 , vpiq2 , . . . , v

piqni q Basis von Vi, dann ist fpx1, x2, . . . , xnq °

iPI λifvi

mit:

vi vp1qi1, v

p2qi2, . . . , v

pkqik

P B1 B2 . . . Bk, λi λ1i1λ2i2 λkik.

Umgekehrt: Man kann beliebige Werte

wi fpviq PWvorgeben, d. h. eine beliebige Mengenabbildung

f : B1 B2 . . . Bk ÑW,

und man erhalt durchfpx1, x2, . . . , xnq

iPI

λifvi

iPI

λiwi

eine multilineare Abbildung f : V1 V2 . . . Vk Ñ W ( mit xi °ni

j1 λijvpiqj , λi ±k

j1 λjij,

i pi1, i2, . . . , ikq P I).In unserem Beispiel:Man muss sich 12 Vektoren wi P W , i P I, beliebig vorgeben, und kann dann eine trilineare Abbildungf : V1 V2 V3 Ñ W finden, die auf den 12 Tripeln vi P B1 B2 B3 genau die Werte wi P W (i P I)annimmt.

Die multilinearen Abbildungen fi,j:W x w1, w2, w3loooomoooon

Basis von W

y, V1, V2, V3 wie oben

i P I, 1 ¤ j ¤ 3, dann ist fi,j definiert durch:

fi,j : B1 B2 B3 ÑW : vk ÞÑ "wj fur i k0 sonst

167

z. B. i p1, 3, 2q P I, j 2, dann ist fp1,3,2q,2 gegeben durch

fp1,3,2q,2 vp1q1 , vp2q3 , v

p3q2

w2

fp1,3,2q,2 vp1qi1, v

p2qi2, v

p3qi3

0 fur pi1, i2, i3q p1, 3, 2q, also

fp1,3,2q,2 px1, x2, x3q fp1,3,2q,2pλ11vp1q1 λ12v

p1q2 , λ21v

p2q1 λ22v

p2q2 λ23v

p2q3 , λ31v

p3q1 λ32v

p3q2 q λ11λ21λ31f

vp1q1 , v

p2q1 , v

p3q1

λ11λ21λ32fvp1q1 , v

p2q1 , v

p3q2

. . . λ11λ23λ32w2

12.5-6 Problem:

1. Was ist das Nullelement von M?

2. Wozu spezialisiert M fur k 1, W K? Was ist mit k 2, V1 V2?

12.5-7 Definition: Eine k-fache Linearform f : V k Ñ K (wobei V k V Vloooooomoooooonk Faktoren

ist) heißt

symmetrisch, fallsfpv1, . . . , vkq fpvπp1q, . . . , vπpkqq

fur alle π P Sk ist.

12.5-8 Definition p1. Versuchq: Eine Multilinearform f : V k Ñ K heißt alternierend , falls

fpv1, . . . , vkq signπfpvπp1q, . . . , vπpkqqfur alle π P Sk.

Beispiel: Alternierende Bilinearformen f : V V Ñ K (fpv, wq fpw, vq).12.5-9 Lemma: Sei charK 2 (d. h. es gilt 1 1 in K), und sei f : V k Ñ K alternierendek-fache Linearform. Sind v1, . . . , vk P V , sodass vi vj ist fur ein i j, dann ist fpv1, . . . , vkq 0.

12.5-10 Lemma: Sei charpKq 2 und f : V k Ñ K eine k-fache alternierende Multilinearform. Sindv1, . . . , vk P V linear abhangige Vektoren, dann ist fpv1, . . . , vkq 0.

12.5-11 Satz: Sei f : V k Ñ K multilinear. Ist fpv1, . . . , vkq 0 fur jede linear abhangige Mengetv1, . . . , vku, dann ist f alternierend.

Also: Ist charpKq 2, dann ist f : V k Ñ K alternierend genau dann, wenn fpv1, . . . , vkq 0 ist furalle k-Tupel pv1, . . . , vkq, die linear abhangig sind. Ist charpKq 2, dann gibt es alternierende Multiline-arformen, fur die die Bedingung aus Satz 12.5-11 nicht gilt, etwa die Bilinearform mit der Grammatrix

1 00 1

. Fur diese gilt f

10

,

10

1 0.

Also ist Bedingung aus Satz 12.5-11 starker als die Eigenschaft”alternierend“ von Definition 12.5-8.

Wir verscharfen diese Definition zu:

168

12.5-12 Definition pEndgultige Fassungq: f : V k Ñ K sei k-fache Multilinearform. Dann heißtf alternierend , falls fpv1, . . . , vkq 0 ist fur jedes linear abhangige k-Tupel pv1, . . . , vkq von Vektorenvi P V pi 1, . . . , kq.Sei AkpV q die Menge der alternierenden k-fachen Multilinearformen auf V .

12.5-13 Satz: Sei n dimK V und 0 f : V n Ñ K n-fach alternierende Multilinearform auf V .Seien v1, . . . , vn P V . Dann ist B pv1, . . . , vnq Basis von V genau dann, wenn fpv1, . . . , vnq 0 ist.

12.5-14 Satz: Die Menge AkpV q der alternierenden k-fachen Multilinearformen auf V ist ein K-Unterraum der Menge der k-fachen Multilinearformen auf V .

12.5-15 Satz: Sei B pv1, . . . , vnq Basis von V , und sei 1 ¤ i1 . . . ik ¤ n, i pi1, . . . , ikq P Nk.

Fur j pj1, . . . , jkq P t1, . . . , nuk sei δi,j δi1,j1 δi2,j2 δik,jk.

Wir definieren ej : V k Ñ K durch ejpvl1 , . . . , vlkq ejpvlq δj,l, wobei l pl1, . . . , lkq ist.

Weiter sei fur einen Multiindex i pi1, . . . , ikq und eine Permutation π P Sk πpiq piπp1q, . . . , iπpkqq.Dann gilt:

1. Sind u1, . . . , uk P V und π P Sk, dann ist eipuπp1q, . . . , uπpkqq eπ1piqpu1, . . . , ukq.2. tej | j P t1, . . . , nuku ist Basis des Vektorraums aller k-fachen Multilinearformen auf V .

3. Sei ai °πPSk

psignπqeπpiq. Dann ist tai | i pi1, . . . , ikq P Nk, 1 ¤ i1 i2 ik ¤ nu Basis

von AkpV q.12.5-16 Problem: Sei dimK V n und k P N.

1. Was ist dimK AkpV q?2. Was ist dimK AkpV q fur k ¡ n?

3. Was ist dimK AnpV q fur k n?

12.5-17 Satz: Sei dimK V n und sei f eine alternierende n-fache Multilinearform auf V . Dann gilt:

Ist B pv1, . . . , vnq Basis von V und ist ui n°j1

λijvj fur λij P K und 1 ¤ i, j ¤ n, so ist:

fpu1, . . . , unq ¸πPSn

psignπqλ1πp1q λnπpnqfpv1, . . . , vnq detpλijqfpv1, . . . , vnq.Nun ist klar, dass Determinanten eng mit n-fachen alternierenden Multilinearformen zusammenhangen.Solche sind fur Vektorraume der Dimension n wegen Satz 12.5-15 bis auf skalare Vielfache eindeutigbestimmt und konnen daher zur Definition von Determinanten benutzt werden.

12.6 Determinanten

Sei V ein Vektorraum uber einem KorperK der Dimension n, und sei φ : V Ñ V einK-Homomorphismus.

169

12.6-1 Definition: Die Determinante Dpφq des Endomorphismus φ von V wird folgendermaßen defi-niert: Man wahle eine von der Nullform verschiedene n-fache alternierende Multilinearform f auf V . Einesolche existiert nach Problem 12.5-16. Dann setzt man

Dpφq fpφpv1q, . . . , φpvnqqfpv1, . . . , vnq ,

wobei B pv1, . . . , vnq irgendeine Basis von V ist.

12.6-2 Satz: Sei φ P EndKpV q. Dann ist Dpφq P K unabhangig von der Wahl der Basis B von V inDefinition 12.6-1, und unabhangig von der Wahl der Form f 0 in AnpV q.12.6-3 Satz: Sei φ P EndKpV q, und sei B pv1, . . . , vnq Basis von V . Sei φpvjq n°

i1

λijvi . Dann ist

Dpφq ¸πPSn

psignπqλ1πp1q λnπpnqund damit stimmt die hier gegebene Definition mit Definition 7.1-3 uberein.

Nun konnen wir Satz 7.2-5 auf einfache Art und Weise beweisen:

12.6-4 Satz: Seien φ, ψ P EndKpV q. Dann gilt:

1. Dpφq 0 φ P AutKpV q.2. DpidV q 1.

3. Dpφ ψq DpφqDpψq.4. Dpφ1q pDpφqq1 fur φ P AutKpV q.

So ist D Gruppenhomomorphismus von AutKpV q in die multiplikativen Gruppe K Kzt0u.12.6-5 Problem: Zeigen Sie nun die folgenden Rechengesetze fur eine n n-Matrix A pαijq mitHilfe der neuen Definition der Determinante.

1. Ist ein Spaltenvektor von A der Nullvektor, so ist detA 0.

2. Hat A zwei identische Spaltenvektoren, so ist detA 0.

3. Addiert man zu einer Spalte von A das λ-fache einer anderen, so andert sich die Determinantenicht.

4. Vertauscht man zwei Spalten von A, so andert sich das Vorzeichen der Determinante.

5. Was passiert, wenn man eine Spalte von A mit 0 λ P K multipliziert?

12.6-6 Bemerkung: Mit Hilfe der ersten Definition der Determinante ist es leicht zu zeigen, dassdetpAq detpAtq ist. Daher gelten alle Behauptungen auch fur Zeilen statt Spalten.

Den Laplace’schen Entwicklungssatz kann man ebenfalls einfach beweisen:

12.6-7 Satz: Sei k P t1, . . . , nu und A pαijq. Dann gilt

detA n

i1

p1qikαik detpAikq (Entwicklung nach der k-ten Spalte)

170

12.7 Mehr Tensorprodukte

Wir konnen nun Tensorprodukte von 3 oder mehr Vektorraumen bilden:

12.7-1 Definition: Seien V1, V2, . . . , Vk K-Vektorraume. Ein K-Vektorraum W zusammen mit einerk-fachen multilinearen Abbildung ι : V1 Vk Ñ W heißt Tensorprodukt der Raume V1 Vk

falls folgende universelle Eigenschaft erfullt ist:Ist f : V1 Vk Ñ U multilineare Abbildung in einen K-Vektorraum U , so gibt es genau eineK-lineareAbbildung f : W Ñ U mit f ι f , d. h. genau eine K-lineare Abbildung, die das folgende Diagrammkommutativ macht:

V1 Vk W

U

QQ

QQQs

f

p

p

p

p

p

p

p

p?D!f

Fur W schreiben wir W V1 b b Vk.

12.7-2 Bemerkung: Klar ist sofort:

1. Falls W (und ι) existiert, so ist es eindeutig bis auf Isomorphie.

2. W wird dann von den Elementen der Form tv1 b b vk ιpv1, . . . , vkq | vi P Vi 1 ¤ i ¤ ku alsVektorraum erzeugt.

3. W FpV1 VkqI, wobei I der von den multilinearen Relationen erzeugte Unterraum ist.

12.7-3 Satz: Seien U, V,W K-Vektorraume. Dann gilt:

1. V bW W b V und

2. pU b V q bW U b pV bW q U b V bW .

12.7-4 Korollar: Das Tensorprodukt ist eine assoziative, kommutative Operation auf der Klasse derK-Vektorraume.

Vorsicht: Obwohl V1 b V2 V2 b V1 heißt das fur V1 V2 noch lange nicht, dass v1 b v2 v2 b v1 istfur v1, v2 P V .

12.7-5 Folgerungen:

1. Tensorprodukte sind multilinear (distributiv), d. h.

V1 b b pVi ` V 1i q b b Vk pV1 b b Vi b b Vkq ` pV1 b b V 1

i b b Vkq.2. Ist Bi pvi1, . . . , vini

q Basis von Vi, so ist

B B1 b b Bk tv1i1 b b vkik| 1 ¤ iν ¤ nν , 1 ¤ ν ¤ ku

Basis von V1 b b Vk.

3. Sind φν : Vν Ñ Xν K-lineare Abbildungen von K-Vektorraumen Vν nach Xν (1 ¤ ν ¤ k), so wirddurch

φ φ1 b b φk : V1 b b Vk Ñ X1 b bXk mit

φ¸

λi1ikvi1 b b vik

¸λi1ik

φ1pvi1 q b b φkpvikq

eine lineare Abbildung φ definiert.

171

Kapitel 13

Die Jordansche Normalform

In diesem Kapitel wollen wir unser grundsatzliches Problem, aus jeder Ahnlichkeitsklasse von n n-Matrizen ein besonders

”schones“ Exemplar herauszufischen, wenigstens unter der Zusatzvoraussetzung

losen, dass das charakteristische Polynom dieser Klasse in Linearfaktoren zerfallt. Insbesondere, wennder Korper K algebraisch abgeschlossen ist, gilt das immer, und dann haben wir in jeder solchen Klasseeine

”schone“ Matrix. Wie ublich gibt es eine Endomorphismenversion: Wir suchen eine Basis des endlich

dimensionalen Vektorraums V , sodass die Matrix des Endomorphismus f von V moglichst einfach wird.Dazu werden wir versuchen, uns an dem diagonalisierbaren Fall zu orientieren, d.h. wir suchen eine Basisbestehend aus Eigenvektoren von f .Zunachst – im 1. Abschnitt – widmen wir uns einem Satz, der nicht nur fur die Jordansche Normalformwichtig, sondern auch fur sich selbst genommen interessant ist.

13.1 Der Satz von Cayley-Hamilton

Sir (seit 1835) William Rowan Hamilton (1805–1865) war ein irischer Mathematiker und Physiker. Erentwickelte die geometrische Optik, entdeckte in der Algebra die Quaternionen und stellte die beruhmteHamilton Funktion der theoretischen Mechanik auf,

H Hpqk, pk; tq k 1, . . . , 3n,

die die Gesamtenergie von n Massepunkten der verallgemeinerten Koordinaten qk und Impulse pk be-schreibt. In der Quantenphysik geht diese dann in den Hamiltonoperator uber. Arthur Cayley (1821-1895) war ein britischer Mathematiker und wurde auch fur die Cayleyschen Zahlen (Oktonionen) bekannt.Erinnern wir uns an Definition 8.1-4 eines f -invarianten Unterraums von V . Wie immer ist in diesemAbschnitt V ein K-Vektorraum endlicher Dimension und f ist ein Endomorphismus von V . Beispiele vonf -invarianten Unterraumen sind t0u, V , im f , ker f sowie jeder Eigenraum von f . Dabei wurde in 8.2-22der Eigenraum zum Eigenwert λ P K als kerpf ℓλq definiert. Wir wollen diesen nun mit Vλ bezeichnen.Klar ist, dass λ genau dann Eigenwert von f ist, wenn Vλ p0q ist.Problem 8.3-9 zeigt den folgenden Satz:

13.1-1 Satz: Sei U ein f -invarianter Unterraum von V , und sei f die Einschrankung von f auf U .Dann teilt das charakteristische Polynom der Einschrankung das von f :

χfptq|χf ptq.172

13.1-2 Problem: Sei f : R4 Ñ R4 durch

f

αβγδ

ÆÆ α β 2δ γβ γ2δ γδ γ ÆÆ

gegeben. Sei W xe1, e2y. Dann ist W f -invariant. Berechnen Sie χf ptq mit Hilfe der Einschrankung vonf auf W .

Im Abschnitt 11.2 uber lineare Differenzialgleichungen hatten wir gesehen, dass man lineare Operatoreneines Vektorraums in sich potenzieren (d. h. mehrfach hintereinander ausfuhren) und dann Linearkombi-nationen von solchen Potenzen bilden kann, die resultierende Abbildung ist wieder K-linear. Mit anderenWorten, man kann Endomorphismen in Polynome uber K einsetzen und erhalt wieder Endomorphismen.Ist also pptq °

αiti P Krts ein Polynom und f P EndKpV q, dann ist ppfq °

αifi ebenfalls ein

Endomorphismus.Wie kann man nun f -invariante Unterraume konstruieren? Hier ist eine Moglichkeit:

13.1-3 Definition: Sei x P V und sei W der Aufspann der Vektoren der Form f ipxq fur i 0, 1, 2, . . .:

W x, fpxq, f2pxq, . . . , f ipxq, . . .D .

Der Unterraum W von V heißt der von x erzeugte f -zyklische Unterraum von V .

13.1-4 Problem:

1. Beschreiben Sie den von x erzeugten f -zyklischen Unterraum W von V mit Hilfe von Polynomen.

2. Zeigen Sie: Der von x erzeugte f -zyklische Unterraum ist f -invariant.

3. Sei U ein f -invarianter Unterraum von V , x P U und seiW der von x erzeugte f -zyklische Unterraumvon V . Wie verhalt sich U zu W? Welche alternative Definition von W lasst sich daraus gewinnen?

4. Seif : R3 Ñ R3 : pα, β, γq ÞÑ pβ γ, α γ, 3γq.

Was ist der von e1 p1, 0, 0q erzeugte f -zyklische Unterraum?

5. Was ist der vom reellen Polynom x2 erzeugte D-zyklische Unterraum von Rrxs, wenn D Differen-ziation bedeutet?

Die beiden vorigen Satze und obiges Problem zeigen, dass die f -zyklischen Unterraume als minimalef -invariante Unterraume eine besondere Rolle spielen, da man f auf einen solchen einschranken kann undweiß, dass das charakteristische Polynom der Einschrankung das von f teilt. Das hilft bei der Berechnungvon charakteristischen Polynomen! Der nachste Satz untermauert das:

13.1-5 Satz: Sei f ein Endomorphismus des endlich dimensionalen K-Vektorraums V . Sei W der vonx P V erzeugte f -zyklische Unterraum von V . Sei k ¥ 1 die Dimension von W (daher ist 0 x). Dannist die Menge

BW px, fpxq, f2pxq, . . . , fk1pxqqeine Basis von W .

173

13.1-6 Problem: Bezeichnungen wie im vorigen Satz.

1. Warum gibt es α0, α1, . . . , αk1 P K, sodass

fkpxq α0x α1fpxq αk1fk1pxq

ist?

2. Was istMfpBW q (wenn man die Einschrankung von f auf W mit f bezeichnet)?

13.1-7 Satz: Seien die Bezeichnungen wie im vorigen Satz, und sei

fkpxq α0x α1fpxq αk1fk1pxq.

Dann ist das charakteristische Polynom der Einschrankung f von f auf W gegeben als

χfptq tk αk1t

k1 α1t α0.

13.1-8 Definition: Sei f P EndKpV q und sei pptq P Krts ein Polynom. Wir sagen f erfullt das Polynompptq, falls ppfq 0 ist.

13.1-9 Satz pCayley-Hamiltonq: Sei f ein Endomorphismus des endlich dimensionalen VektorraumsV . Dann erfullt f sein charakteristisches Polynom χf ptq.Naturlich gilt auch die Matrizenversion dieses Satzes.

13.2 Verallgemeinerte Eigenraume

Wie wir gesehen haben, ist ein Endomorphismus f des K-Vektorraums V (bzw. eine n n-Matrix A)genau dann diagonalisierbar, wenn V (bzw. Kn) eine Basis aus Eigenvektoren von f (bzw. A) besitzt.Dies muss nicht immer der Fall sein, wie das Beispiel der Matrix

A 1 10 1

zeigt. Hier sind einige leichte Fragen, um zu testen, ob Sie sich erinnern:

13.2-1 Problem: Sind die folgenden Matrizen diagonalisierbar oder nicht?

1.

A 3 1 00 3 10 0 3

.2.

B 3 1 00 2 10 0 1

.3.

C 1 1 00 3 10 0 3

.174

4.

D 3 2 00 3 10 0 3

5.

E λ 1 0 . . . 00 λ 1 0...

. . ....

0 0 . . . λ 10 0 . . . 0 λ

ÆÆÆÆÆ .Unter welchen Umstanden konnen Sie sicher sein, dass eine gegebene Dreiecksmatrix diagonalisierbar ist?

Eine kk-Matrix der Form E in obigem Problem heißt Jordanblock zu λ der Große k und wird mit Jλpkqbezeichnet. Ziel dieses Kapitels ist zu zeigen, dass jede n n-Matrix A, deren charakteristisches Polynomin Linearfaktoren zerfallt, zu einer Blockdiagonalmatrix ahnlich ist, deren Blocke auf der DiagonalenJordanblocke sind:

A J1 0 . . . 0 00 J2 0 0...

. . ....

0 Jk1 00 0 . . . 0 Jk

ÆÆÆÆÆ ,wobei Ji Jλi

pkiq ist. Hierbei sind die λi die (nicht notwendigerweise verschiedenen) Eigenwerte von Aund ki P N.Der franzosische Mathematiker Camille Jordan (1838–1922) war in Paris Professor, zeitweise Prasidentder franzosischen Akademie der Wissenschaften (Academie des Sciences), wurde vor allem wegen seinergrundlegenden Arbeiten in der Gruppentheorie und Topologie bekannt.Die Reihenfolge der Jordanblocke ist naturlich nicht von vornherein gegeben. Um Eindeutigkeit dieserJordanform (oder Jordanschen Normalform) der Matrix A zu erzielen, konnen wir jedoch verabreden,dass die Elemente des Korpers irgendwie geordnet seien (Wohlordnungssatz!) und wir die Jordanblockezu verschiedenen Eigenwerten gemaß dieser Ordnung anordnen. Fur einen festen Eigenwert denken wiruns die Jordanblocke dann mit absteigender Große angeordnet. Damit ist die Jordandarstellung einerMatrix dann eindeutig. Im realen Leben verzichtet man aber oft auf die Eindeutigkeit und lasst dieKorperelemente (etwa von C) ungeordnet. Lediglich die Jordanblocke zum selben Eigenwert werden in derRegel zusammengruppiert. Man hat dann eben nur Eindeutigkeit bis auf die Reihenfolge der Jordanblocke.Naturlich mussen sich die Blockgroßen ki zum selben Eigenwert λ zur Vielfachheit von λ in χAptq undalle ki zusammen zu n aufsummieren.

13.2-2 Beispiel: Die 8 8-Matrix2 1 0 0 0 0 0 00 2 1 0 0 0 0 00 0 2 0 0 0 0 00 0 0 2 0 0 0 00 0 0 0 3 1 0 00 0 0 0 0 3 0 00 0 0 0 0 0 0 10 0 0 0 0 0 0 0

ÆÆÆÆÆÆÆÆÆÆ ist in Jordanform.

175

Das entsprechende Resultat fur Endomorphismen lautet naturlich, dass man zu jedem Endomorphismusf eines endlich dimensionalen Vektorraums V eine Basis B Bf von V so findet, dass Mf pBf q inJordanform ist, sofern das charakteristische Polynom χf ptq in Linearfaktoren zerfallt.

13.2-3 Definition: Sei V ein endlich dimensionaler Vektorraum und f ein Endomorphismus von V ,sodass das charakteristische Polynom χf ptq in Linearfaktoren zerfallt. Eine Jordanbasis von f ist eineBasis Bf von V , sodassMf pBf q in Jordanform ist.

Unsere Aufgabe lautet nun, fur ein solches f eine Jordanbasis zu konstruieren. Um das durchzufuhren,sammeln wir zunachst einige Eigenschaften von Jordanbasen. Dies wird uns dann auf ein Konstruktions-prinzip hinfuhren.

13.2-4 Problem: Erinnern Sie sich: ℓλ λ idV .

1. Sei die Matrix von f bezuglich einer Basis B gegeben alsMf pBq A 3 1 00 3 10 0 3

.So ist B Bf also eine Jordanbasis. Wie operiert der Endomorphismus f ℓ3 auf Bf , wie pf ℓ3q2und wie pf ℓ3q3? Was sind die jeweiligen Kerne dieser Potenzen von f ℓ3?

2. Nun analog (und erweitert) fur Mf pBf q B 2 1 0 00 2 1 00 0 2 10 0 0 2

ÆÆ .3. Und was ist mit Mf pBf q Jλpnq?

Das letzte Problem hat die Bedeutung der Kerne der Potenzen von f ℓλ fur Eigenwerte λ von f

verdeutlicht. Man sieht unmittelbar:

13.2-5 Definition/Satz: Sei f ein Endomorphismus eines endlich dimensionalen Vektorraums V , undsei λ P K. Dann ist

kerpf ℓλq ¤ kerpf ℓλq2 ¤ ¤ kerpf ℓλqi ¤ eine aufsteigende Kette von Unterraumen von V , die terminiert (d.h. es gibt eine naturliche Zahl k so,dass kerpf ℓλqni kerpf ℓλqn ist fur alle i P N). Daher ist

Vλpfq 8¤i1

kerpf ℓλqiein wohldefinierter Unterraum von V . Wir nennen diesen verallgemeinerten Eigenraum zum Eigenwertλ von f und bezeichnen ihn (in diesem Skript) mit Vλpfq. Seine Elemente heißen verallgemeinerteEigenvektoren von f . Wir haben also

Vλpfq tv P V | Dp P N : pf ℓλqppvq 0u.Das alles hat wie ublich auch eine Matrizenversion. Notationen wie VλpAq etc. sind damit gleich mitdefi-niert!Beachten Sie, dass der Eigenraum Vλpfq von f immer im verallgemeinerten Eigenraum Vλpfq enthaltenist. Obige Definition 13.2-5 macht auch Sinn, wenn λ kein Eigenwert von f ist, und man braucht auchnicht, dass χf ptq in Linearfaktoren zerfallt.

176

13.2-6 Beobachtung: Sei Mf pBf q Jλpnq. Was ist die Dimension von Vλpfq und die von Vλpfq?Offensichtlich ist Vλpfq ein- und Vλpfq ist n-dimensional, d.h. Vλpfq ist der ganze Raum V . Ist Bf pv1, . . . , vnq, so ist v1 P Vλpfq der bis auf skalare Vielfache eindeutig bestimmte Eigenvektor von f mitEigenwert λ, und Bf ist die zyklische Basis (nach Satz 13.1-5) des von vn erzeugten pf ℓλq-zyklischenUnterraums von V , der hier mit V identisch ist.

Was ist nun, wenn mehr als ein Jordanblock auftaucht?

13.2-7 Problem:

1. Sei Mf pBq diag tJλpk1q, Jλpk2qu und B pv1, . . . , vk1, vk11, . . . , vk1k2

q (diag tJλpk1q, Jλpk2qubezeichnet die Blockdiagonalmatrix, wobei Jλpk1q, Jλpk2q die Blocke auf der Diagonalen sind). Wassind die Eigenraume von f , und was ist Vλpfq? Bestimmen Sie eine Zerlegung von V in pf ℓλq-zyklische Unterraume!

2. Nun das Ganze fur mehrere Jordanblocke zu einem Eigenwert:Mf pBq J1 0 . . . 0 00 J2 0 0...

. . ....

0 Js1 00 0 . . . 0 Js

ÆÆÆÆÆ mit Ji Jλpkiq fur i 1, . . . , s.

3. Was ist mit einer Matrix Mf pBq diag tJλpk1q, Jµpk2qufur zwei verschiedene Skalare λ, µ P K?

13.2-8 Satz: Sei λ ein Eigenwert des Endomorphismus f von V . Dann ist Vλpfq ein f -invarianterUnterraum von V , der den Eigenraum Vλpfq enthalt.

13.2-9 Definition/Satz: Sei λ ein Eigenwert des Endomorphismus f von V und sei v ein verallge-meinerter Eigenvektor zu λ, d. h. v sei Element von Vλpfq. Sei p die kleinste naturliche Zahl, sodasspf ℓλqppvq 0 ist. Dann ist

B pf ℓλqp1pvq, pf ℓλqp2pvq, . . . , pf ℓλqpvq, veine Basis des von v erzeugten pfℓλq-zyklischen Unterraums von V . Wir nennen B den von v erzeugtenZykel verallgemeinerter Eigenvektoren von f , oder kurz λ-Zykel von f , und v heißt der Anfangs- undpf ℓλqp1pvq der Endvektor des Zykels.Man beachte die Reihenfolge, in der die Vektoren in B angeordnet sind. Der Anfangsvektor ist der letzteVektor!

13.2-10 Satz: Sei B ein Zykel verallgemeinerter Eigenvektoren zum Eigenwert λ von f . Dann ist Beine Basis des vom Anfangsvektor erzeugten pf ℓλq-zyklischen Unterraums W von V und dieser ist f -invariant. Die Einschrankung von f auf W besitzt genau einen eindimensionalen Eigenraum und dieserwird vom Endvektor des Zykels B erzeugt.

177

13.2-11 Satz: Sei B eine geordnete Basis von V . Dann ist B genau dann eine Jordanbasis von f , wennsie eine disjunkte Vereinigung von Zykeln verallgemeinerter Eigenvektoren von f ist.

Wir haben nun den grundlegenden Satz:

13.2-12 Satz: Sei f P EndKpV q, sodass χf ptq in Linearfaktoren zerfallt. Dann ist V die direkte Summeseiner verallgemeinerten Eigenraume:

V àλ

Vλpfq,wobei λ die Menge der Eigenwerte von f durchlauft.

Da verallgemeinerte Eigenraume alle f -invariant sind, konnen wir mit Korollar 8.3-5 eine Basis B von V sofinden, dassMf pBq Blockdiagonalform hat, wobei jeder Block auf der Diagonalen genau einem Eigenwertλ von f entspricht und die Matrix von der Einschrankung von f auf den verallgemeinerten EigenraumVλpfq ist: Wir brauchen nur Basen dieser Eigenraume zu einer Basis B von V zusammenzusetzen.

13.2-13 Korollar: Seien λ1, . . . , λk die verschiedenen Eigenwerte von f (so ist λi λj fur i j). Sei

Bi eine Basis des verallgemeinerten Eigenraums Vλipfq, B k

i1 Bi und sei fi die Einschrankung vonf auf Vλi

. Dann ist Mf pBq A1 0 . . . 0 00 A2 0 0...

. . ....

0 Ak1 00 0 . . . 0 Ak

ÆÆÆÆÆ ,wobei

Ai MfipBiq

ist.

13.3 Die Jordansche Normalform: Algorithmus

Wir wollen nun zu einem Algorithmus zur Berechnung der Jordannormalform und der zugehorigen Jor-danbasis eines Endomorphismus (einer Matrix) kommen, wobei wir immer voraussetzen wollen, dass dascharakteristische Polynom des Endomorphismus bzw. der Matrix in Linearfaktoren zerfallt. Im Hinblickauf Korollar 13.2-13 konnen wir sogar annehmen, dass

χf ptq pt λqnist, d. h. f genau einen Eigenwert λ mit Vielfachheit n besitzt.

13.3-1 Lemma: Sei J Jλpkq ein Jordanblock. Dann ist dim kerpJ λEqi i fur i 1, . . . , k und

dimkerpJ λEqi k fur i ¡ k.

Wir machen einige weitere Experimente mit Jordankastchen, um ein Konstruktionsprinzip fur die Jor-danform zu kommen:

178

13.3-2 Experiment: Betrachten wir die Matrix

A diag tJ2, J2, J2, J1, J1, J1, J1u ,wobei wir Ji Jλpiq gesetzt haben. So ist

A λ 1 0 0 0 0 0 0 0 00 λ 0 0 0 0 0 0 0 00 0 λ 1 0 0 0 0 0 00 0 0 λ 0 0 0 0 0 00 0 0 0 λ 1 0 0 0 00 0 0 0 0 λ 0 0 0 00 0 0 0 0 0 λ 0 0 00 0 0 0 0 0 0 λ 0 00 0 0 0 0 0 0 0 λ 00 0 0 0 0 0 0 0 0 λ

ÆÆÆÆÆÆÆÆÆÆÆÆÆÆ .Nun bestimmen wir:

1. Die Anzahl der Jordankastchen.2. Die Dimension des λ-Eigenraums VλpAq.3. Die Dimension von kerpA λEqi fur i 1, 2, 3, . . .. Wir schreiben diese als aufsteigende Folge von

naturlichen Zahlen:7, 10, 10, . . .

Wir stellen fest, dass die aufsteigende Folge der Unterraume kerpA λEqi mit i 2 stationar wird, furi 2 aber 10- und fur i 1 (Eigenraum) nur 7-dimensional ist. Die Differenz von 10 und 7 ist 3, unddas ist die Anzahl der 2 2-Kastchen J2. Jedes dieser Kastchen nimmt 2 Dimensionen weg, und fur die1 1-Kastchen bleiben 4 10 3 2 ubrig.Nun wiederholen wir das Experiment, indem wir in A die drei Kastchen J2 durch J3 ersetzen (was eine13 13-Matrix ergibt). Wir erhalten als aufsteigende Folge der Dimensionen:

7, 10, 13, 13, . . . ,

die mit i 3 stationar wird. Wir argumentieren: Da die Folge erst mit i 3 stationar wird, muss es J3’sgeben, und zwar 3 Stuck, die Differenz 13 10. Da 10 7 ebenfalls 3 ist, konnen keine J2’s vorhandensein. Nun ist 13 3 3 4, also muss es 4 Kastchen J1 geben.

13.3-3 Problem: Nun wiederholen wir das Ganze mit

B diag tJ7, J3, J3, J3, J3, J1, J1, J1, J1u .13.3-4 Lemma: Sei A eine Matrix in Blockdiagonalform, deren s Diagonalblocke Jordankastchen Ji Jλpiq sind (λ P K fest). Sei ni dimKpkerpAλEqiq, und ki sei die Anzahl der vorkommenden KastchenJi. Sei nr1 nr nr1. Dann gilt:

1.n1 k1 k2 . . . kr1 kr

n2 n1 k2 . . . kr1 kr

n3 n2 k3 . . . kr

......

...nr nr1 kr

179

2. Fur i 2, . . . , r istni ni1 ki ki1 kr.

3. Daraus lasst sich ki rekursiv aus den nj ausrechnen!

Daraus konnen wir nun folgenden Algorithmus zur Berechnung der Jordanform einer Matrix extrahieren,zumindest wenn sie existiert:

13.3-5 Prozedur p1q: Sei A eine n n-Matrix uber K, deren charakteristisches Polynom in Linear-faktoren zerfallt. Zur Ermittlung der Jordanschen Normalform von A fuhren wir nun folgende Schritteaus:

1. Wir ermitteln die Eigenwerte von A.

2. Zum Eigenwert λ P K berechnen wir ni dimkerpA λEqi fur i 1, 2, . . .. Beim ersten r mit

nr nr1 brechen wir ab, denn nach Lemma 13.3-4 bleiben die Dimensionen dann konstant.

3. Wir bilden das r-Tupel li ni ni1 fur i 1, 2, . . . , r (mit n0 0).

4. Wir bilden das r-Tupel ki li li1 fur i 1, 2, . . . , r, wobei wir lr1 0 setzten.

Dann ist die Jordanform von A die Blockdiagonalmatrix, bei der Jλpiq genau ki mal als Diagonalblockauftritt.

Wir wenden dieses Verfahren auf unser Beispiel im obigen Problem an:

13.3-6 Beispiel: SeiA diag tJ7, J3, J3, J3, J3, J1, J1, J1, J1u .

Wie wir gesehen haben, erhalten wir fur die ni das 7-Tupel

9, 14, 19, 20, 21, 22, 23

und damit fur die Differenzen li:9, 5, 5, 1, 1, 1, 1 .

Daraus berechnen sich die Differenzen ki als

4, 0, 4, 0, 0, 0, 1

d. h. k1 4 k3 und k7 1, k2 k4 k5 k6 0.

Es ist naturlich nicht sonderlich uberraschend hier, dass wir am Schluss in diesem Beispiel genau das wie-der herausholen, was wir vorne hineingesteckt haben. Unsere Matrix A hier ist eben schon in Jordanformgegeben!Aber wir wollten auch nur durch diese Untersuchung den allgemeinen Algorithmus herausfinden. Der Clouist eben, dass das Verfahren allgemein funktioniert. Die Zahlen ni als Dimensionen der Kerne kerpAλEqibzw. kerpfℓλqi konnen immer als Losungsgesamtheiten linearer homogener Gleichungssysteme bestimmtwerden (durch eine einfache Rangbestimmung der zugehorigen Matrix), und daraus erhalt man dann dieki auf vollig mechanischem Wege. Hier ist ein alternatives Verfahren:

180

13.3-7 Prozedur p2q: Wir malen uns zur Folge der ni ein Diagramm aus Kreuzen in der Ebene ineiner Art Gitter, und zwar in die erste Zeile n1 Kreuze, in die zweite l2 n2n1 Kreuze und in die i-teZeile li ni ni1 Kreuze.Wegen

li ki ki1 kr

erhalt man eine abfallende Folge naturlicher Zahlen, die sich wegen

l1 l2 ls pn1 0q pn2 n1q pnr nr1q nr

gerade zu nr dimVλpAq aufsummieren. Die Spalten des entstehenden Diagramms geben dann geradedie λ-Zykeln wieder: Eine Spalte mit k Kreuzen entspricht dann gerade einem Jordanblock Jλpkq derGroße k von A. Dieses Diagramm heißt Youngdiagramm zur Partition l1 ¥ l2 ¥ . . . ¥ lr von nr.Dabei ist eine Partition einer naturlichen Zahl n eine nirgends aufsteigende (endliche) Folge nichtne-gativer ganzer Zahlen. Wir sprechen dann einfach auch vom λ-Diagramm von A und bezeichnen es mitDλ.

Am besten sieht man dies alles wieder an Hand eines Beispiels ein:

13.3-8 Beispiel: Wir arbeiten wieder mit

A diag tJ7, J3, J3, J3, J3, J1, J1, J1, J1u .Dann ist Dλ das folgende Diagramm: und wir erhalten genau eine Spalte mit 7, vier Spalten mit 3 Kreuzen und vier Spalten mit einem Eintrag,wie gewunscht. Die unteren Spitzen der Spalten entsprechen dabei den Anfangs- und die Eintrage derersten Zeile den Endvektoren der λ-Zykeln.

Es erhebt sich nun naturlich die Frage, ob der Aufwand, den wir betrieben haben, berechtigt ist. DerAlgorithmus funktioniert naturlich fur beliebige quadratische Matrizen bzw. Endomorphismen, derencharakteristische Polynome in Linearfaktoren zerfallen.Wir konnen immer aus den Dimensionen ni der hoheren Kerne obige Konstruktionen ableiten. Abersind wir berechtigt, daraus den Schluss zu ziehen, dass die Jordanform existiert? Warum uberhaupt istdie Folge der li schwach fallend (d.h. steigt an keiner Stelle an)? Warum sollte der verallgemeinerteEigenraum VλpAq immer eine Basis aus verschiedenen Zykeln haben? Der nachste Satz ist wesentlich, umzu zeigen, dass es eine solche Basis tatsachlich gibt.

13.3-9 Satz: Sei f ein Endomorphismus von V und sei λ ein Eigenwert von f . Es seien λ-Zykeln Zi

von f alle mit derselben Lange t gegeben (1 ¤ i ¤ s), und es sei yi der Anfangsvektor von Zi. Ist dieMenge ty1, . . . , ysu linear unabhangig modulo kerpf ℓλqt1 (d.h. die Restklassen sind im Faktorraumlinear unabhangig), so ist

Z s¤i1

Zi

linear unabhangig. Insbesondere ist die Summe der von den Zi aufgespannten Unterraume direkt.

181

13.3-10 Korollar: Seien wie im vorigen Satz y1, . . . , ys Vektoren von kerpf ℓλqt, deren Restklassenim Faktorraum

kerpf ℓλqt kerpf ℓλqt1

linear unabhangig sind. Dann sind die von den yi erzeugten λ-Zykel paarweise disjunkt (d.h. ZiXZj Hfur i j).

Um nun eine Jordanbasis zu bestimmen, betrachten wir also hohere Kerne Ni kerpf ℓλqi (in derLiteratur findet man auch den Begriff Hauptraum) und setzen wieder ni dimNi. Wir holen zuerst nochein Resultat nach, das wir schon bei unseren Prozeduren zur Berechnung der Jordanschen Normalformbenutzt haben:

13.3-11 Lemma: Sei Nr Nr1. Dann ist Nr Nri fur alle naturlichen Zahlen i.

Daher durfen wir bei der Aufstellung der endlichen Folge der ni schon beim ersten Mal, wenn zweiaufeinanderfolgende Terme gleich werden, abbrechen. Man beachte, dass r im λ-Diagramm die Anzahlder Zeilen bezeichnet (siehe 13.3-5).

13.3-12 Prozedur pJordanbasisq: Die naturliche Zahl r sei wie im vorigen Lemma definiert. Wirfuhren nun die folgenden Schritte aus:

1. Wir besorgen uns eine Basis eines Komplements von Nr1 in Nr. Bestehe diese etwa aus den Vek-toren y1, y2, . . ., ykr

. (Dies konnen wir etwa dadurch erreichen, dass wir eine Basis des UnterraumsNr1 von Nr zu einer solchen von Nr erganzen.)

2. Fur 1 ¤ i ¤ kr ordnen wir im λ-Diagramm der i-ten Spalte von unten nach oben den Kreuzen dieElemente

yi, pf ℓλqyi, . . . , pf ℓλqr1yi

zu. Die Vektoren einer Spalte bilden dann einen λ-Zykel von f . Sei U1 die Summe der von diesenλ-Zykeln aufgespannten Unterraume der Dimension r. Wegen Satz 13.3-9 ist diese direkt und wirhaben genau kr direkte Summanden. Die pf ℓλqkyi mit i 1, . . . , kr, k 1, . . . , r bilden nun eineBasis von U1.

3. Die pkr 1q-te Spalte ist kurzer als alle vorherigen, etwa von der Lange t. Sei kt die Anzahl derSpalten der Lange t. Wir finden kt Basiselemente in einem Komplement von pU1 XNtq Nt1 inNt und nehmen die davon erzeugten λ-Zykeln von f . Diese erzeugen U2 und bilden eine Basis vonU2.

4. Wieder ist die pkr kt 1q-te Spalte kurzer als die vorhergehende. Sei ihre Lange etwa w undgebe es kw viele Spalten dieser Lange. Wir finden kw viele linear unabhangige Vektoren in einemKomplement von ppU1 U2q X Nwq Nw1 in Nw und bezeichnen den Unterraum der von denλ-Zykeln dieser Basiselemente aufgespannt wird mit U3. Wieder haben wir eine Basis von U3.

5. Wir fahren so fort, bis wir eine Basis von ganz Vλpfq konstruiert haben. Jedem Kreuz im λ-Diagramm ist nun genau ein Basiselement zugeordnet. Diese nummerieren wir nun durch, und zwarspaltenweise von oben nach unten und von links nach rechts. Dies ist dann unsere Jordanbasis.

13.3-13 Satz pJordansche Normalformq:1. Sei A eine n n-Matrix. Zerfallt das charakteristische Polynom von A in Linearfaktoren, so gibt

es eine invertierbare n n-Matrix P , sodass P1AP Jordanform hat.2. Sei f eine Endomorphismus des endlich dimensionalen K-Vektorraums V . Zerfallt das charakteri-

stische Polynom von f in Linearfaktoren, so besitzt V eine Jordanbasis bezuglich f .

182

In beiden Fallen ist die Jordansche Normalform bis auf die Reihenfolge der Jordankastchen eindeutigbestimmt.

Ist K algebraisch abgeschlossen, so trifft die Voraussetzung an das charakteristische Polynom fur allequadratischen K-Matrizen und alle Endomorphismen des K-Vektorraums V zu. Insbesondere ist C al-gebraisch abgeschlossen, so dass man dies auf komplexe Vektorraume anwenden kann. Hier ist nun einBeispiel:

13.3-14 Beispiel: Sei K Q und

A 2 1 0 10 3 1 00 1 1 00 1 0 3

ÆÆ .Dann ist

χAptq pt 2q3pt 3q,so dass A die Eigenwerte 2 mit Vielfachheit 3 und 3 mit Vielfachheit 1 hat. Daher ist V2pAq drei- undV3pAq eindimensional. Wir berechnen

dimpkerpA 2Eqq 4 rgpA 2Eq 4 rg

0 1 0 10 1 1 00 1 1 00 1 0 1

ÆÆ 4 2 2.

Und nun konnen wir die Jordansche Normalform schon hinschreiben. Das 2-Diagramm von A mussnamlich

D2 sein, da nach 13.3-7 die Anzahl der Kreuze durch dimpV2pAqq gegeben ist und die Anzahl der Kreuze inZeile 1 durch dimpV2pAqq 2. Das 3-Diagramm D3 besteht aus einem Kreuz. Also ist die Jordanformvon A die Matrix

J diag tJ2p2q, J2p1q, J3p1qu 2 1 0 00 2 0 00 0 2 00 0 0 3

ÆÆ .Jetzt wollen wir die Basiswechselmatrix ausrechnen: Dazu bestimmen wir erst eine Basis von V2pAq kerpA 2Eq2. pA 2Eq2 0 2 1 1

0 0 0 00 0 0 00 2 1 1

ÆÆ .Eine Basis von kerppA 2Eq2q ist etwa durch$''&''%1

000

ÆÆ ,0120

ÆÆ ,0102

ÆÆ ,//.//-gegeben. Der erste Vektor liegt in kerpA2Eq, nicht aber der zweite und der dritte. (Dies ist ein Beispielfur eine nicht angepasste Basis, siehe unten.) Wir konnen nun einen dieser Vektoren wahlen, die nicht in

183

kerpA 2Eq liegen, er spannt dann automatisch ein Komplement von V2pAq in V2pAq auf, da dieses nureindimensional ist. Wir wahlen

y1 0120

ÆÆ und berechnen

v1 pA 2Eqy1 1111

ÆÆ .Wir setzen v2 y1 und U1 xv1, v2y. Wegen

v3 1000

ÆÆ R U1

spannt v3 ein Komplement von U1 in V2pAq auf, und wir konnen daher pv1, v2, v3q als Jordanbasis vonV2pAq nehmen. Ordnet man die Basisvektoren den Kreuzen des 2-Diagramms zu, dann erhalt man

D2 ;

v1 v3v2

Wir berechnen noch eine Basis des Eigenraums V3pAq:v4 1

001

ÆÆ ,dann ist BA pv1, v2, v3, v4q die gewunschte Jordanbasis von V .Insbesondere ist

Q MidpE ,BAq 1 0 1 11 1 0 01 2 0 01 0 0 1

ÆÆ die Basiswechselmatrix und daher ist

Q1AQ J 2 1 0 00 2 0 00 0 2 00 0 0 3

ÆÆ .13.3-15 Definition: Sei V ein K-Vektorraum. Ein Fahne (englisch flag) der Lange k in V ist eineaufsteigende Kette

F : p0q U0 ¤ U1 ¤ ¤ Uk1 ¤ Uk ¤ V

von Unterraumen Ui von V . Eine Basis B pv1, . . . , vnq von V heißt an F angepasst , falls pv1, . . . , vmiq

eine Basis von Ui ist, wobei mi dimpUiq fur i 1, . . . , k gesetzt wird.

184

Die Unterraume kerpf ℓλqi des verallgemeinerten Eigenraums Vλpfq eines Endomorphismus f sind Bei-spiele von Fahnen, die zugehorige Jordanbasis ist angepasst. Sie ist aber nicht nur dieser Fahne angepasst,sondern auch der Fahne, die man erhalt, indem man den Aufspann von den Basisvektoren in den ersteni Spalten des λ-Diagramms nimmt, d. h. der ersten i λ-Zykeln von f .Hier ist ein weiteres Beispiel:

13.3-16 Beispiel: Als Vektorraum V nehmen wir den reellen Vektorraum aller Polynome in den Varia-

blen x, y uber R vom Gesamtgrad ¤ 2. So ist E p1, x, y, x2, y2, xyq eine Basis von V . Als Endomorphis-mus Dx von V nehmen wir Differenziation nach x, d. h. wir differenzieren ein Polynom nach x, indemwir y als Konstante ansehen, z. B.

fpx 2x2 3xy yq BBxpx 2x2 3xy yq 1 4x 3y.

Wir wollen eine Jordanbasis fur Dx finden.Erst berechnen wir eine Matrix fur Dx:

A MDxpEq 0 1 0 0 0 0

0 0 0 2 0 00 0 0 0 0 10 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0

ÆÆÆÆÆÆ Unmittelbar folgt nun

χDxptq χAptq t6,

und daher ist 0 der einzige Eigenwert von Dx.Wegen rgpAq 3 6 3 ist dimpV0pAqq 3. Wir haben

A2 pA 0 Eq 0 0 0 2 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0

ÆÆÆÆÆÆÆÆ ,und daher ist dimpkerpA 0 Eq2q 5. Wir schließen, dass das 0-Diagramm D0 von Dx das folgendeDiagramm ist: Jetzt konnen wir schon die Jordanform von A hinschreiben:

J JA 0 1 0 0 0 00 0 1 0 0 00 0 0 0 0 00 0 0 0 1 00 0 0 0 0 00 0 0 0 0 0

ÆÆÆÆÆÆ 185

Wir wollen aber auch eine Jordanbasis ausrechnen: Beachten Sie, dass pDx ℓ0q Dx ist. Um also einElement von kerpDxℓ0q3, das einen 0-Zykel der Lange 3 fur Dx erzeugt, mussen wir ein Polynom ppx, yqmit B2pBxq2 pppx, yqq 0

finden. Das Polynom x2 P E ist geeignet. So setzen wir y1 x2 und operieren mit Dx pDx ℓ0q, umden davon erzeugten 0-Zykel fur Dx zu berechnen.Wir erhalten

Dxpx2q BBxx2 2x

undD2

xpx2q 2.

Wir setzen v1 2, v2 2x und v3 x2.Von den restlichen Vektoren in E sehen wir, dass y2 xy im Kern von D2

x aber nicht im Kern von Dx

liegt. Mit Dxpxyq y haben wir den 0-Zykel v4 y, v5 xy konstruiert. Der einzige noch verbleibendeBasisvektor v6 y2 liegt in der Tat im Kern von Dx und ist daher als Vektor in der Jordanbasis von Dx

geeignet.Daher ist

J p2, 2x, x2, y, xy, y2qdie gesuchte Jordanbasis von Dx. Tragt man die Basisvektoren in das 0-Diagramm ein, so erhalt man ;

2 y y2

2x xy

x2

Hier ist noch eine einfache erste Anwendung der Jordanform: Eine quadratische Matrix A heißt nilpotent ,falls Ak die Nullmatrix ist fur ein k P N und unipotent , falls eine Potenz von A die Einsmatrix ist. Analogerklart man nil- und unipotente Endomorphismen. Unser Standardbeispiel einer nilpotenten Matrix ist

J0pnq 0 1 0 . . . 0 00 0 1 0 0...

.... . .

...0 0 0 1 00 0 0 . . . 0 10 0 0 . . . 0 0

ÆÆÆÆÆÆÆ .Die kleinste naturliche Zahl k, sodass Ak 0 ist, heißt Nilpotenzgrad von A.

13.3-17 Problem: Was kann eine nilpotente n n-Matrix fur Eigenwerte haben, und was ist daherihr charakteristisches Polynom? Kann man fur unipotente Matrizen eine ahnliche Aussage machen?

Hier ist eine kleine, aber wichtige Beobachtung:

13.3-18 Beobachtung: Sei R ein Ring, a, b P R. Ist ab ba, so gilt der binomische Lehrsatz, d.h.pa bqn n

i0

n

i

aibni.

Dies stimmt i.a. nicht mehr, wenn a und b nicht kommutieren. Obige Summe lasst sich besonders einfachauswerten, wenn eines der Ringelemente nilpotent ist. Ist z.B. b2 0, so kollabieren die meisten Termein der Summe, und wir erhalten: pa bqn an nan1b.

186

13.3-19 Lemma: Sei A P MnpKq in Jordanform. Dann ist A Summe einer Diagonalmatrix D DA

und einer nilpotenten Matrix N NA die kommutieren:

A D N mit DN ND.

13.3-20 Lemma: Seien A,N PMnpKq ahnlich und sei N nilpotent (unipotent). Dann ist A nilpotent(unipotent).

Damit erhalten wir den folgenden wichtigen Satz:

13.3-21 Satz pJordanzerlegungq: Sei A eine n n-Matrix uber K, deren charakteristisches Polynomin Linearfaktoren zerfallt. Dann gibt es eine diagonalisierbare Matrix S SA und eine nilpotente MatrixN NA mit

A S N und SN NS.

Die Zerlegung der Matrix A in obigem Satz heißt (additive) Jordanzerlegung von A. Fur regulare Matrizengibt es eine analoge Zerlegung in ein Produkt einer diagonalisierbaren und einer unipotenten Matrix, diekommutieren. Dies ist dann die multiplikative Jordanzerlegung von A P GLnpKq. Naturlich hat mananalog Jordanzerlegungen fur Endo- bzw. Automorphismen endlichdimensionaler Vektorraume.

13.4 Das Minimalpolynom

Im Cayley-Hamilton Theorem 13.1-9 haben wir gesehen, dass jeder Endomorphismus f eines endlichdi-mensionalen K-Vektorraums V sein charakteristisches Polynom χf ptq erfullt, d. h. wir haben

χf pfqpvq 0 fur alle v P V.Damit wird die Menge

If tpptq P Krts | ppfq 0uinteressant, und wir wollen diese im folgenden untersuchen. Wie immer haben wir analoge Resultate furquadratische Matrizen. Zuerst werden wir etwas Ringtheorie zur Verfugung stellen.

13.4-1 Definition pIdealq: Sei R ein Ring bzw. eine K-Algebra. Eine Teilmenge I H von R heißtRechtsideal , falls gilt:

1. a b P I fur alle a, b P I.2. ar P I fur alle a P I und r P R.

Linksideale werden analog definiert. Ein (zweiseitiges) Ideal ist dann eine Teilmenge von R, die zugleichLinks- und Rechtsideal ist. Wir schreiben I R, wenn I ein Ideal von R ist.

13.4-2 Bemerkung:

1. Jedes Ideal enthalt das neutrale Element der Addition, denn ist i P I, dann ist 0 i 0 P I.2. Sind a, b P I, dann ist auch a b P I, denn: b 0 b P I und daher a b a pbq P I.3. Ist I R ein Ideal, dann wird I zum Ring, indem man die die Addition und Multiplikation von R

auf I einschrankt. Ist J R ein Ideal, dass in I enthalten ist, dann ist J auch ein Ideal von I.

4. Ist R ein kommutativer Ring, so sind Ideale, Links- und Rechtsideale dasselbe.

Ahnlich wie bei Vektorraumen kann man nun Faktorstrukturen bilden. Die Beweise dazu unterscheidensich im wesentlichen nicht von denen fur Faktorraume.

187

13.4-3 Definition/Satz: Sei R ein Ring und I R. Dann wird durch

r s r s P I fur r, s P Reine Aquivalenzrelation definiert. Die Aquivalenzklasse von r P R bzgl. bezeichnet man mit r I, unddie Menge der Aquivalenzklassen mit RI tr I | r P Ru. RI wird zum Ring durchpr Iq ps Iq pr sq Ipr Iq ps Iq prsq IDiesen Ring nennt man Faktorring. Mie naturliche Projektion π ist gegeben durch π : R Ñ RI : r ÞÑr I. π ist ein Ringhomomorphismus.

13.4-4 Problem: Sei f : R Ñ S ein Ringhomomorphismus. Zeigen Sie, dass ker f ein Ideal von R ist,und dass f injektiv ist genau dann, wenn ker f p0q ist.

Wie schon in 10.1 angekundigt, gelten die Isomorphiesatze auch fur Ringe und deren Faktorstrukturen:

13.4-5 Problem: Zeigen Sie die Isomorphiesatze fur Ringe:

1. Sei f : R Ñ S ein Ringhomomorphismus, und I R ein Ideal, das im Kern von f enthalten ist.Dann gibt es genau einen Ringhomomorphismus f , der das folgende Diagramm kommutativ macht:

R S

RI -f

@@Rπ

f

,

Insbesondere gilt (mit I ker f), dass R ker f isomorph zu im f ist.

2. Sei R ein Ring, und I, J zwei Ideale von R. Dann sind I X J und I J ti j | i P I, j P Juebenfalls Ideale von R und es gilt

IpI X Jq pI JqJ.3. Sei R ein Ring, und I, J,K R Ideale mit K J I. Dann ist

IJ pIKqpJKq.13.4-6 Bemerkung: Ideale sind genau die Kerne von Ringhomomorphismen, denn: Jeder Kern einesRinghomomorphismus ist ein Ideal. Ist umgekehrt I ein Ideal eines Rings R, dann ist π : R Ñ RI einRinghomomorphismus, dessen Kern wiederum I ist. So ist jedes Ideal auch der Kern eines Ringhomo-morphismus.

13.4-7 Lemma: Sei f P EndKpV q. Dann ist If ein Ideal von Krts, das sogenannte Verschwindungs-ideal.

Wir benutzen nun eine wichtige Eigenschaft von Polynomen, die Ihnen noch von der Schule bekannt seinsollte, die Polynomdivision:

188

13.4-8 Satz pDivision mit Restq: Seien h, g P Krts, und sei deg g ¤ deg h. Dann gibt es Polynomeq, r P Krts mit deg r deg g, sodass

hptq gptqqptq rptqist. Das Polynom rptq ist der Rest bei der Polynomdivision.

Ein Polynomgptq α0 α1t αn1t

n1 αntn P Krts

heißt normiert, falls αn 1 ist. Im allgemeinen nennt man den Koeffizienten αn den fuhrenden Koeffizi-enten von g. Damit folgt unmittelbar:

13.4-9 Satz: Sei p0q I ein Ideal von Krts und sei p P I ein nichttriviales Polynom minimalen Gradesin I. Dann ist I pKrts und wir haben I rKrts fur ein r P Krts genau dann, wenn r βp fur eineKonstante 0 β P K ist. Daher gibt es genau ein normiertes Polynom q P I, sodass I qKrts ist.

Man nennt q den normierten Erzeuger von I. Ideale, die wie im Satz von einem Element erzeugt werden,heißen Hauptideale. Der Satz zeigt, dass alle Ideale von Krts Hauptideale sind. Ahnlich kann man diesauch fur Z und andere Euklidischen Ringe (siehe oben) zeigen.

13.4-10 Definition: Sei f P EndKpV q. Das eindeutig bestimmte normierte Polynom kleinsten Gradesin If heißt Minimalpolynom von f und wird mit µf ptq bezeichnet. Analog ist das Minmalpolynom µAptqeiner quadratischen Matrix A definiert.

So ist µf ptq das normierte Polynom kleinsten Grades mit µf pfq 0. Wegen If µf ptqKrts gilt:

13.4-11 Korollar: Sei p P Krts mit ppfq 0. Dann gibt es qptq P Krts, sodass

pptq qptqµf ptqist, d. h. das Minimalpolynom µf ptq teilt p. Insbesondere teilt das Minimalpolynom das charakteristischePolynom von f .

13.4-12 Satz: Die Minimalpolynome ahnlicher Matrizen stimmen uberein.

Zwei Endomorphismen f und g von V heißen konjugiert , falls f h1gh fur ein h P AutkpV q ist. ObigerSatz besagt dann auch, dass konjugierte Endomorphismen dasselbe Minimalpolynom haben. Und ist Aeine Matrix zu einer Basis von V zu f , so haben A und f dasselbe Minimalpolynom.Hier kommt nun der entscheidende Satz:

13.4-13 Satz: Sei f P EndKpV q. Dann ist ein Skalar λ genau dann Nullstelle des Minimalpolynomsµf ptq, wenn er Eigenwert von f ist. So stimmen die Nullstellen von χf ptq und µf ptq uberein.

13.4-14 Satz: Sei f P EndKpV q und zerfalle χf ptq in Linearfaktoren. Sei V V1 ` ` Vk eineZerlegung von V in f -invariante Unterraume Vi. Sei µi das Minimalpolynom von der Einschrankung fi

von f auf Vi fur i 1, . . . , k. Dann gilt: µf ptq teilt±k

i1 µiptq, und jedes µiptq teilt µf ptq.Sind daher die µiptq paarweise teilerfremd, so gilt:

µf ptq k¹i1

µiptq .Analog erhalt man:

189

13.4-15 Korollar: Sei

A J1 0 . . . 0 00 J2 0 0...

. . ....

0 Jk1 00 0 . . . 0 Jk

ÆÆÆÆÆ Blockdiagonalmatrix, und zerfalle χAptq in Linearfaktoren. Dann ist

µAptq k¹i1

µJiptq,

falls die µJiptq paarweise teilerfremd sind.

13.4-16 Problem: Was ist das Minimalpolynom eines Jordankastchens Jλpnq? Und von einer Block-diagonalmatrix

A diag tJλpmq, Jλpkqu?Und von einer Blockdiagonalmatrix

B diag tJλpmq, Jµpkqu ,fur λ µ P K?

Fur Endomorphismen, fur die eine Jordanbasis existiert, konnen wir das Minimalpolynom nun bestimmen:

13.4-17 Satz: Sei f P EndpV q, und sei

χf ptq pt λ1qn1pt λ2qn2 pt λkqnk ,

wobei die λi paarweise verschieden sind. Dann ist

µf ptq pt λ1qm1pt λ2qm2 pt λkqmk ,

wobei der Exponent mi fur 1 ¤ i ¤ k die kleinste naturliche Zahl s mit kerpf ℓλiqs kerpf ℓλi

qs1,d. h. die Große des großten Jordanblocks zum Eigenwert λi, ist. Insbesondere ist f diagonalisierbar genaudann, wenn

µf ptq pt λ1qpt λ2q pt λkqist.

Insbesondere ist also mi ¤ ni. Man erhalt den Exponenten mi als Lange des langsten pf λiq-Zyklusverallgemeinerter Eigenvektoren oder, was auf dasselbe heraus kommt, als Große des großten Jordanblocksvon f zum Eigenwert λi. Ist also

A diag tJλpk1q, Jλpk2q, . . .umit k1 ¥ k2 ¥ . . ., so ist

µAptq pt λqk1 d. h. der entsprechende Exponent m im Minimalpolynom ist k1.Spater werden wir diesen Satz noch verallgemeinern: Ein Polynom ist irreduzibel , falls es nicht als Produktzweier Polynome echt kleineren Grades geschrieben werden kann. So sind Polynome vom Grad einsirreduzibel, undK ist algebraisch abgeschlossen genau dann, wenn dies die einzigen irreduziblen Polynomesind (Konstanten gelten nicht als irreduzibel).

190

Jedes Polynom lasst sich dann bis auf skalare Faktoren eindeutig als Produkt irreduzibler Polynomeschreiben (diese sind also fur Krts, was Primzahlen fur Z sind). Der Satz lautet dann, dass das Minimal-polynom und das charakteristische Polynom dieselben irreduziblen Faktoren haben, nur beim Minimal-polynom eventuell mit geringerer Multiplizitat.

13.5 e hoch Matrizen

In diesem Abschnitt sollen kurz eine Anwendung der Jordanform auf Systeme linearer Differenzialglei-chungen vorgestellt werden. Dies erweitert unsere Diskussion in Abschnitt 11.3. Die Vorgehensweise wirddabei nur angerissen, wir verzichten weitgehend auf Beweise und Details.Wir beginnen mit einer komplexen n n-Matrix A pαijq, und komplexen Zahlen βj , γj fur j 1, . . . , n.Wir suchen auf R einmal stetig differenzierbare komplexwertige Funktionen yjptq, die folgenden Bedin-gungen genugen:

D : y1jptq n

k1

αjkykptq γj

undA : yjp0q βj .

Wir nennen dies die Anfangswertaufgabe A fur das System D, da wir uns die Variable t als Zeit vorstellen,und dann die Anfangswerte zum Zeitpunkt t 0 vorgegeben sind.In Matrizenform ist das dann:

D : y1ptq Ayptq c und A : yp0q b

mit

y1ptq y11ptq...y1nptqÆ , yptq y1ptq...

ynptqÆ , b β1

...βn

Æ und c γ1

...γn

Æ .Wir beschranken uns hier auf den Spezialfall c 0 P Cn (den sogenannten homogenen Fall) und betrach-ten zunachst n 1. Offensichtlich ist y λeαt eine Losung von D (mit α α11), wobei λ eine Konstanteist. Die Anfangsbedingung A : yp0q β (b pβq P C1) impliziert dann λ β und wir haben yptq βeαt

als eindeutige Losung unseres Anfangswertproblems gefunden. In 11.3 hatten wir gesehen, wie wir dieLosungsgesamtheit von D finden konnen, unter der Zusatzvoraussetzung, dass A diagonalisierbar ist.Das heißt namlich dann, dass man das System entkoppeln und auf n Differentialgleichungen der Formy1ptq λiyptq (wobei die λi die Eigenwerte von A sind), zuruckfuhren kann.Sei also momentan A diag tα1, . . . , αnu. Als Losungen des Anfangswertproblems erhalten wir dann:

yptq β1eα1t

...

...βne

αnt

ÆÆÆÆ eα1t

eαnt

. . .

eαnt

ÆÆÆ β1

...

...βn

ÆÆÆÆ .Hier ist eine Interpretation dieser Formel: Die allgemeine Exponentialfunktion kann man auch uber einePotenzreihe definieren:

eλ 8i0

λi

i!

191

fur λ P C. Im Ausdruck auf der rechten Seite konnen wir nun λ durch ein beliebiges Element eines Ringesersetzen, in dem die ganzen Zahlen invertierbar sind, solange wir einen vernunftigen Konvergenzbegriffhaben, um unendliche Summen zu erklaren. Fur die Matrix A oben gilt aber:

m

i0

Ai

i! diag

#m

i0

αi1

i!, . . . . . . ,

m

i0

αin

i!

+,

was naturlich beim Grenzubergang mÑ8eA ediagtα1,...,αnu diag teα1 , . . . , eαnu

plausibel erscheinen lasst. Der hier zugrunde gelegte Konvergenzbegriff ist der komponentenweisen Kon-vergenz:Eine Folge von Matrizen konvergiert gegen eine Grenzmatrix genau dann, wenn die Folge der ij-Eintrageder Matrizen gegen den ij-Eintrag der Grenzmatrix konvergiert fur jedes Indexpaar ij. Damit lasst sichdie Losung unseres Anfangwertproblems durch folgende einfache Formel beschreiben:

yptq eAtb.

Nun, da steht auch die Losung des allgemeinen Problems, d.h. wenn wir nicht mehr voraussetzen, dassdie Matrix A diagonalisierbar ist. Dann beschreibt obige Gleichung die eindeutige Losung des homogenenAnfangswertproblems oben. Um das zu verstehen, mussen wir noch etwas arbeiten.Mit einem Ausdruck der Form

Bm m

i0

Ai

i!

ist offensichtlich viel schwerer umzugehen, wenn A keine Diagonalmatrix ist.Auch ist es von vornherein alles andere als klar, ob die Folge der Matrizen Bm fur m Ñ 8 komponen-tenweise konvergiert, und selbst wenn, dann ist die Grenzmatrix noch lange nicht konkret ausgerechnet.Zunachst drehen wir etwas am Konvergenzbegriff. Wir fuhren einen scharferen Grenzwertbegriff ein, dersich zur komponentenweise Konvergenz verhalt wie gewohnliche zur gleichmaßigen Konvergenz bei Folgenvon Funktionen.Was heißt das, dass eine Folge von Objekten konvergiert? Das bedeutet doch, dass, egal wie klein maneinen Abstand ε vorgibt, alle Folgenglieder ab einem N P N (das vom gewahlten Abstand abhangt)weniger als ε voneinander entfernt sind. Und ein Objekt heißt dann Grenzwert der Folge, wenn sich alleFolgenglieder nach dem N -ten in weniger als ε-Entfernung zum Grenzwert aufhalten.Um das definieren zu konnen, braucht man zuerst ein Konzept der Nahe. Dies geschieht fur Vektorraume(und K-Algebren), indem man eine Lange von Vektoren definiert und dann daraus den Abstand zweierVektoren als Lange ihrer Differenz definiert. (Dies ist ein geometrisches Ingredient. Bisher haben wir unsexklusiv mit Algebra beschaftigt. Geometrie hat aber mit Messen zu tun, also z.B. mit dem Messen derLange von Vektoren etc., wie wir dies im letzten Kapitel gesehen haben.)Auf einem normierten Vektorraum konnen wir Konvergenz und Grenzwerte definieren und zwar genauso, wie wir es gewohnt sind:

13.5-1 Definition: Sei V ein normierter Vektorraum mit Norm ‖‖ (siehe Definition 9.0-1), und seiv pviqiPN eine Folge von Vektoren in V . Dann heißt v Cauchyfolge (kurz CF ), falls gilt:ε ¡ 0 DN P N k, l ¡ N : ‖vk vl‖ ε.

Der Vektor v heißt Grenzwert oder Limes der Folge v, falls gilt:ε ¡ 0 DN P N k ¡ N : ‖vk v‖ ε.

192

Cauchy, Augustin Louis Baron (1789-1857), franzosischer Mathematiker und Physiker, versuchte, diehohere Mathematik exakt zu begrunden. Er hatte uber 800 Publikationen, unter anderem in der Theorieder Differentialgleichungen (Cauchy-Riemann-DGL), Theorie der unendlichen Reihen (Cauchysches Kon-vergenzkriterium), Funktionentheorie (Cauchysche Integralgleichung), Zahlen-, Determinanten-, Wahr-scheinlichkeitstheorie und Himmelsmechanik.Eine Folge, die einen Grenzwert v besitzt, heißt konvergent . Wir schreiben dann

limiÑ8pviq v,

um den Grenzwert v der Folge zu bezeichnen. Jede konvergente Folge in V ist CF aber nicht umgekehrt.Ist jede Cauchyfolge in V konvergent, so heißt V vollstandig. Ein vollstandiger normierter K-Vektorraumheißt Banachraum.Banach, Stefan (1892-1945), war polnischer Mathematiker. Er wurde hauptsachlich fur seine grundle-genden Arbeiten in der Funktionalanalysis bekannt. Insbesondere fuhrte er Banachraume ein und liefertewichtige Beitrage zur reellen Analysis, Orthogonalreihen und Masstheorie.Banachraume brauchen nicht endlich dimensional zu sein. Gerade die wichtigsten Banachraume sindVektorraume reeller oder komplexer Funktionen und sind unendlich dimensional. Wir beschaftigen unshier allerdings ausschließlich mit endlich dimensionalen Banachraumen. Hier sind einige grundlegendeFakten (ohne Beweis):

13.5-2 Fakt:

1. Jeder endlich dimensionale normierte Raum ist vollstandig.

2. Sei V endlich dimensional, und seien ‖‖ und ‖‖1 zwei Normen auf V . Konvergiert eine Folge pviqgegen v im Sinne der Norm ‖‖, dann auch im Sinne der Norm ‖‖1 und umgekehrt. Alle Normenauf V liefern also denselben Konvergenzbegriff.

13.5-3 Fakt: Konvergenz bezuglich einer Vektorraumnorm auf V impliziert komponentenweise Kon-vergenz.

Die Menge der n n-Matrizen uber K bildet nicht nur einen K-Vektorraum, sondern tragt auch dieStruktur einer K-Algebra (siehe 5.5-8). Eine Vektorraumnorm auf MnpKq und die zugehorige Abstands-funktion kann die Multiplikation zu einer stetigen Abbildung machen (vonMnpKqMnpKq nach MnpKq)oder nicht.

13.5-4 Definition: Sei K R oder K C und sei A eine K-Algebra. Eine Norm ‖‖ auf A heißtAlgebrennorm, falls sie eine Vektorraumnorm im Sinne von Definition 13.5-1 ist und zusatzlich gilt:

‖AB‖ ¤ ‖A‖ ‖B‖ A,B P A.

Ist A vollstandig bezuglich einer Algebrennorm, so spricht man von einer Banachalgebra. Insbesonderesind also endlich dimensionale Vektorraume mit Algebrennorm Banachalgebren.

13.5-5 Fakt: Auf MnpKq definieren wir fur 1 ¤ p ¤ 8 eine Norm durch

‖A‖p n

i,j1

|αij |p 1

p

fur A pαijq. Fur 1 ¤ p ¤ 2 sind dies Algebrennormen.

Jetzt sind wir in der Position zu zeigen, dass man beliebige quadratische komplexe Matrizen exponenzierenkann, wir brauchen lediglich die Konvergenz bezuglich irgendeiner Algebrennorm zu zeigen.

193

13.5-6 Satz: Seien A,B PMnpCq und sei P P GLnpCq.1. Der Grenzwert der Folge

Sk k

i0

Ai

i!

existiert bezuglich jeder Algebra-Norm auf MnpCq und auch komponentenweise. Er wird mit

eA 8i0

Ai

i!

bezeichnet.

2. Es gilt

P1eAP eP1AP .

3. Ist AB BA, so gilt:eA eB eAB eB eA.

4. eA ist invertierbar mit peAq1 eA.

5. Sind λ1, . . . , λn die Eigenwerte von A, so hat eA die Eigenwerte eλ1 , . . . , eλn .

6. detpeAq etrpAq.7. Sei A diag tB1, . . . , Bsu in Blockdiagonalform mit Diagonalblocken Bi. Dann ist eA ebenfalls in

BlockdiagonalformeA diag

eB1 , . . . , eBs

(mit Diagonalblocken eBi , ( i 1, . . . , s).

In Teil 3 des Satzes brauchen wir wirklich die Bedingung AB BA und diese kann auch nicht abge-schwacht werden (etwa zu eAeB eBeA), wie Beispiele zeigen.Hier ist nun ein Verfahren, wie wir eA mit Hilfe des Satzes oben eA konkret berechnen konnen: Wirnutzen aus, dass C nach dem Hauptsatz der Algebra algebraisch abgeschlossen ist, und daher A aufJordanform gebracht werden kann. Dann zerlegen wir diese gemaß 13.3-19 als Summe einer Diagonal-und einer nilpotenten Matrix. Da diese kommutieren, konnen wir Teil 3 des obigen Satzes 13.3-19anwenden. Wie wir Diagonalmatrizen zu exponenzieren haben, wissen wir. Fur nilpotente Matrizen habenwir offensichtlich:

13.5-7 Lemma: Sei N eine quadratische nilpotente Matrix vom Nilpotenzgrad k. Dann ist

eN 8i0

N i

i! k1

i0

N i

i!.

13.5-8 Prozedur: Sei A PMnpCq. Dann fuhrt man zur Berechnung von eA folgende Schritte aus:

1. Zuerst bringen wir A auf Jordanform, d.h. wir berechnen eine Matrix P P GLnpCq, sodass

P1AP J1 0 . . . 0 00 J2 0 0...

. . ....

0 Js1 00 0 . . . 0 Js

ÆÆÆÆÆ ist, wobei Ji ein Jordanblock ist.

194

2. Sei Ji Jλpkq ein Jordanblock. Sei außerdem

N 0 1 0 . . . 0 00 0 1 0 0...

.... . .

...0 0 0 1 00 0 0 . . . 0 10 0 0 . . . 0 0

ÆÆÆÆÆÆÆ .So gilt Jλpkq λE N und λE N N λE. Nach Satz 13.5-6 und Lemma 13.5-7 ist

eJi eλEN eλEeN eλ 1 1 12!

13!

. . . 1pk1q!0 1 1 1

2!. . . 1pk2q!

.... . .

. . .. . .

. . ....

0 . . . 0 1 1 12!

0 . . . 0 0 1 10 . . . 0 0 0 1

ÆÆÆÆÆÆÆ .3. Nach Satz 13.5-6, Teile 2 und 7 haben wir dann

eA P

eJ1 0 . . . 0 00 eJ2 0 0...

. . ....

0 eJs1 00 0 . . . 0 eJs

ÆÆÆÆÆ P1.

Haben wir nun unser Problem vom Anfang des Abschnitts fur Systeme linearer Diffenzialgleichungengelost? Haben wir noch nicht ganz! Wir hatten herausgefunden, dass das homogene Anfangswertproblem

DA : y1ptq Ayptq, yp0q b

die eindeutige Losungyptq eAt b

hat. Hier ist t eine Variable. Eigentlich ist also eAt gar keine komplexe Matrix mehr, sondern mussvielmehr als eine Matrix uber einem großeren Bereich, etwa dem rationalen Funktionenkorper K Cptqaufgefasst werden. Der ist aber nicht algebraisch abgeschlossen (das Polynom T 2 t P KrT s hat etwakeine Nullstelle in K). Man sieht leicht, dass die Matrix At uber K in der Tat i. a. keine Jordanform hat.Wir konnen uns aber anders behelfen.

13.5-9 Prozedur: Zunachst fuhren wir den 1.Schritt von Prozedur 13.5-8 aus und erhalten die Jor-

danform JA P1AP von A. Dann ist aber P1tAP tP1AP tJA und daher genugt es nach Satz13.5-6 die Matrizen etJi fur die Jordanblocke Ji von A zu berechnen. Sei etwa wieder Ji Jλpkq. Wirhaben dann mit N wie in 13.5-8

etJi eλtEtN eλtEetN eλt 1 t t2

2!t3

3!. . . tk1pk1q!

0 1 t t2

2!. . . tk2pk2q!

.... . .

. . .. . .

. . ....

0 . . . 0 1 t t2

2!

0 . . . 0 0 1 t

0 . . . 0 0 0 1

ÆÆÆÆÆÆÆÆ .195

Nun erhalten wireAt P diag

etJ1 , . . . , etJs

(P1.

Viele Beispiele aus der Physik (z.B. mechanische Schwingungen eines Systems von endlich vielen Mas-sepunkten, induktiv gekoppelte elektrische Schwingkreise) fuhren auf Systeme linearer Differentialglei-chungen, die hohere Ableitungen involvieren (meistens auch die zweite). Diese lassen sich aber auf unsereSituation zuruckfuhren:

13.5-10 Fakt: Seien Aj P MnpCq fur 0 ¤ j ¤ m 1 und bj P Cn vorgegeben. Dann hat die homogeneAnfangswertaufgabe

DA : ypmqptq m1

j0

Ajypjqptq, ypjqp0q bj

mit j 0, . . . ,m 1 genau eine Losung yptq, die man wie folgt erhalt:Wir setzen

zptq yptqy1ptq

...

ypm1qÆÆÆ und

C 0 E 0 . . . 0 00 0 E 0 0...

.... . .

. . ....

...

0 0 0. . . E 0

0 0 0 . . . 0 E

A0 A1 A2 . . . Am2 Am1

ÆÆÆÆÆÆÆÆ .Die eindeutige Losung von DA ergibt sich dann als eindeutige Losung des Anfangswertproblems

z1ptq Czptq mit zp0q b0...

bm1

Æ .(Hier setzen wir die Vektoren ypjqptq und die bj zu

”großen“ Vektoren zptq und zp0q zusammen).

13.6 Lineare Schwingungen ohne Reibung

Als eine Anwendung der Theorie linearer Differentialgleichungen wollen wir ein Problem aus der Physikbetrachten.Gegeben sei eine Kette von n Masseteilchen m1,m2, . . . ,mn (hierbei bezeichne mi auch gleich die Massedes i-ten Teilchens), die durch (als masselos betrachtete) Federn miteinander verbunden sind. Dabei isteiner der beiden Endpunkte der Kette an einer Wand befestigt. Fur n 3 etwa sieht die Anordnung wiefolgt aus |

©|©|196

©

Diese Anordnung kann zum Beispiel als Simulation eines an einem Endpunkt an der Wand befestigtenelastischen Bandes betrachtet werden, indem man die Distanz (Lange der Federn) gegen 0 und die Zahln der Masseteilchen gegen unendlich gehen lasst.Wir wollen das Schwingungsverhalten der Anordnung betrachten. Dabei wollen wir das System soweitals moglich verallgemeinern, um somit anhand des konkret vorgegebenen Systems eine moglichst großeKlasse von physikalischen Situationen zu beschreiben.Wie sieht die mathematische Beschreibung der Versuchsanordnung aus? Relevant ist hierbei die Beschrei-bung der Ortskoordinaten xiptq der mi zur Zeit t. Dabei nehmen wir an, dass das Band nicht seitlichangestoßen wird. Es ist also nur eine vertikale Auslenkung der Massen moglich, d. h. wir konnen uns aufeine Ortskoordinate fur jedes i beschranken.Nach Newton wird nun allgemein die Ortsbahn einer Masse m beschrieben durch

f m a,wobei f die auf m wirkende Kraft ist und a ihre Beschleunigung.Welche Krafte wirken auf mi? Zum einen wirkt eine konstante externe Kraft ki, in unserem Falle dieGravitation. Als nachstes wirkt eine Kraft proportional zur Entfernung zu einem festen Punkt pi, wirschreiben sie als ciipxiptq piq.In unserem Falle ist cii 0 fur i 1 und wird fur i 1 durch die Feder zwischen m1 und dem oberenEndpunkt der Kette bestimmt. Allgemein kann man

cii ¥ 0

annehmen (ansonsten wurde eine abstoßende Kraft wirken, die das gesamte System instabil werden lasst).Schließlich wirken anziehende Krafte zwischen den Massen, die proportional zu den Abstanden zwischenden Massen sind. Wir schreiben cijpxiptq xjptqqfur die von mj auf mi ausgeubte Kraft mit cij ¥ 0.Wir erhalten die Gleichungen

mix2i ptq ciipxiptq piq

j i

cijpxiptq xjptqq ki.

Wir konnen nun die konstanten Terme und die zu den einzelnen i’s gehorenden Terme zusammenfassenund definieren d P Rn mit Eintragen

di ciipi ki

sowie M pmijq, A paijq PMnpRq mit Eintragen

mij δijmj ,

aii n

k1

cik, aij cij i j.

Betrachten wir die Koordinaten xiptq als Eintrage eines n-dimensionalen Vektors xptq, so konnen wirobige Gleichungen zusammenfassen zu

Mx2ptq Axptq d.Um die Bewegungsgleichungen zu erhalten, mussen wir insbesondere die Matrix A untersuchen. Zuerstzwei Beobachtungen:

197

13.6-1 Beobachtung: Die Krafte zwischen zwei Massen werden durch eine Feder vermittelt. EineFeder ubt aber an ihren Enden Krafte gleicher Große in entgegengesetzter Richtung aus. Da auch dieDifferenzen pxiptq xjptqq und pxjptq xiptqq von gleicher Große aber entgegengesetzten Vorzeichenssind, muss

aij cij cji aji

gelten. D. h. A ist symmetrisch.Weiter gilt fur die Zeilensummen

j

aij aii j i

aij j

cij j i

cij cii ¥ 0.

13.6-2 Definition: Eine Matrix A paijq heißt Oszillationsmatrix , falls die folgenden Eigenschaftenerfullt sind:

1. aij aji ¤ 0 fur i j (insbesondere ist A symmetrisch),

2.°j

aij ¥ 0.

Unsere Matrix A ist also eine solche Oszillationsmatrix.Nun wollen wir uns das Zusammenspiel zwischen Mathematik und physikalischer Realitat etwas naheranschauen. Hierzu definieren wir uns auf der Menge t1, . . . , nu eine Aquivalenzrelation A durch

j A j j P t1, . . . , nuund j A i fur j i, falls es eine Kette

j j1 j2 . . . jr i

gibt mitajρjρ1

0 fur alle 1 ¤ ρ ¤ r 1.

Die Aquivalenzklassen von A heißen die Komponenten von A.Man sieht nun sofort, dass bei entsprechender Anordnung der Massen

A A1

A2

. . .

As

ÆÆÆ ist, wobei gilt: A besitzt s Komponenten Ki mit ni |Ki| und Ai PMni

pRq. Bei der Untersuchung vonOszillationsmatrizen kann man sich auf solche mit einer einzigen Komponente beschranken.Die physikalische Interpretation der Komponenten ist, dass es genau dann eine (evtl. indirekte) elastischeVerbindung zwischen mi und mj gibt, falls i und j in derselben Komponente liegen, in unserem Beispielhat A nur eine Komponente.

13.6-3 Definition: Wir nennen eine Komponente Ki frei , falls alle Zeilensummen von Ai identisch 0sind, und gebunden, falls sie nicht frei ist. Eine Komponente ist genau dann frei, wenn cjj 0 ist fur allej P Ki.

Physikalisch bedeutet dies, dass die Masseteilchen (bis auf konstante Krafte) nur Kraften unterworfensind, die sie gegenseitig aufeinander ausuben. Man nennt ein solches System ein abgeschlossenes System.

198

Insbesondere gelten fur die Menge der Masseteilchen zu einer freien Komponente diverse Erhaltungssatzeder Physik.Nun wollen wir Eigenschaften von Oszillationsmatrizen untersuchen, um die Bewegungsgleichungen unse-res Problems zu finden. Wie schon oben erwahnt, konnen wir uns dabei auf Oszillationsmatrizen mit nureiner Komponente beschranken. Sei fur den Rest des Kapitels A paijq PMnpRq eine Oszillationsmatrixmit nur einer Komponente. Bevor wir den Hauptsatz formulieren, einige Fakten uber A.

13.6-4 Fakt: Sei M eine symmetrische, reelle Matrix und D eine Diagonalmatrix mit positiven Ein-

tragen auf der Hauptdiagonalen. Dann ist D1M uber R diagonalisierbar. Insbesondere besitzt D1M

nur reelle Eigenwerte.

Dies wurde im Zuge der Untersuchungen euklidischer Vektorraume bewiesen.

13.6-5 Lemma: Sei A eine Oszillationsmatrix mit nur einer Komponente.

1. Die Eigenwerte von A sind nicht negativ.

2. Ist die Komponente von A gebunden, so sind die Eigenwerte von A positiv.

3. Ist die Komponente von A frei, so ist 0 einfacher Eigenwert von A.

13.6-6 Korollar: Sei A Oszillationsmatrix und D Diagonalmatrix mit positiven Eintragen auf derHauptdiagonalen. Dann besitzt DA nur nicht-negative Eigenwerte. A und DA besitzen dieselben Ei-genraume zum Eigenwert 0.

Fur den nachfolgenden Satz benotigen wir noch 2 allgemeine Resultate.

13.6-7 Lemma: Seien X,Y, Z, U PMnpKq fur einen Korper K und gelte XZ ZX sowie detpXq 0,dann gilt

det

X Y

Z U

detpXU ZY q.13.6-8 Lemma: Sei X PMnpCq. Wir setzen

X 0 E

X 0

und J

0 10 0

1. Ist χXptq das charakteristische Polynom von X, so ist χXptq χXpt2q das charakteristische Poly-

nom von X.Sind a1, . . . , an die Eigenwerte von X (mit Vielfachheiten), so sind ?a1, . . . ,?an die Eigenwerte

von X.2. Sei X diagonalisierbar mit Eigenwerten a1 . . . ar 0 und aj 0 fur j ¡ r. Dann existiert

T P GL2npCq mit

T1XT J

. . .

J ?ar1?ar1

. . . ?an?an

ÆÆÆÆÆÆÆÆÆÆÆÆ ,199

wobei J r-mal vorkommt

13.6-9 Satz: Das Differenzialgleichungssystem

Mx2ptq Axptq dmit M und d wie oben, wird wie folgt gelost.

1. Ist die Komponente von A gebunden, so existiert eine eindeutige Gleichgewichtslage w A1d. Seipv1, . . . , vnq eine Basis aus Eigenvektoren von M1A, sodass vi ein Eigenvektor zum Eigenwertω2

i ist. Dann ist die allgemeine Losung des Differenzialgleichungssystems gegeben durch

xptq w n

k1

pλk cosωkt µk sinωktqvk

mit λ, µ P R. Die Losung xptq ist durch die Vorgabe von xp0q und x1p0q eindeutig bestimmt.

2. Ist die Komponente von A frei, so sei pf, v2, . . . , vnq wiederum eine Basis aus Eigenvektoren vonM1A (jeweils zum Eigenwert ω2i ) mit f 1

...1

Æ . Sei m °j

mj die Summe aller Massen und

k die Summe aller Eintrage von d. Wir definieren den Schwerpunkt des Systems durch sptq 1m

°j

mjxjptq 1mxptqtMf . Dann gilt sptq k

2mt2 s1p0qt sp0q. Die allgemeine Losung des

Differenzialgleichungssystems ist gegeben durch

xptq sptqf v n

j1

pλj cosωjt µj sinωjtqvj

mit λ, µ P R, wobei v ein konstanter Vektor ist. Wieder ist xptq durch die Vorgabe von xp0q undx1p0q eindeutig bestimmt.

13.6-10 Bemerkung: Der Schwerpunkt eines freien Systems vollfuhrt also einen freien Fall wahrenddas System um ihn mit harmonischen Schwingungen oszilliert.Die auftretenden ωi nennen wir die Eigenfrequenzen des Systems.

13.7 Motivation

Mit der Jordanschen Normalform haben wir in jeder Ahnlichkeitsklasse von n n-Matrizen spezielleMatrizen entdeckt, die besonders einfach strukturiert sind: Blockdiagonalmatrizen von Jordanblocken.Dies lost das Problem, Normalformen von Matrizen zu finden oder, aquivalent dazu, Basen von endlichdimensionalen Vektorraumen zu finden, die sich bezuglich eines gegebenen, festen Endomorphismus vonV besonders

”gutartig“ verhalten. Die Sache hat nur einen Haken: Der gewahlte Grundkorper muss

algebraisch abgeschlossen sein, damit fur jeden Endomorphismus von V eine solch”gutartige“ Basis von

V existiert. Fur einen einzelnen Endomorphismus braucht man, dass sich sein charakteristisches Polynomin Linearfaktoren zerlegen lasst.Was ist also zu tun, wenn der zugrundeliegende Korper nicht algebraisch abgeschlossen ist, z. B. wenn essich um den Korper Q der rationalen Zahlen handelt?

200

Hier mussen wir wesentlich weiter ausholen und werden im Zuge der Losung dieses Problems ein we-sentlich allgemeineres Problem losen: Wir werden die endlich erzeugten Moduln uber Hauptidealringenklassifizieren.Hier ist die Grundidee, wie das funktioniert:Sei also:

K KorperV K-Vektorraum, dimK V n 8f P EndKpV q fester Endomorphismus.

Sei R Krts der Polynomring uber K in der Variablen t. Krts ist ein Beispiel fur einen Hauptidealring(vergleiche 13.4-9).

Beachte: f P EndKpV q ñ f i f f . . . flooooooomooooooonimal

P EndKpV q.Setze: f0 idV (klar: f1 f). EndKpV q ist K-Algebra (siehe 5.5-7), d. h. jede Linearkombination vonEndomorphismen von V ist wieder ein Endomorphismus von V , insbesondere ist

n

i0

αifi α0 idV α1f α2pf fq . . . αnpf . . . floooomoooon

nmal

qein Endomorphismus von V ( fur α0, α1, . . . , αn P K).Mit anderen Worten:Fur jedes Polynom pptq α0 α1t . . . αnt

n P Krts haben wir einen Endomorphismus

ppfq α0f0 α1f α2f

2 . . . αnfn

von V .

13.7-1 Problem: Zeigen Sie: Die Abbildung

Ef : Krts Ñ EndKpV q : pptq ÞÑ ppfq P EndKpV qist ein K-Algebra-Homomorphismus.

Dies definiert eine Operation von Krts auf V , d. h. eine”skalare Multiplikation“

Krts V Ñ V : ppptq, vq ÞÑ pppfqqpvq P V.13.7-2 Problem: Zeigen Sie, dass die abelsche Gruppe pV,q zusammen mit der skalaren Multiplikation

Krts V Ñ V,

die wir oben definiert haben, die Vektorraumaxiome aus Definition 4.1-1 erfullt mit der Ausnahme, dassKrts kein Korper ist!

Man spricht von einem Krts-Modul V (exakte Definition folgt spater). Wir werden sehen: Diese Krts-Moduln haben eine besonders schone Struktur.

Klar: Ein Krts-Modul V ist zugleich ein K-Vektorraum, einfach durch die Einschrankung der Operationvon Krts auf V auf die konstanten Polynome (die gerade K sind).

13.7-3 Idee: Untersuche Krts-Moduln, die als K-Vektorraume endlich dimensional sind.

201

13.7-4 Ziel: Wir klassifizieren alle Krts-Moduln V mit dimKpV q 8. Bzw. allgemeiner: Alle Krts-Moduln.

Was heißt das??

13.7-5 Klassifikationsproblem:Gegeben sei eine (algebraische, topologische, geometrische, analytische. . . ) Struktur durch Axiome. Wirhaben eine Definition von

”nicht wesentlich verschiedenen“ Objekten, die diesen Axiomen genugen, durch

Isomorphismen (bzw. allgemeiner konnen wir Objekte dieser Struktur durch strukturerhaltende Abbil-dungen, sogenannte Morphismen, miteinander vergleichen. Solche Strukturen mit strukturerhaltendenAbbildungen heißen Kategorien).Die Klassifikation aller Objekte, die den gegebenen Axiomen genugen, beinhaltet dann eine Liste vonObjekten zu erstellen (

”Prototypen“) mit folgenden Eigenschaften:

i) Je zwei verschiedene Objekte der Liste sind nicht isomorph.

ii) Jedes Objekt der Kategorie ist isomorph zu einem Objekt aus der Liste.

13.7-6 Beispiel: Wie sehen die Prototypen in der Kategorie der K-Vektorraume (K fest gewahlterKorper) aus? Morphismen sind K-lineare Abbildungen. Isomorphismen sind bijektive K-lineare Abbil-dungen.Eine Liste ist gegeben durch:Kn mit n irgendeine Kardinalitat (n 1, 2, . . . , abzahlbar unendlich, uberabzahlbar).Wir wissen: Ist V ein K-Vektorraum der Dimension n, dann ist V Kn.

Hat man die Objekte einer Kategorie auf diese Weise durch eine Liste von Prototypen klassifiziert, soist man noch keineswegs fertig. Man hat noch mit dem Wiedererkennungsproblem zu tun und das kanndurchaus noch sehr hart sein.

13.7-7 Wiederkennungsproblem:Seien Objekte einer Kategorie durch eine Liste von Prototypen klassifiziert und sei A irgendein Objektder Kategorie. Zu welchem Prototyp aus meiner Liste ist dann A isomorph?

13.7-8 Beispiel: K-Vektorraume: Sei V ein K-Vektorraum. Wie erkennt man, zu welchem Prototypen

V isomorph ist? Es genugt dimK V zu bestimmen. Denn dann ist V isomorph zum Prototyp KdimK V .

Zuruck zu Krts. Die Idee ist, die Krts-Moduln zu klassifizieren. Ist V ein K-Vektorraum, f P EndKpV qpdimK V 8q und V der Krts-Modul von oben, so muss das Wiedererkennungsproblem gelost werden.Wir werden sehen, dass sich dann eine besonders schone K-Basis B von V finden lasst, bzgl. derer dieMatrix von f eine besonders schone Struktur hat.Krts ist eine besonders schone Art von Ring, ein sogenannter Hauptidealring (was immer das heißt,Definition spater). Z ist ebenfalls ein Hauptidealring. Wir werden in der Tat die endlich erzeugten Modulnuber Hauptidealringen klassifizieren.Z-Moduln sind aber gerade die abelschen Gruppen. Als Beiprodukt erhalten wir so auch eine Klassifikationder endlichen abelschen Gruppen.

202

Kapitel 14

Ringe und Moduln

14.1 Kommutative Ringe und KAlgebren: Setting the Stage

Wir wissen schon, was ein Ring, bzw. was eine K-Algebra ist (K ein Korper). Im folgenden sei R einkommutativer Ring mit Einselement 1 1R, bzw. eine K-Algebra fur einen Korper K. Ein Unterringvon R ist eine nichtleere Teilmenge, die abgeschlossen ist bzgl. Addition, Multiplikation und Bildungadditiver Inverser.

14.1-1 Definition: Sei H S R. Dann ist S Unterring von R genau dann, wenn gilt:

1. r s P S fur alle r, s P S (d. h. pS,q ist abelsche Untergruppe von pR,q),2. rs P S fur alle r, s P S.

Ist 1R P S, so ist 1R 1S das Einselement von S. Unterringe mussen nicht notwendigerweise dasselbeEinselement wie R haben, sie mussen nicht einmal ein Einselement besitzen.

Beispiele:

• R "α 00 β

PM22

α, β P R

*, dann ist S "

α 00 0

PM22

α P R

* R ein Unterring von

R, aber 1S 1 00 0

1 00 1

1R.

• 2Z ist Unterring von Z, besitzt aber kein Einselement.

14.1-2 Definition: Seien S,R Ringe, f : R Ñ S Abbildung. Dann heißt f (Ring-)Homomorphismus,falls gilt:

1. fpa bq fpaq fpbq fur alle a, b P R,

2. fpabq fpaqfpbq fur alle a, b P R.

Ist fp1Rq 1S, so sagt man”f erhalt das Einselement“. Die Menge ker f tr P R|fprq 0u heißt Kern,

im f tfprq|r P Ru S Bild von f .

Epimorphismen sind surjektive, Monomorphismen injektive und Isomorphismen bijektive Homomorphis-men. Ist f : R Ñ S ein Isomorphismus, so auch f1 : S Ñ R. Wir schreiben dann R S und sagen

”R

und S sind isomorph“. Isomorph sein ist eine Aquivalenzrelation auf der Klasse der kommutativen Ringemit Einselement, da Isomorphismen die Eins erhalten und die Komposition von Homomorphismen einHomomorphismus ist.

203

14.1-3 Lemma: Sei f : RÑ S Ringhomomorphismus.

1. ker f ist Unterring von R.

2. im f ist Unterring von S.

3. Sei r P ker f und x P R. Dann ist rx xr P ker f .

Man kann Lemma 14.1-3 so interpretieren: Nicht jeder Unterring von R kommt als Kern eines Ringho-momorphismus vor, sondern nur solche Unterringe, die die Zusatzbedingung 3. erfullen. Daher bekommensolche Unterringe einen speziellen Namen:

14.1-4 Definition: Ein Unterring S von R heißt Ideal (von R), falls rs P S gilt fur alle s P S, r P R.Wir schreiben dann S R.

Also: S ist Ideal (S H und fur alle s1, s2, s P S, r P R sind s1 s2 P S und sr P S).

14.1-5 Problem: Sei S R. Sei s P S und sei s invertierbar, d.h. es existiert s1 P R mit s s1 1R.Dann ist S R. Zeigen Sie das!

14.1-6 Lemma: Sei I R, dann ist I bzgl. der Addition insbesondere eine abelsche Untergruppe deradditiven Gruppe von R. Also ist die Menge ta I|a P Ru der Restklassen modulo I eine abelsche Gruppebzgl. der Addition pa Iq pb Iq pa bq I mit Nullelement 0 I. Durch pa Iqpb Iq ab I

fur a, b P R wird eine Multiplikation auf RI definiert, die RI zum Ring macht, dem Faktorring von R

modulo I. RI hat das Einselement 1 I.Wir sehen: Um auf RI eine Multiplikation zu definieren brauchen wir wieder, dass I die Eigenschaft3. von Lemma 14.1-3 erfullt, also ein Ideal und nicht nur ein Unterring ist.

14.1-7 Lemma: Sei I R. Dann ist die Abbildung

π : RÑ RI : a ÞÑ a Iein Ringepimorphismus, die sogenannte kanonische Projektion von R auf RI. Die Abbildung hat Kernkerπ I. Daher kommt insbesondere jedes Ideal von R als Kern eines Ringhomomorphismus vor.

Im folgenden Satz sammeln wir eine ganze Menge Fakten uber Ringe und Ideale, deren Beweise jetztRoutine sein sollten. Sie ubertragen sich von den Beweisen entsprechender Fakten zu Vektorraumenmeist direkt und werden Ihnen daher als Ubungsaufgabe uberlassen.

14.1-8 Fakten: R, S sind Ringe.

1. p0q und R selbst sind Ideale von R. Alle anderen Ideale heißen nichttrivial, bzw. echt.

2. Sei f : RÑ S Ringhomomorphismus. Dann ist f surjektiv genau dann, wenn im f S und injektivgenau dann, wenn ker f p0q ist.

3. Der Durchschnitt einer Menge von Idealen von R ist ein Ideal von R.

4. Sei H A R. Dann ist das von A erzeugte Ideal xAy xAyIdeal IR

AI

I das kleinste Ideal von

R, das A als Teilmenge enthalt und es gilt:xAy ! °aPA

raa|ra P R fast alle 0).

204

5. Seien I, J R. Dann ist I J ta b|a P I, b P Ju ein Ideal von R, die Summe der Ideale I undJ . Es gilt I J xI Y Jy ist das eindeutig bestimmte kleinste Ideal von R, das sowohl I also auchJ enthalt.

6. (1. Isomorphiesatz) Sei f : R Ñ S Ringhomomorphismus und sei I R mit I ker f . Dann gibt

es einen eindeutig bestimmten Ringhomomorphismus pf : RI Ñ S mit pf π f , im pf im f S

und ker pf ker fI, wobei π : R Ñ RI die naturliche Projektion a ÞÑ a I pa P Rq bezeichnet;d. h. wir haben das folgende kommutative Diagramm:

R S

RI -f

@@Rπ

D!fD. h. es gilt fpr Iq fprq fur alle r P R. Insbesondere gilt R ker f im f (Ringisomorphismus).

7. (2. Isomorphiesatz) Seien I, J R. Dann ist pI JqJ II X J und pI JqI JI X J ,d. h. Faktoren entlang paralleler Seiten im folgenden Diagramm sind isomorph:

R

I JI J

I X Jp0q

@@@

@@

@

8. (3. Isomorphiesatz) Seien I, J R, I J . Dann ist JI RI und pRIqpJIq RJ .

14.1-9 Problem: Zeigen Sie: Sei I R. Dann ist RI genau dann ein Korper, wenn I ein maximales(echtes) Ideal von R ist, d.h. wenn I R ist und aus I J R folgt, dass J R ist.

14.1-10 Definition: Ein Ideal I von R heißt endlich erzeugt , falls es eine endliche Teilmenge S von Rgibt mit xSy I. S heißt dann endliches Erzeugendensystem von I. Besteht S aus genau einem ElementS, so heißt I Hauptideal . In diesem Fall ist I sR tsr|r P Ru. Ein Ring R in dem alle Ideale endlicherzeugt sind, heißt noethersch.

Emmy Noether (1882-1935) war eine deutsche Mathematikerin und Physikerin. Sie gilt als Begrunderinder modernen Algebra. 1903 wurden Frauen erstmals an bayrischen Universitaten zum Studium zu-gelassen. Emmy Noether schrieb sich in Erlangen ein und promovierte 1907 in Mathematik bei PaulGordon. 1909 wurde sie von Felix Klein und David Hilbert nach Gottingen gerufen, dem damaligen Na-bel der mathematischen Welt. Da die Habilitation von Frauen an preußischen Universitaten durch einen

205

Erlass von 1908 untersagt war, wurde ihr 1917 die Habilitation (beantragt 1915 durch die mathematisch-naturwissenschaftliche Abteilung) versagt, trotz Intervention von Klein und Hilbert. So musste sie ihreVorlesungen im Namen Hilberts ankundigen, als dessen Assistentin sie fungierte. Erst nach dem 1. Welt-krieg, im Jahr 1919, konnte Emmy Noether habilitieren. Dennoch bekam sie erst 1922 eine außerordent-liche Professur und 1923 ihren ersten bezahlten Lehrauftrag. Als Judin wurde Emmy Noether 1933 dieLehrerlaubnis entzogen und sie musste in die USA emigrieren. Sie erhielt eine Anstellung als Gastprofes-sorin am Women’s College Bryn Mawr in Pennsylvania und hielt Vorlesungen in Princeton. Sie starb anKomplikationen einer Operation in Pennsylvania am 14.4.1935.

14.1-11 Satz: Sei R ein Ring. Dann sind die folgenden Bedingungen aquivalent:

1. R ist noethersch, d.h. jedes Ideal von R ist endlich erzeugt.

2. Jede aufsteigende Kette von Idealen von R wird stationar. (eine aufsteigende Kette ist eine FolgeI1 I2 I3 . . . von Idealen, sie wird stationar, wenn es ein n P N gibt, sodass Ik In ist furalle k ¥ n)

3. Jede nichtleere Menge von Idealen von R besitzt maximale Elemente (bzgl. der Inklusion von Idea-len).

Beispiele von Noetherschen Ringen sind Polynomringe Krx1, . . . xns in Unbestimmten x1, . . . , xn (KKorper) und epimorphe Bilder solcher Ringe. In der Tat sind K-Algebren, die als Ringe noethersch sind,immer epimorphe Bilder solcher Polynomringe (ohne Beweis). Wir sind im folgenden hauptsachlich anspeziellen Noetherschen Ringen interessiert, bei denen nicht nur alle Ideale endlich erzeugt, sondern voneinem Element erzeugt sind. Zunachst mussen wir uns noch kurz klar machen, dass der Ubergang vonRingen zu K-Algebren nichts wesentlich Neues bringt.

14.1-12 Beobachtung: Sei R jetzt eine K-Algebra, K ein Korper.

1. Durch k ÞÑ k 1R wird ein Ringhomomorphismus von K nach R definiert, der 1K auf 1R abbildet.Insbesondere ist dieser Homomorphismus nicht die Nullabbildung und daher injektiv, da K keinenichttrivialen Ideale besitzt (warum?) und daher der Kern dieses Homomorphimus das Nullidealsein muss. Also konnen wir K als Unterring von R betrachten.

2. Jedes Ideal von R ist auch abgeschlossen gegenuber skalarer Multiplikation mit Elementen von K.

3. Jedes Ideal von R ist automatisch ein K-Vektorraum unter Multiplikation mit Elementen von K K 1R R.

4. Wir brauchen nicht zwischen Ringidealen und Algebraidealen zu unterscheiden.

Im Folgenden ist daher R kommutativer Ring oder kommutative K-Algebra mit Einselement.

14.1-13 Definition/Lemma: Seien I, J R. Das Produkt I J ist das Ideal von R, das von derMenge ta b|a P I, b P Ju erzeugt wird. Es gilt: I J I X J .

14.1-14 Definition/Lemma: Ein Element a P R heißt invertierbar (oder Einheit), falls es b P R gibt

mit ab 1. Dieses b ist dann eindeutig bestimmt, selbst invertierbar und wird mit b a1 bezeichnet.Die Menge UpRq der invertierbaren Elemente von R bildet unter der Multiplikation von R eine Gruppe,die Einheitengruppe von R.

14.1-15 Problem: Bestimmen sie UpZq und UpKrxsq (K ein Korper).

Zum Schluss dieses Abschnitts wollen wir uns noch kurz mit Polynomringen beschaftigen.

206

14.1-16 Definition: Der Polynomring Rrxs (R kommutativer Ring mit Eins) besteht aus formalen

Summenn°

i0

αixi (n P N), wobei x Unbestimmte ist und die αi P R sind fur alle i P N. Ist αk 0,

aber αm 0 fur alle m ¡ k, so heißt k der Grad degpppxqq von ppxq n°i1

αixi. Die Addition und

Multiplikation zweier Polynome wird wie immer definiert (vgl. Definition 4.1-6), ebenso die skalareMultiplikation von Polynomen mit Skalaren λ P R, nur dass jetzt als Skalare eben Ringelemente und nichtnur Korperelemente zugelassen werden. (Beachte, dass dann nicht mehr notwendigerweise deg ppxqqpxq deg ppxq deg qpxq gilt.)Der Polynomring Rrx1, . . . , xns in den Unbestimmten x1, . . . , xn wird dann induktiv als

Rrx1, . . . , xns pRrx1, . . . , xn1sqrxnsdefiniert. Er besteht aus formalen Summen¸pi1,...,inqPNn

αpi1,...,inqxi11 . . . xin

n

mit αpi1,...,inq P R gleich 0 fur fast alle Multiindizes i pi1, . . . , inq P Nn. Terme der Form xi xi11 . . . xin

n

mit i pi1, . . . , inq P Nn heißen Monome.

14.1-17 Satz: Sei K ein Korper und sei Krx1, . . . , xns der Polynomring uber K in den Unbestimmtenx1, . . . , xn. Dann hat Krx1, . . . , xns folgende universelle Eigenschaft:

• Es gibt eine Abbildung ι : t1, . . . , nu Ñ Krx1, . . . , xns, namlich die Abbildung gegeben durch ιpiq xi.

• Ist f : t1, . . . , nu Ñ R eine Abbildung, R kommutative K-Algebra mit Einselement. Dann gibt es

genau einen K-Algebrahomomorphismus pf : Krx1, . . . , xns Ñ R mit pfpxiq fpiq fur i 1, . . . , n,d. h. das folgende Diagramm kommutiert:t1, . . . , nu Krx1, . . . , xns

R

HHHHHHjf ?

D! pf(Mit anderen Worten: Man kann si, . . . , sn P R ”

frei“ wahlen und die Abbildung xi ÞÑ si zu einemK-Algebrahomomorphismus

i

αixi ÞÑ

i

αisi

fortsetzen.)

14.2 Hauptidealringe (HIR)

R ist kommutativer Ring oder K-Algebra (K Korper) mit Eins.

14.2-1 Definition: Ein Element a P R heißt Nullteiler , falls es ein 0 b P R gibt mit ab 0. BesitztR außer 0 keinen Nullteiler, so heißt R Integritatsbereich oder einfach nullteilerfrei .

207

14.2-2 Beispiel: Z und Krxs (K Korper) sind Integritatsbereiche. In Z6Z ist 2 Z Nullteiler, da3, 2 R 6Z und damit 2 6Z, 3 6Z 0 6Z, aber p2 6Zqp3 6Zq 6 6Z 0 6Z gilt.

14.2-3 Definition/Lemma: Sei R Integritatsbereich. Auf der Menge tpa, bq P RR|b 0u definieren

wir eine Aquivalenzrelation durch pa, bq pc, dq ad bc.

Die Aquivalenzklasse von pa, bq, pa, b P R, b 0q wird mit ab

bezeichnet. Wir definieren fur a, b, c, d PR, b, d 0 eine Addition und eine Multiplikation durch:

a

b c

d ad bc

bd

unda

b cd ac

bd.

Damit wird K tab|a, b P R, b 0u ein Korper, der Quotientenkorper QpRq von R.

Die Abbildung

RÑ K : r ÞÑ r

1

ist injektiver Ringhomomorphismus, sodass wir R als Unterring des Korpers K QpRq betrachtenkonnen.

14.2-4 Problem: Sei R Integritatsbereich mit Quotientenkorper K, sei L ein Korper und sei f : RÑ L

ein injektiver Ringhomomorphismus. Dann wird durch

f : K Ñ L :a

bÞÑ fpaq

fpbq pa, b P R, b 0qein Korperhomomorphismus definiert, der nicht die Nullabbildung ist und daher injektiv ist. Mit anderenWorten, die Abbildung f lasst sich zu einer Korperabbildung von K nach L fortsetzen und wir konnenL als Korpererweiterung von K betrachten (indem wir K und pfpKq L identifizieren).

14.2-5 Problem: Sei a P R. Dann ist das Hauptideal aR xay R genau dann, wenn a P UpRq (alsoeine Einheit) ist.

14.2-6 Definition: Ein IntegritatsbereichR heißt Hauptidealring, falls jedes Ideal vonR ein Hauptidealist.

Bezeichnung: HIR oder PID(principal ideal domain).

14.2-7 Bemerkung: Die Bezeichnung ist im Deutschen etwas inkonsistent. Naturlich kann man auchkommutative Ringe mit Eins betrachten, fur die jedes Ideal ein Hauptideal ist. Eigentlich mussten konse-quenterweise solche Ringe R Hauptidealringe heißen. Es hat sich aber bloderweise eingeburgert, zusatzlichzu fordern, dass R nullteilerfrei, d.h. ein Integritatsbereich ist. Im Englischen heißen Integritatsbereiche

”domain“, Hauptideale

”principal ideals“ und Hauptidealringe

”principal ideal domains“.

Gegeben sei ein nullteilerfreier Ring R. Wie lasst sich nun uberprufen, dass R ein HIR ist? Dies ist sicherkeine einfache Aufgabe. Die nachste Definition stellt, wie wir sehen werden, eine Methode zum Auffindenvon HIRs zur Verfugung.

208

14.2-8 Definition pEuklidsche Ringeq: Ein Integritatsbereich R heißt Euklidischer Ring, falls es eineAbbildung (

”Gradfunktion“) deg : RÑ N0 Y t1u gibt, sodass gilt:

1. Fur alle r P R mit r 0 gilt degp0q degprq,2. Fur f, g P R mit g 0 gibt es q, r P R mit degprq degpgq, sodass f q g r ist (Teilen mit

Rest=Euklidischer Algorithmus).

Beispiele:

1. Z, mit deg z |z|.2. Krxs, mit degpppxqq #1 fur ppxq 0,

Grad des Polynoms ppxq fur ppxq 0.

14.2-9 Satz: Euklidische Ringe sind Hauptidealringe.

Bemerkung: Die Umkehrung gilt nicht , d. h. es gibt Hauptidealringe, die nicht euklidisch sind!

14.2-10 Korollar: Z und Krxs (K Korper) sind HIR’s.

14.2-11 Beobachtung: In einem Integritatsbereich R spiegelt”Enthaltensein“ von Hauptidealen

prazise (aber invers) die Teilbarkeitsrelation wieder, d. h.:Sind a, b P R, so ist a|b bR aR (a|b steht fur

”a ist Teiler von b, d.h. Dc P R : ac b).

14.2-12 Definition: Sei R Integritatsbereich und seien a, b P R. Dann heißen a und b assoziiert genaudann, wenn es eine Einheit u P UpRq gibt mit a bu.

14.2-13 Problem: Sei R kommutativer Ring mit Eins:

1.”Assoziiert sein“ ist eine Aquivalenzrelation.

2. a, b P R sind assoziiert aR bR

3. a, b P R sind assoziiert a|b und b|aWeitere Teilereigenschaften ubersetzen sich wie folgt in Hauptidealeigenschaften:

14.2-14 Problem: Sei R Integritatsbereich und seien a, b P R.

1. c P R heißt großter gemeinsamer Teiler von a und b, wenn gilt:

i) c|a und c|bii) Ist d P R mit d|a und d|b, so ist d|c.

Der großte gemeinsame Teiler zweier Elemente ist, falls er existiert, bis auf Assoziiertheit eindeutigbestimmt.

Bezeichnung: ggTpa, bq.2. c P R heißt kleinstes gemeinsames Vielfaches von a und b, wenn gilt:

i) a|c und b|cii) Ist d P R mit a|d und b|d, so ist c|d.

209

Das kleinste gemeinsame Vielfache zweier Elemente ist, falls es existiert, bis auf Assoziiertheiteindeutig bestimmt.

Bezeichnung: kgVpa, bq.3. Sei R ein HIR und a, b P R. Dann existieren ggTpa, bq und kgVpa, bq und es gilt:

(a) aR bR ggTpa, bqR.

(b) aRX bR kgVpa, bqR.

(c) paRq pbRq abR.

So:R

ggTpa, bqRbR aR

kgVpa, bqRabRp0q

@@

@@

@@

@@

Beachte: Teilbarkeit ist eine Ordnungsrelation auf der Menge der Assoziiertenklassen von R, nicht aufR selbst.Die Primfaktorzerlegung ganzer Zahlen sollte Ihnen aus der Schule bekannt sein: Primzahlen sind ganzeZahlen, die bis aufs Vorzeichen außer sich selbst nur 1 als Teiler haben und jede ganze Zahl kann bisauf Vorzeichen und Reihenfolge eindeutig als Produkt von Primzahlen geschrieben werden. Primzahlenhaben noch eine andere schone Eigenschaft: Teilt eine Primzahl p ein Produkt a b ganzer Zahlen a undb, so teilt p dann a oder b (oder beide).Wir wollen als nachstes zeigen, dass eine solche eindeutige Zerlegung von Elementen in Primfaktorenin beliebigen Hauptidealringen existiert. Dazu ist zunachst zu klaren, was Primelemente sind. In denganzen Zahlen gibt es, wie wir oben gesehen haben, zwei Charakterisierungen fur Primelemente. Diesist im Allgemeinen nicht so, wir werden sehen, dass fur allgemeine Integritatsbereiche beide Definitionenzwei Paar Stiefel sind. Dann werden wir aber zeigen, dass fur HIR’s beide Definitionen aquivalent sind,d. h. zu derselben Sorte von Elementen fuhren.Andererseits haben wir gesehen, dass Teilbarkeitseigenschaften von Elementen von R durch Idealeigen-schaften der Hauptideale R ausgedruckt werden konnen. Wir beginnen auf der Idealseite und definierenPrimideale.

210

14.2-15 Definition: Sei P R, R kommutativer Ring mit 1. Dann heißt P Primideal , falls gilt:Sind x, y P R mit xy P P , so ist x P P oder y P P .

(Wir nutzen also die zweite Eigenschaft von Primzahlen in Z zur Verallgemeinerung: xy P pZ p|xy ñ px

oder p|y.)14.2-16 Satz:

1. R ist Integritatsbereich p0q ist Primideal in R.

2. Sei P R. Dann ist P Primideal RP ist Integritatsbereich.

14.2-17 Korollar: Sei M maximales Ideal von R. Dann ist M Primideal.

Nun kommt die Elementversion:

14.2-18 Definition: Sei R kommutativer Ring mit Eins.

1. 0 a P R heißt irreduzibel , falls a R UpRq ist und gilt: Ist a xy mit x, y P R, so ist x P UpRq odery P UpRq ( a und y im ersten und a und x im zweiten Fall sind dann assoziiert).

2. 0 a P R heißt Primelement , falls aR Primideal ist, d.h. ist a|xy so folgt a|x oder a|y.Nun kommt die Entauschung: Die beiden Definitionen sind im allgemeinen nicht aquivalent. Fur Inte-gritatsbereiche gilt aber wenigstens:

14.2-19 Satz: Sei R Integritatsbereich und sei p P R Primelement. Dann ist p irreduzibel.

Wir werden aber sehen, dass in HIR’s irreduzible Elemente auch immer Primelemente sind, d.h. dasswir fur HIRs (wie z.B. Z oder Krxs nach 14.2-10 ) nicht zwischen Prim- und irreduziblen Elementen zuunterscheiden brauchen. Dies gilt in der Tat fur eine großere Klasse von Ringen, zu denen unter anderemauch Polynomringe Krx1, . . . , xns gehoren (die fur n ¡ 1 keine HIRs sind. Dieser Satz, der Satz vonGauss , wird in der Algebra-Vorlesung eine große Rolle spielen und dort bewiesen werden). Diese Ringesind Integritatsbereiche, in denen sich jedes Element eindeutig (bis auf Reihenfolge und Assoziiertheit)in irreduzible Elemente zerlegen lasst.Hier ist die Definition:

14.2-20 Definition: Sei R ein kommutativer Ring mit Eins und sei 0 a P R. Dann besitzt a eineZerlegung in irreduzible Faktoren, falls sich a als

a επ1 . . . πr

schreiben lasst mit ε P UpRq und π1, . . . , πr P R irreduzible Elemente, r P N0 (fur r 0 ist a ε P UpRq).Wir sagen a besitzt eine eindeutige Zerlegung in irreduzible Faktoren, falls zusatzlich gilt:Ist a ε1π11 . . . π1s mit s P N0, ε

1 P UpRq und π1i P R irreduzibel eine weitere solche Zerlegung, so ist s r

und nach geeigneter Umnummerierung sind πi und π1i (1 ¤ i ¤ r) assoziiert, d.h. es gibt ε1, . . . , εr P UpRqmit π1i εiπi, fur i 1, . . . , r.

14.2-21 Definition: Ein Integritatsbereich heißt faktoriell (oder UFD=unique factorisation domain),falls jedes Element ungleich 0 von R eine eindeutige Zerlegung in irreduzible Faktoren besitzt.

14.2-22 Satz: Sei R faktoriell und sei p P R irreduzibel. Dann ist p Primelement. Fur UFDs stimmenalso irreduzible und Primelemente uberein.

211

14.2-23 Satz: Sei R Integritatsbereich. Dann ist R UFD genau dann, wenn die beiden folgenden Ei-genschaften gelten:

1. Jede aufsteigende Kette von Hauptidealen wird stationar,

2. Jedes irreduzible Element von R ist Primelement.

14.2-24 Satz: Sei R HIR. Dann ist jedes irreduzible Element von R Primelement.

14.2-25 Satz: HIRs sind UFDs.

14.2-26 Bemerkung: Wir haben nun verschiedene Klassen von Ringen betrachtet, die ineinanderenthalten sind: tEuklidische Ringeu tHIRsu tUFDsu.Beide Inklusionen sind echt.

14.2-27 Satz: Sei R HIR. Dann ist jedes Primideal P p0q von R maximal und daher ist RP einKorper.

Im 14.2-17 hatten wir gesehen, dass maximale Ideale Primideale sind. Fur einen HIR sind die Primidealealso genau die maximalen Ideale und das p0q-Ideal.

14.3 Moduln

Zunachst sei A ein beliebiger, nicht notwendigerweise kommutativer Ring mit Einselement oder eine K-Algebra fur einen Korper K. Was fur Korper Vektorraume sind, sind fur Ringe (Algebren) Moduln. Hierist die Definition.

14.3-1 Definition: Ein A-Linksmodul ist eine abelsche Gruppe pM,q zusammen mit einer außerenbinaren Operation AM ÑM : pa,mq ÞÑ am, sodass gilt (vergleiche Definition 4.1-1, V5)-V8)):

M1) 1Am m m PM .

M2) apbmq pabqm a, b P A, m PM .

M3) pa bqm am bm a, b P A, m PM .

M4) apm1 m2q am1 am2 a P A, m1,m2 PM .

Ein A-Rechtsmodul wird analog definiert, nur operiert A dann von rechts auf M , d.h. die außere binareOperation ist als M AÑM : pm, aq ÞÑ ma definiert.

212

14.3-2 Probleme:

1. Ist R kommutativer Ring mit Eins und ist M ein R-Linksmodul, so wird M zum R-Rechtsmodul,wenn man die Rechtsoperation von R auf M durch m r rm r P R, m P M definiert. Warumfunktioniert dies nicht bei nicht-kommutativen Ringen?

2. Sei A eine K-Algebra mit Einselement und sei M ein A-Linksmodul. Dann wird M zum K-Vektorraum durch λ m pλ 1Aqm λ P K,m PM .

Unter einem A-Modul verstehen wir im folgenden immer einen A-Linksmodul. Alles, was wir uber A-Linksmoduln beweisen, hat naturlich eine Rechtsvariante, die analog bewiesen wird. Da wir uns in Kurzewieder auf kommutative Ringe (namlich HIR’s) konzentrieren werden, ist der Unterschied so oder sounerheblich.Naturlich kann man Moduln auch fur Ringe ohne Einselement definieren bzw. man kann Moduln be-trachten, auf denen das Einselement 1A nicht notwendigerweise wie die Eins operiert, d.h. das Axiom M1entfallt. Will man betonen, dass 1Am m ist fur alle m PM , fordert man also M1, so spricht man auchvon einem unitalen Modul. Wir betrachten hier nur unitale Moduln, d.h. ein A-Modul ist bei uns immer

”unitaler A-Linksmodul“.

14.3-3 Beispiele:

1. Sei M abelsche Gruppe mit binarer Operation . Dann wird M zum Z-Modul durch

z m $'''''&'''''%m . . .mloooooomoooooonzmal

fur z ¡ 0,

0 fur z 0,pm . . .mqlooooooooomooooooooonpzqmal

fur z 0.

Umgekehrt ist jeder Z-Modul eine abelsche Gruppe (per definitionem). Macht man diese wiederwie oben zum Z-Modul, so erhalt man die alte Z-Modulstruktur zuruck (Warum?). Daher sind dieZ-Moduln genau die abelschen Gruppen.

2. Sei M abelsche Gruppe. Dann ist E EndpM,q tf : M ÑM |f ist Gruppenhomomorphismusuein Ring mit 1 durch pf gqpmq fpmq gpmq (fur f, g P E,m P M) und pfgqpmq fpgpmqq.Das Einselement ist die identische Abbildung 1E : M Ñ M : m ÞÑ m und das 0-Element die0-Abbildung 0E : M Ñ M : m ÞÑ 0. M wird zum E-Modul durch f m fpmq fur f P E undm PM .

3. Sei V ein K-Vektorraum, E EndKpV q. Dann wird V zum E-Modul durch f v fpvq fur f P Eund v P V . Wir haben dann: EndKpV q ist im allgemeinen echter Unterring (mit derselben Eins)von EndpV,q. Fur λ P K und f P EndpV,q sei λ f definiert durch pλfqpvq λ pfpvqq P V .Dann ist λ f P EndpV,q und EndKpV q ist Unteralgebra von EndpV,q.

4. Sei V ein K-Vektorraum, K ein Korper und sei f P EndKpV q. Dann wird V ein Krts-Modul, indemwir definieren (vgl. Problem 13.7-2)

qptqv qpfqpvq, fur qptq P Krts, v P V,wobei qpfq der in 13.7-1 definierte Endomorphismus von V ist. Dieser Krts-Modul wird im fol-genden mit Vf bezeichnet, um zu betonen, dass wir die durch f gegebene Modulstruktur von Krtsauf V meinen.

213

14.3-4 Probleme: Sei A Ring mit Eins, M ein A-Modul.

1. Sei a P A. Definiere fa : M Ñ M : m ÞÑ am. Dann ist fa P EndpM,q und F : A Ñ EndpM,q :a ÞÑ fa ist ein Ringhomomorphismus, der die Eins erhalt. Ist zusatzlich A eine K-Algebra, dann istfa P EndKpMq und F ist K-Algebrahomomorphismus.

2. Sei umgekehrt F : A Ñ EndpM,q ein Ringhomomorphismus, der die Eins erhalt. Dann wird M

zum A-Modul durch am pF paqqpmq fur a P A, m PM . (Fur Algebren: F : AÑ EndKpMq)3. Die Schritte in 1.) und 2.) sind invers zueinander, d.h. startet man mit einer abelschen Gruppe M

und einem Homomorphismus F wie in 2.) und macht M zum A-Modul und betrachtet man denzugehorigen Homomorphismus von A in EndpM,q, gemaß 1.), so erhalt man F zuruck. Startetman mit einer A-Modulstruktur auf M , so stimmt diese mit der uberein, die man erhalt, wenn mangemaß 2.) eine Modulstruktur zum dazugehorigen Homomorphismus F definiert.

Bezeichnung: Homomorphismen von A in EndpM,q (bzw. in EndKpMq fur K-Algebren A) heißenDarstellungen oder genauer lineare Darstellungen von A; F in 1.) heißt die zum A-Modul M gehorendeDarstellung von A. 14.3-4 sagt, dass Darstellungen und Moduln vollig aquivalente Konzepte sind.

14.3-5 Beispiele:

1. Der Nullmodul p0q ist A-Modul mit Operation a 0 0 fur alle a P A.

2. A wird zum A-Linksmodul AA, wobei a P A auf A durch normale Linksmultiplikation operiert(Analog Rechtsmodul). Dieser Modul heißt trivialer bzw. regularer Modul.

3. Jedes Linksideal und daher auch jedes Ideal von A ist A-Modul.

14.3-6 Definition: Sei A Ring mit 1 und seien M und N A-Moduln. Eine Abbildung f : M Ñ N heißt(A-Modul-) Homomorphismus, falls f ein Homomorphismus der zugrunde liegenden abelschen Gruppeist, der zusatzlich die A-Operation respektiert, d. h. fur den gilt:

fpamq afpmq a P A,m PM.

Die Menge ker f tm P M |fpmq 0Nu heißt Kern, im f tfpmq|m P Mu Bild von f . InjektiveHomomorphismen heißen Mono-, surjektive Epi- und bijektive Isomorphismen. Zwei A-Moduln M , Nheißen isomorph, und wir schreiben M N , falls es einen Isomorphismus f : M Ñ N gibt.

Wie fur Ringe und Ideale in 14.1-8 sammeln wir jetzt die”basis facts“, die fur A-Moduln gelten, in

einer Zusammenfassung. Ihre Beweise sind wieder Routine und werden als Ubung uberlassen.

14.3-7 Fakten: Sei A ein Ring mit Eins, M und N seien A-Moduln.

1. Eine Teilmenge U H von M heißt Untermodul von M , falls pU,q abelsche Untergruppe vonpM,q ist und a u P U gilt fur alle a P A und u P U . Wir schreiben dann U ¤ M . Die A-Untermoduln von AA sind genau die Linksideale von A.

2. Der Durchschnitt einer beliebigen Menge von Untermoduln von M ist Untermodul von M . Diesist der eindeutig bestimmte großte Untermodul von M , der in allen Untermoduln der vorgegebenenMenge enthalten ist.

3. Sei S M . Der von S erzeugte Untermodul U xSy ist definiert als

U ¤ MS U

U . Er ist der eindeutig

bestimmte, kleinste Untermodul von M , der S als Teilmenge enthalt: Es gilt:xSy !°sPS

as s|as P A fast alle 0A

).

214

4. Ist Uα ¤ M fur eine Indexmenge A und α P A, so ist die Summe U °αPAUα der von der men-

gentheoretischen Vereinigung

αPAUα erzeugte Untermodul von M . Er ist der eindeutig bestimmte

kleinste Untermodul von M , der alle Untermoduln Uα, α P A, als Teilmenge enthalt, und ist als

Menge! °

αPAuα|uα P Uα fast alle 0). Insbesondere ist in der Menge der Untermoduln von M , teil-

weise geordnet durch Inklusion, U XV der großte Untermodul von M , der in U und V pU, V ¤Mqenthalten ist, und U V der kleinste Untermodul von M , der U und V enthalt. Im Bild:

M

U VU V

U X Vp0q

@@@

@@@

5. Sei U ¤ M . Wir definieren eine Aquivalenzrelation mod U auf M durch : x y mod U xy P U , fur x, y PM . Die Aquivalenzklasse von x PM ist dann die Nebenklasse xU txu|u PUu. Auf der Menge MU tx U |x PMu (sprich

”M modulo U“) der Aquivalenzklassen von M

modulo U definieren wir eine Addition durch px Uq py Uq px yq U und eine außereOperation von A durch apx Uq ax U . Diese Operationen sind wohldefiniert und machenMU zu einem A-Modul, dem Faktormodul M mod U mit Nullelement 0U U und additivemInversen pm Uq pmq U fur m P M . Die Abbildung π : M Ñ MU : m ÞÑ m U ist einEpimorphismus, die sogenannte Projektion von M auf MU .

6. Sei f : M Ñ N ein A-Homomorphismus. Dann ist ker f ¤M und im f ¤ N .

7. Ist f : M Ñ N Isomorphismus, so ist f1 : N Ñ M ebenfalls einer. Die Relation”isomorph

sein“ ist Aquivalenzrelation auf der Klasse Amod der A-Moduln.

8. (1. Isomorphiesatz:) Sei f : M Ñ N eine A-lineare Abbildung und U ¤ M mit U ker f . Dann

gibt es ein eindeutig bestimmtes pf : MU Ñ N mit im pf im f und ker pf U ker f ¤ M kerf ,

sodass pf π f fur die Projektion π : M ÑMU gilt. Im Bild:

M N

MU -f

@@@Rπ

D! pfpf ist gegeben durch : pfpm Uq fpmqIst insbesondere ker f U , so ist pf ein A-Modulisomorphismus von M ker f auf im f . Wir habendaher M kerf im f .

215

9. (2. Isomorphiesatz:) Seien U, V ¤ M . Dann ist pU V qV UpU X V q und pU V qU V pU X V q. Also: Parallele Seiten der Raute in 4. sind isomorph.

10. (3. Isomorphiesatz:) Seien U, V ¤M und U ¤M . Dann ist V U ¤MU und MUNV U MV .

11. Ist A zusatzlich eine K-Algebra, so ist M auch ein K-Vektorraum durch λ m pλ 1Aqm furλ P K,m P M . Untermoduln von M sind dabei automatisch K-Untervektorraume und A-lineareAbbildungen zwischen A-Moduln sind automatisch K-linear.

12. Sei H S M mit xSy M . Dann heißt S Erzeugendensystem von M und M heißt endlicherzeugt, falls es eine endliche Menge S M gibt mit xSy M .

13. Seien Mi, i P I, eine Menge von Untermoduln von M mit Indexmenge I. Die Summe°iPI

Mi U

heißt (interne) direkte Summe der Mi, falls Mi X °ijPI

Mj p0q gilt fur alle i P I. Dies ist genau

dann der Fall, wenn jedes u P U eine eindeutige Darstellung u °iPI

xi mit xi P Mi, fast alle

0, besitzt. Ist Mi (i P I) eine Menge von A-Moduln, so ist die (außere) direkte SummeÀiPI

Mi tpxiqiPI |xi PMi fast alle 0u mit Addition und A-Operation definiert durchpxiqiPI pyiqiPI pxi yiqiPI

apxiqiPI paxiqiPI

fur pxiqiPI , pyiqiPI PÀiPI

Mi, d.h. xi, yi PMi fast alle 0.

Dies machtÀiPI

Mi zum A-Modul. Ist i P I fest und x P Mi, so wird durch x ÞÑ pxjqjPI P ÀjPI

Mj

eine Einbettung von Mi inÀjPI

Mj definiert, wobei xi x und xj 0Mjfur i j P I gesetzt

wird. Bezeichne Mj das Bild dieser Einbettung, so istÀjPI

Mj interne direkte Summe der Mj. Sind

fi : Mi Ñ Ni A-Modulhomomorphismen, so wird durchÀiPI

fi :ÀiPI

Mi ÑÀiPI

Ni : pxiqiPI ÞÑ pfipxiqqiPI

ein A-Modulhomomorphismus definiert, die direkte Summe der fi.

14. Ein A-Modul M heißt frei, wenn er isomorph zu einer direkten Summe von Kopien des regularenA-Moduls AA ist.

15. Eine Teilmenge S eines A-Moduls N heißt linear unabhangig, falls es keine nichttriviale Darstellung°sPS

as s 0, ax P A fast alle 0, gibt, d.h. mindestens einer der Koeffizienten as ist verschieden

von 0. Ein linear unabhangiges Erzeugendensystem von N heißt Basis (bzw. A-Basis) von N . Wiefur K-Vektorraume sieht man leicht, dass S eine A-Basis von N ist, genau dann, wenn sich jedesElement von N eindeutig als A-Linearkombination

°sPS

as s, ax P A fast alle 0 darstellen lasst. In

diesem Fall ist N ÀsPS

A s mit A s tas|a P Au.14.3-8 Satz: Sei M ein A-Modul. Dann ist M frei genau dann, wenn M eine A-Basis besitzt.

14.3-9 Problem: Nun sollte es leicht sein, fur eine Menge I den freien A-Modul mit Basis I zukonstruieren und seine universelle Eigenschaft zu bestimmen.

216

14.3-10 Bemerkung: Der Basissatz fur Vektorraume besagt, dass alle K-Vektorraume (das sind genaudie K-Moduln) fur einen Korper K frei sind. Die Crux ist, dass dies nicht mehr fur Ringe und ihre Modulngilt. Dabei haben A-Moduln im allgemeinen keine A-Basis. Ist A eine K-Algebra, so ist ein A-Modulzugleich ein K-Vektorraum und als solcher muss er eine K-Basis besitzen.

14.3-11 Definition: Eine Folge von A-Moduln

M1α1ÝÑM2

α2ÝÑM3α3ÝÑ . . .

αi1ÝÑ MiαiÝÑ . . .

mit A-Modulhomomorphismen ai : Mi Ñ Mi1 heißt exakt , falls kerαi1 imαi ist. Eine exakte Folgeder Form p0q ÝÑM

αÝÑ NβÝÑ E ÝÑ p0q

heißt kurze exakte Folge (kurz: keF).Beachte: Es gibt genau einen A-Modulhomomorphismus p0q Ñ M und genau einen A-Modulhomomor-phismus E Ñ p0q (namlich jeweils die Nullabbildung). Das Bild des Homomorphismus p0q Ñ M istalso p0q, d. h. das Bild dieser Abbildung ist gleich kerα genau dann, wenn p0q kerα ist, also wenn α

injektiv ist. Der Kern der Abbildung E Ñ p0q ist E, also ist der Kern dieser Abbildung gleich imβ genaudann, wenn E imβ ist, also β surjektiv ist. Daher ist die Folge oben exakt genau dann, wenn α einMonomorphismus und β ein Epimorphismus ist, und wenn kerβ imα ist. Nach dem 1. Isomorphiesatzist dann aber N imα E. Ist M ein A-Modul, U ¤M , so hat man immer eine keFp0q ÝÑ U

αÝÑMβÝÑMU ÝÑ p0q,

wobei α die naturliche Einbettung von U in M und β die naturliche Projektion von M auf MU ist.

14.3-12 Satz: Seien M und N A-Moduln und sei f : M Ñ N ein A-Epimorphismus. Sei S M einErzeugendensystem fur M . Dann wird N von fpSq erzeugt. So sind insbesondere epimorphe Bilder vonendlich erzeugten A-Moduln endlich erzeugt.

14.3-13 Satz: Sei p0q ÝÑ NαÝÑM

βÝÑ E ÝÑ p0q keF von A-Moduln. Sind N und E endlich erzeugt,so auch M .

14.3-14 Satz: Sei p0q ÝÑ NαÝÑ M

βÝÑ E ÝÑ p0q keF von A-Moduln und sei E freier A-Modul.Dann gibt es ein U ¤M mit U E, sodass M imα` U ist.

14.3-15 Bemerkung: Insbesondere ist dann β β|U : U Ñ E ein Isomorphismus. Ist γ : E ÑU sein Inverses, so ist β γ idE . Der Beweis von 14.3-14 zeigt umgekehrt: findet man einen A-Modulhomomorphismus δ : E Ñ U mit β δ idE , so erfullt U im δ Satz 14.3-14. Man sagt in diesem

Fall die keF p0q ÝÑ NαÝÑM

βÝÑ E ÝÑ p0q”zerfallt“.

14.3-16 Problem: Sei M ein A-Modul mit Erzeugendensystem tmi|i P Iu. Sei F der freie A-Moduluber I. Bezeichne das Basiselement von F , das zu i P I gehort, mit ei. Zeigen Sie, dass es genau einenA-Modulepimorphismus f : F Ñ M gibt mit fpeiq mi. Da jeder A-Modul ein Erzeugendensystembesitzt (z.B. bestehend aus allen Modulelementen), zeigt dies, dass jeder A-Modul epimorphes Bild einesfreien A-Moduls ist.

217

14.3-17 Satz: Sei R kommutativer, noetherscher Ring mit Einselement und sei M ein freier R-Modul.Seien tmα|α P Au und tvβ |β P Bu Basen von M mit Indexmenge A, bzw. B. Dann ist |A| |B|.14.3-18 Definition: Sei R kommutativer, noetherscher Ring, M ein freier R-Modul. Dann ist der RangrgpMq definiert als Kardinalitat einer Basis von M . Dieser ist unabhangig von der Wahl der Basis.

14.3-19 Bemerkung: Der Beweis von Satz 14.3-17 funktioniert fur Ringe A, nicht notwendigerweisekommutativ und nicht notwendigerweise mit Einselement, solange A maximale Ideale besitzt (im nicht-kommutativen Fall ist dann Apmax. Idealq ein Schiefkorper). Hat A ein Einselement, so garantiert dasZornsche Lemma die Existenz von maximalen Idealen, d.h. auch hier ist der Rang eines freien A-Modulswohldefiniert.Da HIRs noethersch sind, gilt Satz 14.3-17 fur diese und der Beweis funktioniert auch ohne ZornschesLemma.

14.3-20 Problem: Sei A beliebiger Ring, I A, und sei M ein A-Modul. Zeigen Sie:

1. IM ist A-Untermodul von M .

2. Die Menge J ta P A|a m 0 m P Mu ist ein Ideal von A, der Annullator annApMq von M

in A.

3. I annApMIMq.4. Sei L A und sei L annApMq. Dann wird M zum AL-Modul durch paLqm am, fur a P A,m PM .

5. MIM ist AI-Modul mit A-Operation gegeben durchpa Iqpm IMq am IM.

14.3-21 Satz: Sei R kommutativer, noetherscher Ring und seien M,N freie R-Moduln mit rgpMq rgpNq. Dann sind M und N isomorph. Fur jede Kardinalitat α gibt es daher einen bis auf Isomorphieeindeutigen freien R-Modul Fα vom Rang α, namlich die direkte Summe von α vielen Kopien von RR.

218

Kapitel 15

Moduln uber Hauptidealringen

In diesem Kapitel wollen wir nun die endlich erzeugten Moduln uber Hauptidealringen klassifizieren. Seialso im folgenden R, wenn nicht anders vermerkt, ein HIR. Im letzten Kapitel werden wir dies dann aufzwei spezielle Ringe anwenden. Zum einen, fur R Z, erhalten wir auf diese Weise eine vollstandigeKlassifikation der endlich erzeugten Moduln und damit auch insbesondere der endlich erzeugten abel-schen Gruppen. Zum anderen, fur den Fall R Krxs, werden wir die speziellen Krts-Moduln Vf naheruntersuchen, die fur einen K-Vektorraum V mit einem festen f P EndKpV q durch pptq v pppfqqpvq in13.7 vorgestellt wurden. Dies fuhrt dann auf die kanonisch rationale Form der Matrix fur f durch Wahleiner geeigneten K-Basis von V Vf .Eine Reihe von Definitionen und von Ergebnissen in den folgenden Abschnitten machen auch Sinn furbzw. gelten fur eine großere Klasse von kommutativen Ringen.

15.1 Torsionsmoduln

15.1-1 Definition: Sei R ein kommutativer Ring mit 1 und sei M ein R-Modul, m PM . Der Annullator

von m in R ist annRpmq tr P R | rm 0u. Ahnlich, fur eine Teilmenge S von M ist annRpSq tr PR | rm 0 m P Su

mPS

annRpmq.15.1-2 Lemma: Seien R,M,m, S wie in 15.1-1. Dann sind annRpmq und annRpSq Ideale von R.

15.1-3 Lemma: Seien R, M wie in 15.1-1 und sei M xm1, . . . ,mky endlich erzeugt. Dann ist

annRpMq tr P R|rm ki1

annRpmiqu.15.1-4 Definition: Sei R Integritatsbereich und M ein R-Modul. Ein Element m PM heißt Torsions-element , wenn annRpmq 0 ist, d.h. wenn gilt rm 0 fur ein 0 r P R. Das Nullelement 0M von M istnaturlich immer ein Torsionselement (da 0 1 P R, 1 0M 0M ). Ist es das einzige Torsionselement, soheißt M torsionsfrei .

219

15.1-5 Lemma: Sei R Integritatsbereich, M ein R-Modul und sei T pMq M die Menge der Torsi-onselemente von M . Dann ist T pMq ¤ M eine Untermodul von M und heißt der Torsionsuntermodulvon M . Ist T pMq M , so heißt M Torsionsmodul.

15.1-6 Beispiel:

1. Fur R Z ist ZZ torsionsfrei und ZzZ p0 z P Zq ist (als abelsche Gruppe, d.h. Z-Modul)Torsionsmodul, also T pZzZq ZzZ, da zpx zZq zx zZ 0 zZ 0ZzZ.

2. R Krts, V ein K-Vektorraum (K ein Korper), f P EndKpV q. Wie schon fruher gesehen, wird Vzum Krts-Modul (bezeichnet als Vf ) durch

pptq v pppfqqpvq v P V.Nach Satz von Caley-Hamilton 13.1-9 ist χf pfq 0, d. h. χf ptqv 0 fur alle v P V , wobei χf ptqdas charakteristische Polynom von f bezeichnet, (man hatte auch das Minimalpolynom nehmenkonnen). Umgekehrt, nach Satz 13.4-9 und Definition 13.4-10 ist das Minimalpolynom µf ptq P Krtsdas eindeutig bestimmte normierte Polynom kleinsten Grades, das ganz Vf annulliert, und daherist annKrtspVf q Krtsµf ptq und Vf ist Torsionsmodul.

Es gilt:

15.1-7 Satz: Sei R Integritatsbereich.

1. Ist M freier R-Modul, dann ist M torsionsfrei.

2. Ist M ein R-Modul, dann ist MT pMq torsionsfrei,d. h. T pMT pMqq p0q.3. Epimorphe Bilder von Torsionsmoduln sind Torsionsmoduln.

4. Sei Mα, α P A, eine Menge von R-Moduln. Dann ist T

ÀαPAMα

ÀαPAT pMαq. Sind insbesondere

die Mα Torsionsmoduln (torsionsfrei), dann auch ihre direkte Summe.

5. Untermoduln von Torsionsmoduln sind Torsionsmoduln.

6. Untermoduln von torsionsfreien Moduln sind torsionsfrei.

15.1-8 Definition/Lemma: Sei R kommutativer Ring mit Einselement und sei M ein R-Modul. Seim P M , sodass M Rm ist, d. h. M besitzt ein Erzeugendensystem bestehend aus nur einem Elementm PM . Dann heißt M zyklischer R-Modul. In diesem Fall wird durch

f : RRÑM : r ÞÑ rm

ein R-Modul-Epimorphismus vom regularen R-Modul RR auf M definiert. Insbesondere ist M isomorphzum Faktormodul R ker f mit ker f R. Umgekehrt ist I R, so ist RI zyklischer R-Modul erzeugtvon der Nebenklasse 1 I von I auf R.

15.1-9 Lemma: Sei R Integritatsbereich und p0q M Rm torsionsfreier, zyklischer Modul. Dannist M RR frei mit Basis tmu.15.1-10 Satz: Sei R Hauptidealring und sei F endlich erzeugter, freier R-Modul vom Rang n uber Rmit R-Basis B tv1, . . . , vnu. Sei M ¤ F . Dann ist M freier R-Modul vom Rang k mit k ¤ n.

220

15.1-11 Korollar: Sei R ein HIR und M torsionsfreier, endlich erzeugter R-Modul mit Erzeugenden-system S der Kardinalitat |S| k. Dann ist M frei vom Rang n ¤ k.

15.1-12 Bemerkung:

1. Fur Hauptidealringe sind also die torsionsfreien, endlich erzeugten R-Moduln exakt die freien R-Moduln von endlichem Rang. Dies ist eine Spezialitat von HIRs, fur sonstige Integritatsbereiche istdies im allgemeinen falsch.

2. Korollar 15.1-11 besagt nicht, dass Erzeugendensysteme freier R-Moduln (R ein HIR) vom end-lichen Rang eine Basis enthalten. Zum Beispiel wird der freie Z-Modul ZZ von t2, 3u erzeugt(warum?), t2, 3u enthalt keine Basis, ist aber linear abhangig, denn 3 a 2 b 0 fur a 2, b 3.Geht man wie im Beweis von 14.3-11 vor, so findet man Z 2Z als Z-Modul (mit maximalerlinear unabhangiger Teilmenge t2u von t2, 3u und S 2). Das Urbild unter l2 der Basis t2 1u von2Z ist dann t1u und dies ist Basis von Z.

15.1-13 Satz: Sei R ein HIR und M ein endlich erzeugter R-Modul. Dann ist M T pMq `U , wobeiU ¤M ein freier R-Modul von endlichem Rang ist mit U MT pMq.Da freie R-Moduln fur den Hauptidealring R bis auf Isomorphie vollstandig durch ihren Rang bestimmtsind, genugt es, endlich erzeugte R-Torsionsmoduln zu klassifizieren, um eine Liste von Prototypen end-lich erzeugter R-Moduln zu erstellen. Ist tMα|α P Au eine

”Liste“ aller nichtisomorphen endlich er-

zeugten Torsionsmoduln, so erhalt man eine Liste aller nichtisomorphen, endlich erzeugten R-Moduln alstMα,k|α P A, k P N0u mitMα,k Mα `R` . . .`Rloooooomoooooon

k-viele

.

In den nachsten Abschnitten wollen wir so eine Liste tMα|α P Au konstruieren.

15.2 Primarkomponenten

R ist immer ein HIR und M endlich erzeugter R-Modul.

15.2-1 Definition: Sei p P R. Dann ist Mp der Untermodul

Mp tm PM |pkm 0 Dk P Nu.Ist 0 p P R Primelement, so heißt Mp Primarkomponente.

15.2-2 Beispiel: Sei V ein K-Vektorraum, dimK V 8, f P EndKpV q. Wir betrachten den Krts-Modul Vf aus Beispiel 15.1-6. Sei λ ein Eigenwert von f und p pptq t λ. Mit M Vf istalso

Mp Mpfℓλq tv P V |pkpfqpvq 0 Dk P Nu tv P V |pf ℓλqkv 0 Dk P Nu ¤kPN

kerpf ℓλqk Vλpfqder verallgemeinerte Eigenraum von f zum Eigenwert λ von f .Klar: pptq t λ ist irreduzibel und daher Primelement von Krts, (in der Tat: Krtspt λqKrts K).

221

15.2-3 Lemma: Sind 0 p, q P R mit ggTpp, qq 1, so ist Mp XMq p0q und daher ist die SummeMp Mq direkt.

15.2-4 Beispiel: Seien Vf , f und λ wie oben in Beispiel 15.2-2. Sei λ µ P K ein weiterer Eigenwertvon f . Dann ist (mit M Vf ) Mp XMq Vλpfq X Vµpfq p0q, wobei p t λ und q t µ gesetztwird. Also ist die Summe Vλpfq Vµpfq direkt.(Lineare Polynome, d.h. Polynome vom Grad 1, sind immer irreduzibel und daher Primelemente in Krts.)Erinnerung: (an Definition 15.1-1 und Lemma 15.1-2) Ist M ein R-Modul mit ErzeugendensystemS M , so ist annRpMq tr P R|rm 0 m P Mu

sPS

annRpsq der Annullator von M in R und

annRpMq R. Ist R HIR, M ein R-Modul, so ist annRpMq rR fur ein r P R.Wir wollen jetzt endlich erzeugte R-Torsionsmoduln untersuchen.

15.2-5 Satz: Sei R ein HIR und M ein endlich erzeugter R-Torsionsmodul. Dann gilt:

1. Der Annullator annRpMq ist nichttrivial und wird von einem bis auf Einheiten eindeutig bestimmtenr P R erzeugt: annRpMq rR p0q. Ein Erzeuger von annRpMq wird Ordnung von M genanntund mit r OpMq bezeichnet.

2. Ist OpMq r und r pk1

1 . . . pknn die Primfaktorzerlegung von r nach 14.2-25 in paarweise nicht

assoziierte Primelemente p1, . . . , pn P R, k1, . . . , kn P N, so zerlegt sich M in die direkte Summe

M Mp1` . . .`Mpn

seiner (eindeutig bestimmten) Primarkomponenten Mpi, i 1, . . . , n.

Der Beweis von Satz 15.2-5 zeigt auch:

15.2-6 Korollar: Sei M und r pk1

1 . . . pknn wie in Satz 15.2-5. Dann ist OpMpi

q pki

i .

15.2-7 Beispiel: Sei K Korper, V ein K-Vektorraum der Dimension n P N und f P EndKpV q. Wirbetrachten V Vf als Krts-Modul wie in Beispiel 14.3-3 Teil 3 durch

pptq v pppfqqpvqfur pptq P Krts und v P V . Sei χf ptq pt λ1qn1 . . . pt λkqnk eine Zerlegung des charakteristischenPolynoms χf ptq P Krts in Linearfaktoren, wobei λ1, . . . , λk die verschiedenen Eigenwerte von f sind.Dann ist n1 . . . nk n. Im Abschnitt 13.4 definierten wir das Ideal If tpptq P Krts|ppfq 0u tpptq P Krts|pppfqqpvq 0 v P V u. Merken Sie was?Ja, sie haben recht, es gilt If annKrtspVf q und daher ist der Erzeuger µf ptq, das Minimalpolynom von f ,gerade die Ordnung von Vf : OpVf q µf ptq. In Satz 13.4-17 sahen wir µf ptq ptλ1qm1 . . . ptλkqmk mitmi ¤ ni fur i 1, . . . , k. Die Linearfaktoren pt λiq sind irreduzible Polynome und daher Primelementein Krts (Satz 14.2-22) und µf ptq pt λ1qm1 . . . pt λkqmk ist die Primfaktorzerlegung der OrdnungOpVf q µf ptq von Vf . Was ist dann die Primarkomponentenzerlegung? Sei p ptλiq mit i P t1, . . . , kufest und pVf qp tv P Vf |pkv 0 Dk P Nu tv P Vf |pt λiqk v 0 Dk P Nu tv P Vf |pf ℓλi

qkpvq 0 Dk P Nu Vf pλiq,222

der verallgemeinerte Eigenraum zum Eigenwert λi von f . So ist die Primarkomponentenzerlegung nachSatz 15.2-5 von Vf nichts anderes als die altbekannte Zerlegung (Satz 13.2-12) von V in verallgemeinerteEigenraume des Endomorphismus f .Zerfallt das charakteristische Polynom χf ptq P Krts nicht in Linearfaktoren, d.h. enthalt seine Primfak-torzerlegung irreduzible Polynome vom Grad ¥ 2, so ist die Primarkomponentenzerlegung von Vf dieVerallgemeinerung der Zerlegung von V in verallgemeinerte Eigenraume.

15.2-8 Definition/Bezeichnung: Wir kurzen”endlich erzeugt“ jetzt mit

”e.e.“ ab. Sei M e.e. R-

Torsionsmodul,m PM und sei annRpmq rR. Dann heißt r die Ordnung vonm, die mit Opmq bezeichnetwird.

Die Zerlegung von M in Satz 15.2-5 heißt Primarkomponentenzerlegung des e.e. Torsionsmoduls M . Istnun M ein beliebiger e.e. R-Modul, so konnen wir mit Satz 15.1-13 zunachst M in eine direkte SummeM T pMq ` U mit einem freien R-Modul U zerlegen, d.h. den torsionsfreien Teil U von M abspalten.Als epimorphes Bild von M ist U MT pMq ebenfalls e.e. ( 14.3-12) und U ist bis auf Isomorphieeindeutig bestimmt. Wie wir gesehen haben, ist der Rang des freien R-Moduls U eindeutig bestimmt undendlich (Satz 14.3-21 und Korollar 15.1-11).Der Torsionsmodul T pMq MU ist ebenfalls e.e., wieder nach Satz 14.3-12. Er hat nach Satz 15.2-5 ei-ne (eindeutige) Zerlegung in Primarkomponenten

T pMq T pMqp1` . . .` T pMqpn

,

wobei die paarweise verschiedenen Primelemente pi P R pi 1, . . . , nq gerade die Primfaktoren der Ord-nung OpMq von M sind, die in der Primfaktorzerlegung von OpMq mit positiver Vielfachheit vorkommen.Es bleibt also, die Moduln T pMqpi

weiter zu zerlegen und zu bestimmen. Dies ist unser Ziel im nachstenAbschnitt.

15.3 Elementarteiler und Prototypen

15.3-1 Definition: Sei R ein Ring mit Einselement, M ein R-Modul. Dann heißt M zyklischer R-Modul, falls M von einem Element erzeugt wird, d.h. Dm PM : M Rm trm|r P Ru.15.3-2 Satz: M ist zyklischer R-Modul genau dann, wenn M epimorphes Bild des regularen R-Moduls

RR ist. Ist M Rm, so ist M R annRpmq.Bemerkung: Fur einen nichtkommutativen Ring, einen Linksmodul M und m PM ist annRpmq tr PR|rm 0u ein Linksideal in R; denn r, s P annRpmq ñ rm sm 0 ñ pr sqm 0ñ r s P annRpmqund fur t P R ist ptrqm tprmq t 0M 0M ñ tr P annRpmq. Die Linksuntermoduln von RR

sind gerade die Linksideale und sind daher die Kerne von R-Modulhomomorphismen von RR in andereR-Moduln.

15.3-3 Korollar: Sei R ein HIR und M ein zyklischer R-Torsionsmodul mit Erzeuger m P M . Seir Opmq. Dann ist M RrR als R-Modul und OpMq r.

223

15.3-4 Definition: Sei R Ring mit Eins, M ein R-Modul und y1, . . . , ym PM . Dann heißen y1, . . . , ym

unabhangig, falls ausλ1y1 λ2y2 . . . λmym 0

mit λ1, . . . , λm P R stets λiyi 0 fur alle i 1, . . . ,m folgt.

Vorsicht:”Unabhangig“ und

”linear unabhangig“ sind zwei Paar Stiefel. Bei

”linear unabhangig“ for-

dern wir mehr, namlich (in der Notation von Definition 15.3-4), dass λi 0 ist fur i 1, . . . ,m.Naturlich ist eine linear unabhangige Teilmenge von M immer auch unabhangig, aber nicht umgekehrt.Zum Beispiel ist im Z-Modul Z2Z die Nebenklasse 1 2Z unabhangig, aber nicht linear unabhangig!

15.3-5 Satz: Sei R Ring mit Eins, M ein R-Modul und sei ty1, . . . , ymu ein unabhangiges Erzeugen-densystem. Dann ist M Ry1 ` . . .` Rym. Umgekehrt ist M Ry1 ` . . .` Rym py1, . . . , ym P Mq, soist ty1, . . . , ymu unabhangig.

15.3-6 Korollar: Seien M und ty1, . . . , ymu wie in Satz 15.3-5 und sei R zusatzlich ein HIR. Seisi Opyiq. Dann ist

M Ry1 ` . . .`Rym RRs1 ` . . .`RRsm.

Unsere Strategie ist nun, fur e.e. R-Torsionsmoduln M uber einem Hauptidealring R ein unabhangigesErzeugendensystem zu finden. Dafur mussen wir ein wenig arbeiten. Wegen der Primarkomponentenzer-legung von M konnen wir annehmen, dass M Mp ist fur ein Primelement p P R.

15.3-7 Lemma: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul, dessen Ordnung OpMq pk ist

fur ein Primelement p P R und ein k P N. (Das heißt M Mp). Sei m P M mit Opmq OpMq pk

und sei M MRm. Dann gibt es in jeder Nebenklasse x x Rm PM ein Modulelement y PM mity x und Opxq Opyq Opyq.15.3-8 Lemma: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul mit OpMq pk fur ein Prim-

element p P R und ein k P N. Sei m P M , sodass Opmq OpMq pk ist, und seien y1, . . . , yn P M ,sodass die Nebenklassen yi yi Rm P MRm unabhangig sind, und seien die Nebenklassenvertreteryi P yi Rm so gewahlt, dass Opyiq Opyiq ist fur i 1, . . . , n, dann ist auch tm, y1, . . . , ynu M

unabhangig.

15.3-9 Satz: Sei R ein HIR und M Rm pm P Mq ein zyklischer R-Modul der Ordnung pk fur einPrimelement p P R und k P N. Dann gilt:

1. Fur 0 ¤ ν ¤ k sei Mν pνM Rpν m. Dann ist Mν ¤M und tMν|ν 0, . . . , ku ist prazise dieMenge der Untermoduln von M .

2. p0q Mk ² Mk1 ² Mk2 ² . . . ² M2 ² M1 ² M0 M und OpMνq pkν fur ν 0, 1, . . . , k.Mν ist zyklisch mit Erzeuger pνm der Ordnung pkν .

3. Sei x PM . Dann ist x Erzeuger von M , d.h. M Rx genau dann, wenn x RM1 ist.

4. Jedes Erzeugendensystem von M enthalt ein x RM1 und dann ist M Rx.

15.3-10 Definition: Sei R ein Ring mit 1 und M ein R-Modul. Sei S M Erzeugendensystem vonM , d.h. M xSy °

xPS

Rx. Wir sagen S sei minimales Erzeugendensystem von M , falls xT y ²M ist fur

jede echte Teilmenge T von S.

224

15.3-11 Korollar: Sei R ein HIR und M ein zyklischer R-Modul der Ordnung pk fur ein Primelementp P R und ein k P N. Sei S M minimales Erzeugendensystem von M . Dann ist S txu mit x P M ,aber x R pM .

15.3-12 Beispiel: Sei R Z, dann ist ein zyklischer R-Modul nichts anderes als eine zyklische Gruppe,

d.h. ein Gruppe G txi|i P Zu xZ fur ein x P G. Wir schreiben hier einmal die Operation multiplikativund beachten, dass die Z-Operation dann im Exponenten geschrieben wird:

ez $''''&''''%e e . . . elooooomooooonzmal

fur z ¡ 0,

1 fur z 0,

e1 e1 . . . e1loooooooooomoooooooooonzmal

fur z 0.

G Torsionsgruppe heißt dann, dass xk 1 fur ein k P Z und annZpGq annZpxq tk P Z|xk 1u OpGq Z. Sei m OpGq. Dann ist G t1 x0, x1, . . . , x1mu und in der Tat ist OpGq |G| m Anzahl der verschiedenen Elemente von G, (leichte Ubung!).Ist zusatzlich m pk eine Primzahlpotenz, so hat G genau eine Kette von Untergruppen.

G G0 ¡ G1 ¡ . . . ¡ Gk1 ¡ Gk p1q‖ ‖ ‖ ‖xxy ¡ xxpy ¡ . . . ¡ xxpk1y ¡ xxpk 1y,

die den Teilern pν von pk entsprechen (ν 0, . . . , k).Man kann zeigen: Sei G abelsche Gruppe der Ordnung n. Dann ist G zyklisch genau dann, wenn G zujedem Teiler d von n exakt eine Untergruppe Gd der Ordnung d besitzt und d1|d2 (d1, d2 Teiler von n) Gd2

¤ Gd1.

15.3-13 Satz: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul der Ordnung pk fur ein Primelementp von R und ein k P N. Sei s tm1, . . . ,mnu M ein endliches minimales Erzeugendensystem vonM . Dann enthalt jedes minimale Erzeugendensystem exakt n Elemente und es gibt eindeutig bestimmtenaturliche Zahlen

k e1 ¥ e2 ¥ . . . ¥ en,

sodass mit qi pei gilt:M RRq1 ` . . .`RRqn.

Beachte: qn|qn1| . . . |q2|q1 pk.

15.3-14 Beispiel: Sei f P EndKpV q wir in Beispiel 15.2-7, V Vf als Krts-Modul. Sei χf ptq pt λ1qν1pt λ2qν2 . . . pt λkqνk P Krts, d.h. das charakteristische Polynom von f zerfalle wieder inLinearfaktoren. In Beispiel 15.2-7 haben wir gesehen, dass die Primarkomponentenzerlegung von Vf

gerade die Zerlegung von V in verallgemeinerte Eigenraume ist. Wir nehmen nun k 1 an, d.h. f hatnur einen Eigenwert λ P K und χf ptq ptλqn mit n dimKpV q. Was bedeutet nun die Zerlegung vonV Vλpfq Vf in zyklische Krts-Moduln?Unser Primelement in Krts ist t λ. Sei k P N. Ist v P V , so ist Opvq pt λqk pt λqk1 v pf ℓλqk1pvq 0, aber pt λqk v pf ℓλqkpvq 0, d.h. tv P V |Opvq pt λqku kerpf ℓλqkz kerpf ℓλqk1. Wie sieht der zyklische Krts-Modul KrtsKrtspt λqkloooooomoooooonI

aus?

Hier ist eine K-Basis desselben:

225

15.3-15 Problem: Die Nebenklassen t1 I, t I, . . . , tk1 Iu bilden eine K-Basis von KrtsI mitI Krtspptq, fur ein Polynom pptq vom Grad k in Krts.15.3-16 Problem: Sei nun pptq pt λqk. Dann ist pptq vom Grad k und daher hat eine K-Basis von

KrtsKrtspt λqk exakt k Elemente. Zeigen Sie, dass tpt λqi I|0 ¤ i ¤ k 1u ebenfalls K-Basis vonKrtsI (I Krtspt λq) ist.

Wie operiert pt λq auf dieser Basis?

t λ : 1 I ÞÑ pt λq I ÞÑ . . . ÞÑ pt λqk1 I ÞÑ 0.

Sei also v, pf ℓλqv, . . . , pf ℓλqk1v, pf ℓλqkv 0 ein λ-Zykel, v P kerpf ℓλqk, v R kerpf ℓλqk1.Dann operiert pt λq auf diesen Elementen von Vf durchpt λq : idpvq ÞÑ pf ℓλqv ÞÑ . . . ÞÑ pf ℓλqk1v ÞÑ 0.

Also spannt ein λ-Zykel von f gerade einen zyklischenKrts-Modul auf! Zerlegungssatz 15.3-13 angewandtauf den Krts-Modul Vf liefert gerade die Jordanblocke von f !Wir sind jetzt in der Lage, eine vollstandige Liste von paarweise nicht isomorphen, endlich erzeugtenR-Moduln (Protoypen) fur einen HIR R anzugeben.

15.3-17 Prototypen: Sei R ein Hauptidealring. Seien p1, . . . , pk P R paarweise nicht assoziierte Prim-elemente. Fur 1 ¤ i ¤ k seien

epiq1 ¥ e

piq2 ¥ . . . ¥ epiqni

¥ 1

naturliche Zahlen und Ipiqν Rpepiqν , ν 1, . . . , ni. Wir kurzen ab: ei pepiq1 , . . . , e

piqni q und setzen:

Eppi, eiq RIpiq1 ` . . .`RIpiqni.

Fur α P N0 sei

Mpp1, e1, p2, e2, . . . , pk, ek, αq Epp1, e1q ` . . .`Eppk, ekq ` pR` . . .`Rqlooooooomooooooonα viele Summanden

.

Dann ist $''''&''''%Mpp1, e1, p2, e2, . . . , pk, ek, αq k P N0, ni P N, α P N0

ei pepiq1 , . . . , epiqni q mit

epiq1 ¥ e

piq2 ¥ . . . ¥ e

piqni q

p1, . . . , pk P R Primelemente(bis auf Assoziierung)

,////.////-eine vollstandige Liste von paarweise nicht isomorphen, endlich erzeugten R-Moduln.

Dies ist aber noch nicht das Ende der Story!

15.3-18 Frage: Sei R ein HIR und sei r P R, M RRr. M ist also zyklischer R-Modul der Ordnung rNach 15.3-17 musste dieser aber zu einem der R-Moduln aus unserer Liste isomorph sein. Zu welchem?Antwort: Primarkomponentenzerlegung!

15.3-19 Satz: Sei R ein HIR und r s t eine Zerlegung von r P R in Faktoren s, t P R, s, t R UpRq.Sei ggTps, tq 1. Dann ist der zyklische R-Modul M RRr isomorph zu RRs`RRt.

226

15.3-20 Korollar: Sei R ein HIR, q P R und sei q pe1

1 . . . pek

k Primfaktorzerlegung von q in R. Dannist

RRpe1

1 ` . . .`RRpek

k RRq.15.3-21 Bemerkung: Die Zerlegung des zyklischen R-Moduls M RRq in Korollar 15.3-20 ist

gerade seine Zerlegung in Primarkomponenten: M kÀi1

Mpi.

Aus den Prototypen der e.e. R-Torsionsmoduln in 15.3-17 lasst sich nun mit Hilfe von Korollar 15.3-20eine zweite, kompaktere Liste von Prototypen herauskitzeln:

15.3-22 Prototypen uber Elementarteiler: R ist ein HIR, p1, . . . , pk P R sind paarweise nicht

assoziierte Primelemente von R. Fur 1 ¤ i ¤ k seien epiq1 ¥ . . . ¥ e

piqni mit e

piqν P N, ν 1, . . . , ni. Wir

setzen n maxtni|1 ¤ i ¤ ku und epiqν 0 fur ni ν ¤ n. Fur 1 ¤ i ¤ k sei ei pepiq1 , . . . , e

piqni q und

Ei Eppi, eiq der e.e. R-Modul

Ei RRpepiq1

i ` . . .`RRpepiqn

i .

Fur ν ¡ ni ist RRpepiqν

i RRp0i RR p0q.

Sei M Mpp1, e1, p2, e2, . . . , pk, ekq kÀi1

Ei aus der Liste 15.3-17.

Betrachte:

Schema F :

ep1q1 ¥ e

p1q2 ¥ . . . ¥ e

p1qn ¥ 0

ep2q1 ¥ e

p2q2 ¥ . . . ¥ e

p2qn ¥ 0

......

......

epkq1 ¥ e

pkq2 ¥ . . . ¥ e

pkqn ¥ 0

Sei fur 1 ¤ i ¤ k, qi peip1q1 p

eip2q2 . . . p

eipkqk , d.h. pj hat gerade den Exponenten e

pjqi in der i-ten Spalte in

seiner Primfaktorzerlegung. Dann ist qn|qn1|qn2| . . . |q2|q1.Nach 15.3-17 ist M M1 `M2 ` . . .`Mn mit

Mν RRpep1qν

1 `RRpep2qν

2 ` . . .`RRpepkqν

k

und nach Korollar 15.3-20 ist Mν RRqν pν 1, . . . , nq. Die qν heißen Elementarteiler von M . Klarist, dass fur k 1 (d.h. M Mp fur ein Primelement p P R) die Primzahlpotenzen in

M RRpe1 ` . . .`RRpek

in Satz 15.3-13 dann gerade die Elementarteiler von M sind.

Umgekehrt: Ist eine Folge qn|qn1|qn2| . . . |q2|q1 von qi P R vorgelegt und ist qν pep1qν

1 . . . pepkqν

k diePrimfaktorzerlegung von qν (die pj sind bis auf Assoziiertheit eindeutig) fur ν 1, . . . , n, so ist wegen

qν |qν1 pν 2, . . . , nq, epiqν1 ¥ epiqν ¥ 0 fur i 1, . . . , k und man erhalt ein Schema F und einen R-Modul

M . Damit ergibt sich folgende alternative Liste von e.e. R-Moduln:

Liste II von Prototypen: Sei R ein HIR und seien q1, . . . , qn P R Reprasentanten von Assoziierungs-klassen von Elementen von R mit qn|qn1| . . . |q1 und sei α P N0. Dann sei

Mpq1, . . . , qn, αq RRq1 ` . . .`RRqn `R` . . .`Rloooooomoooooonαmal

.

227

15.3-23 Satz: Sei R HIR und sei Ra ein Reprasentantensystem der Assoziierungsklassen von R. Dannist tMpq1, . . . , qn, αq|q1, . . . , qn P Ra, qn|qn1|qn2| . . . |q2|q1, n P N, α P N0uein vollstandiges System nicht-isomorpher endlich erzeugter R-Moduln. Dabei ist q1 OpMpq1, . . . , qn, 0qqund OpMpq1, . . . , qn, αqq 0 fur α 0.

228

Kapitel 16

Anwendungen

16.1 Endlich erzeugte abelsche Gruppen

16.1-1 Problem: Sei G eine Gruppe, x P G. Dann ist txi|i P Zu eine Untergruppe xxy, die von

x erzeugte zyklische Untergruppe von G. Diese ist abelsch. Die Abbildung Z Ñ xxy : i ÞÑ xi ist einGruppenepimorphismus von der additiven Gruppe pZ,q auf die (hier multiplikative) Gruppe xxy. Istder Kern dieser Abbildung gleich p0q, so ist Z xxy und die Ordnung |xxy|, d.h. die Anzahl der Elementevon xxy ist abzahlbar unendlich. Ist der Kern ungleich p0q, so sei n die kleinste naturliche Zahl, sodassxn 1 ist. Dann ist xxy t1, x, x2, . . . , xn1u und |xxy| n. Die Ordnung |xxy| der Gruppe xxy heißtOrdnung von x und wird mit |x| bezeichnet. Ist n |x| P N, so ist xxy pZnZ,q. So sind die zyklischenGruppen exakt die zyklischen Z-Moduln.pZ,q ist also die einzige unendliche zyklische Gruppe. Wir wenden nun die Klassifikationssatze 15.3-17 und15.3-23 an, um die endlich erzeugten Z-Moduln, d.h. die endlich erzeugten abelschen Gruppen zu klas-sifizieren.

Klar: pZ,q ist als Z-Modul frei (da torsionsfrei, siehe Korollar 15.1-11).

16.1-2 Klassifikation der endlich erzeugten abelschen Gruppen:

1. Liste von Prototypen (Elementarteiler):Seien q1, . . . , qk P N, sodass qk|qk1| . . . |q1 in Z und sei α P N0. Dann sei

Mpq1, . . . , qk, αq Cq1 Cq2

. . . Cqk C8 . . . C8loooooooomoooooooon

α Faktoren

mit Cn pZnZ,q fur n P N und C8 pZ,q.Dann ist tMpq1, . . . , qk, αq|k P N0, q1, . . . , qk P N, qk|qk1| . . . |q1, α P N0ueine vollstandige Liste nicht isomorpher, endlich erzeugter abelscher Gruppen. Ist daruberhinaus α 0,so setzen wir Mpq1, . . . , qkq Mpq1, . . . , qk, αq und erhalten durchtMpq1, . . . , qkq|k P N0, q1, . . . , qk P N, qk|qk1| . . . |q1ueine vollstandige Liste nicht isomorpher, endlicher abelscher Gruppen. Dabei ist |Mpq1, . . . , qkq| q1q2 . . . qk PN.

229

2. Liste von Prototypen: pi sind positive Primzahlen, i 1, . . . , k, und epiq1 ¥ . . . ¥ e

piqn ¥ 0 ganze

Zahlen, ei pepiq1 , . . . , epiqn q pn P Nq. Sei α P N0.

Mpp1, e1, . . . , pk, ek, αq Cp

ep1q1

1

. . . Cp

ep1qn

1

Cp

ep2q1

2

. . . Cp

epkqn

k

C8 . . . C8loooooooomoooooooonα Faktoren

.

16.1-3 Probleme:

1. Wieviele abelsche Gruppen A mit |A| 32 gibt es (bis auf Isomorphie) und was sind deren Ele-mentarteiler?

2. Dasselbe mit |A| 15.

3. Sei k P N und A zyklische Gruppe mit |A| k. Was sind die Elementarteiler von A?

4. Sei M Cpe1 . . . Cpek mit e1 ¥ e2 ¥ . . . ¥ ek ¡ 0 naturliche Zahlen und

a) p P N Primzahl

b) p s t fur Primzahlen s und t, s t.

Was sind die Elementarteiler von M?

Das Wiedererkennungsproblem fur abelsche Gruppen ist schwierig, wie das nachste Beispiel zeigt:

16.1-4 Beispiel: R Z und M1 Z2Z` Z, M2 Z` Z. Dann ist M1 xx, yy mit x p1 2Z, 1q,y p0, 1q und M2 xa, by mit a p1, 0q, b p0, 1q. Man sieht unmittelbar: |x| |y| |a| |b| 8.Beides sind minimale Erzeugendensysteme fur M1, bzw. M2. Nur aus der Kenntnis der Ordnungen Opbiqpi 1, . . . , kq einer von k Elementen b1, . . . , bk erzeugten abelschen Gruppe lasst sich wenig schließen.Fur M2 gilt: namb 0 n m 0 pn,m P Zq, aber fur M1 gilt:

2x 2y 2p1 2Z, 1q 2p0, 1q p0 2Z, 2q p0, 2q p0, 0q,aber 2x 0 2y, d.h. x und y sind nicht unabhangig! Man braucht also noch Relationen wie z.B.2px yq 0.

Ist M T pMq`F e.e. Z-Modul mit Torsionsteil T pMq und freiem Anteil F , so kann man den Rang vonF auf folgende Weise bestimmen:Man betrachtet QbZ M , wobei das Tensorprodukt

”uber Z“ genauso wie in Definition 12.3-4 definiert

ist, nur dass eben jetzt der Korper K durch den Ring Z ersetzt wird. Das Tensorprodukt erfullt dannebenfalls die universelle Eigenschaft aus Satz 12.3-7 (wobei wieder der Korper durch den Ring ersetztwird).Es gilt:

16.1-5 Satz: Sei A eine endliche abelsche Gruppe, dann ist QbZ A p0q.16.1-6 Satz: Sei F freier Z-Modul vom Rang n P N. Dann ist QbZF ein n-dimensionaler Vektorraumuber Q.

230

16.1-7 Satz: Sei M endlich erzeugte abelsche Gruppe und sei n die Q-Dimension des VektorraumsQbZ M . Dann ist M T pMq ` F , wobei der freie Anteil F von M vom Rang n ist.

Sei M e.e. Z-Modul. Es verbleibt die Aufgabe, die Elementarteiler von T pMq zu finden. Dies ist in derPraxis eine nicht immer einfache Aufgabe und hangt davon ab, in welcher Form M gegeben ist. In derPraxis wird man versuchen, die endliche abelsche Gruppe A T pMq in ihre Primarkomponenten Ap (p PN Primzahl) zu zerlegen. Dann wendet man Lemma 15.3-8 an um Ap weiter klein zu hacken. Der Beweisvon Lemma 15.3-7 liefert ein Rezept, wie man in Nebenklassen unter bestimmten Voraussetzungen einElement findet, das dieselbe Ordnung wie die Nebenklasse hat.Hier sind noch zwei Folgerungen aus der Klassifikation e.e. abelscher Gruppen, die interessant sind:

16.1-8 Satz: Sei k P N. Dann gibt es nur endlich viele abelsche, nicht isomorphe Gruppen A mit|A| k. Ist k multiplizitatenfrei, d.h. kommt in der Primfaktorzerlegung jede vorkommende Primzahlnur mit Exponent 1 vor, so gibt es bis auf Isomorphie nur eine abelsche Gruppe A mit |A| k, namlichdie zyklische Gruppe ZkZ der Ordnung k.

16.1-9 Problem: Zeigen Sie: eine abelsche Gruppe A ist zyklisch genau dann, wenn A fur jeden Teilerd von |A| genau eine Untergruppe der Ordnung d besitzt.

16.1-10 Bemerkung: Fur eine Gruppe G wird |G| auch die Ordnung von G genannt. Dies ist nichtganz glucklich, da fur abelsche Gruppen A im allgemeinen |A| OpAq ist. In der Tat ist |A| OpAqgenau dann, wenn A zyklisch ist.

16.2 Die kanonisch rationale Form

Jetzt ist K ein Korper, R Krts der Polynomring in der Unbestimmten t uber K und V ein endlich-dimensionaler K-Vektorraum. Wir fixieren einen Endomorphismus f P EndKpV q und betrachten denKrts-Modul M Vf aus Beispiel 14.3-3 4., d.h. pptq P Krts operiert auf v P V durch

pptq v pppfqqpvq.Wie immer sei χptq χf ptq das charakteristische Polynom und µptq µf ptq das Minimalpolynomvon f . Dann folgt sofort aus der Definition des Verschwindungsideals If (vor Definition 13.4-1), dassIf annKrtspVf q und OpVf q µpfq ist. Krts ist ein HIR nach Korollar 14.2-10.

16.2-1 Lemma: M Vf ist endlich erzeugter Torsionsmodul.

16.2-2 Problem: Sei U ¤ V (K-Vektorraum). Dann ist U f -invariant U ist Krts-Untermodul vonM V .

Wir werden die kanonische rationale Form von f (bzw. Mf pBq A fur eine K-Basis B von V ) ausder Krts-Modulstruktur von M Vf rauskitzeln. Klar ist dann, dass zu A ahnliche Matrizen diesselbekanonische rationale Form haben, bzw. in Endomorphismensprache, wenn h g1fg ist fur ein g PAutKpV q, so haben h und f dieselbe kanonische rationale Form. Aber auch die Umkehrung gilt.

231

16.2-3 Satz: Seien f und g in AutKpV q konjugiert, d.h. es gibt ein d P AutKpV q mit f d1gd. Dannist d : Vf Ñ Vg ein Krts-Isomorphismus und daher ist Vf Vg als Krts-Modul. Sind umgekehrt f undg K-automorphismen von V mit Vf Vg als Krts-Moduln, und ist d : Vf Ñ Vg ein Isomorphismus vonKrts-Moduln, dann ist f d1gd, d. h. f und g sind konjugiert.

Satz 16.2-3 zeigt, dass die Modulstruktur von V als Krts-Modul fur konjugierte Endomorphismenf und g gleich ist, d.h. zum selben Prototypen aus unserer Liste 15.3-17, bzw. 15.3-22 isomorphist. Wie wir sehen werden, bestimmt dieser Prototyp eine kanonisch rationale K-Basis von V , sodassbzgl. dieser Basis f und g dieselbe Matrix (kanonische rationale Form) haben. Analog gilt fur n n-Matrizen A und B: sind A und B ahnlich, so haben sie dieselbe kanonische rationale Form. Da jedeMatrix (Endomorphismus) zu ihrer kanonischen rationalen Form konjugiert ist, bilden die kanonischenrationalen Matrizen ein Reprasentantensystem fur die Ahnlichkeitsklassen von n n-Matrizen.

16.2-4 Korollar: Seien A und B n n-Matrizen uber K. Dann sind A und B ahnlich genau dann,wenn ihre kanonischen rationalen Formen gleich sind.

Nun ist es aber an der Zeit, dass wir die kanonische rationale Form einer n n-Matrix (bzw. einesEndomorphismus f P EndKpV q) kennen lernen. Ein bisschen mussen wir dazu noch arbeiten.Als Reprasentantensystem in Assoziierungsklassen irreduzibler Elemente in Krts wahlen wir die nor-mierten, irreduziblen Polynome. Das Minimalpolynom ist per definitionem ebenfalls normiert und daherProdukt normierter, irreduzibler Polynome:

µptq k¹i1

piptqνi pνi P Nqmit p1, . . . , pk P Krts paarweise verschiedener, irreduzibler, normierter Polynome.So erhalten wir die Primarkomponentenzerlegung von M Vf nach Satz 15.2-5

M Mp1` . . .`Mpk

,

wobei Mpi tv PM |piptqmv 0 Dm P Nu ist. Die Primarkomponenten lassen sich ausrechnen:

16.2-5 Satz: Sei µptq wie oben und 1 ¤ i ¤ k. Dann ist

kerppipfqνi1q ²Mpi kerppipfqνiq ¤ V.

16.2-6 Problem: Die νi in Satz 16.2-5 lassen sich wie folgt bestimmen: Wir haben

ker pipfq ker pipfq2 . . . kerpipfqj . . .

Diese aufsteigende Kette von K-Unterraumen von V muss stationar werden. Sei m die kleinste naturlichZahl, sodass kerppipfqmq kerppipfqm1q ist. Dann ist m νi.

16.2-7 Korollar: Sei piptq wie in Satz 16.2-5 und sei piptq t λ pλ P Kq ein lineares Polynom.Dann ist Mpi

Vf pλq, der verallgemeinerte Eigenraum von f zum Eigenwert λ.

16.2-8 Satz: Sei p P Krts und Cp KrtsKrtsp der zyklische Krts-Modul. Sei n deg p. Dann ist

dimKpCpq n und t1, t, . . . , tn1u ist K-Basis von Cp, wobei ti ti Krtsp P Cp ist fur i 0, . . . , n 1.

232

16.2-9 Erinnerung: Erinnern Sie sich an die Definition 13.1-3 eines f -zyklischen Unterraums von V ?

Hier ist sie nochmals: Sei v P V . Dann ist der von v erzeugte f -zyklische Unterraum xf ipvq|i P Ny.16.2-10 Satz: Sei v P Vf . Dann ist der von v erzeugte zyklische Krts-Untermodul Krts v der von v

erzeugte f -zyklische Unterraum von V . Dieser ist f -invariant und die Einschrankung von f auf Krtsv seimit fxvy bezeichnet. Sei µfxvyptq pptq α0α1t. . .αk1t

k1tk das normierte Minimalpolynom von

fxvy. Dann ist Opvq pptq und tv, fpvq, . . . , fk1vu B ist K-Basis von Krtsv. Die Matrix MfxvypB,Bqist die Begleitmatrix von pptq, d.h. ist die k k-Matrix

MfxvypB,Bq 0 0 0 α0

1. . . 0 0 α1

0. . .

. . ....

......

. . .. . .

......

.... . . 0

...0 0 1 αk1

ÆÆÆÆÆÆÆÆÆÆ .Nun konnen wir die kanonische rationale Form von f hinschreiben:

16.2-11 Kanonisch rationale Form: Sei dimK V n, f P EndKpV q. Sei χf ptq k±i1

piptqνi P Krtsdie Primfaktorzerlegung von χf ptq in Krts mit paarweise verschiedenen, irreduziblen normierten Polyno-men vom Grad ni und Vielfacheit νi. Fur p P Krts sei ppq PMdeg pdeg ppKq die Begleitmatrix von p nach

Satz 13.1-7. Dann gibt es eine Basis B von V und fur 1 ¤ i ¤ k naturliche Zahlen epiq1 ¥ . . . ¥ e

piqm ¥ 0

(fur ein m P N), sodass gilt: die n n-MatrixMf pB,Bq hat Blockdiagonalform

diag

"p

ep1q1

1

,

p

ep1q2

1

, . . . ,

p

ep1qm

1

,

p

ep2q1

2

, . . . ,

p

epkqm

k

*mit

k°i1

m°j1

epiqj deg pi n.

Diese Blockdiagonalmatrix heißt kanonische rationale Form von f . (Fur n n-Matrizen analog).

Was sind die Elementarteiler von Vf? Diese berechnet man wie in Korollar 15.3-20. Man erhalt normiertePolynome qs|qs1| . . . |q2|q1 mit q1 µf ptq und

16.2-12 Korollar: (kanonisch rationale Form II)V hat eine K-Basis, sodass Mf pB,Bq diagtpq1q, pq2q, . . . , pqsquist. Hier ist

qi pep1qi

1 pep2qi

2 . . . pepkqi

k 1 ¤ i ¤ k,

wobei µf ptq q1 k±i1

pνi

i ist mit νi ep1qi . Es ist dann

χf ptq k¹j1

pepjq1e

pjq2...epjqm

j .

233

Insbesondere ist χf ptq µf ptq genau dann, wenn Vf nur einen Elementarteiler hat, d.h. zyklischer Krts-Modul ist.

Soweit haben wir gezeigt, dass jede n n-Matrix (jeder K-Endomorphismus f von V ) eine kanonischerationale Form besitzt, ahnliche Matrizen (in AutKpV q konjugierte Endomorphismen) dieselbe kanonischerationale Form haben und nicht ahnliche Matrizen (nicht in AutKpV q konjugierte Endomorphismen)verschiedene kanonisch rationale Formen besitzen. Nun kommt aber das Wiedererkennungsproblem: Wiekann ich fur eine gegebene nn-Matrix A (einen K-Endomorphismus f von V ) die zugehorige kanonischrationale Form bestimmen?

16.2-13 Prozedur: Gegeben sei f P EndKpV q, V ein K-Vektorraum der Dimension n 8 und K einKorper. Die kanonische rationale Form von f zu bestimmen heißt herauszufinden, zu welchem Prototypin Liste 15.3-17 Vf isomorph ist (wir benutzen Liste 15.3-17, nicht die Elementarteilerliste 15.3-22).

1. Schritt: Berechne das charakteristische Polynom χf ptq.2. Schritt: Berechne die Primfaktorzerlegung von χf ptq p

µ1

1 . . . pµk

k mit paarweise verschiedenen,normierten, irreduziblen Polynomen p1, . . . , pk P Krts.

3. Schritt: Berechne die Kerne von pipfqν P EndKpV q fur ν 1, 2, . . . (Aufgabe der Linearen Alge-bra!)Fur 1 ¤ i ¤ k sei

kerppipfqq ² kerppipfq2q ² . . . ² kerppipfqepiq1 q kerppipfqepiq11q.

Dann ist µf ptq pν1

1 . . . pνk

k mit νk epiq1 und die Primarzerlegung von Vf ist Vf M1 ` . . .`Mk

mit Mi kerppipfqνiq. Das lasst sich (die pi’s gegeben) konkrekt ausrechnen!

4. Schritt: Nun halten wir 1 ¤ i ¤ k fest und zerlegen die Primarkomponenten Mi pVf qpiweiter.

Der Einfachheit halber setzen wir p pi und M Mi pVf qpiund schreiben wieder f anstatt

fi f |Mi(oder wir nehmen alternativ an, dass k 1, µf ptq pe1).

Wir wahlen ein minimales Erzeugendensytem fur den Krts-Modul M , etwa, indem wir eine K-Basis nehmen und Basisvektoren rausstreichen bis ein minimales Krts-Erzeugendensytem entsteht(hoher Aufwand). Sei ein solches gegeben als tv1, . . . , vsu M . Dann wissen wir schon wegen Satz15.3-13, dass M isomorph zur direkten Summe von s zyklischen Moduln KrtspeiKrts ist, mit e1gegeben durch µf ptq pe1 . Wir brauchen noch e2 ¥ . . . ¥ es ¡ 0. Unter den Erzeugenden vi mussenwir eines finden, o.B.d.A. v1, mit Opv1q OpMq µf ptq pe1 . Dann wissen wir, dass Krtsv1ein Krts-Untermodul und daher ein f -invarianter Unterraum von M ist. Daher induziert f einenEndomorphismus f : M ÑM : mKrtsv1 ÞÑ fpmq Krtsv1 mit M MKrtsv1.Nach Konstruktion ist fur rptq P Krts und m PM :

rptqpmKrtsv1q prptq mq Krtsv1 prpfqpmqq Krtsv1 rpfqpmKrtsv1q,d.h. der Vektorraum MKrtsv1 zusammen mit dem K-Endomorphismus f von MKrtsv1 induziertprazise den Krts-Faktormodul MKrtsv1.Beachte: Wegen pptqe1 m 0 fur m PM ist pptqe1 m 0 fur alle Nebenklassen mKrtsv1, d.h.OpMq teilt OpMq und ist daher von der Form pptqe2 fur ein e2 ¤ e1. Ich behaupte, dass pe2 derzweite Elementarteiler von M ist. Dies sieht man so: Nach Satz 15.3-5 existiert ein unabhangigesErzeugendensystem ty2, y3, . . . , ylu von M , yi yi Krtsv1 und nach Lemma 15.3-7 kann fur2 ¤ i ¤ l der Nebenklassenvertreter yi PM so gewahlt werden, dass Opyiq Opyiq ist. Nach Lemma15.3-8 ist dann tv1, y2, . . . , ylu ein unabhangiges Erzeugendensystem von M . Wir schließen, dass

M Krtsv1 `Krtsy2 ` . . .`Krtsyl

234

sein muss, dass l s ist, und dass Opy2q Opy2q OpMq ist, nach eventueller Umnummerierungder y2, . . . , ys. Also ist pe2 OpMq der zweite Elementarteiler von M .Wir haben aber nur die Existenz der unabhangigen y2, . . . , ys in M und kein konstruktives Verfahren,um solche zu bestimen. Allerdings hangt OpM q nicht von der Konstruktion ab, sondern kann mitlinearer Algebra durch Betrachtung von

kerpppfqq ¤ kerpppfq2q ¤ . . . ¤ kerpppfqe2q kerpppfqe21qbestimmt werden.Um e3 zu bestimmen, wiederholen wir die Prozedur nun mit f P EndKpMq anstatt f P EndKpMq.Durch s-maliges Anwenden kommen wir schließlich an den zyklischen Krts-Modul (s-facher Faktor-modul von M) M KrtspesKrts an. Jetzt konnen wir ruckwarts gehen und mit Lemma 15.3-8,ausgehend von einem Erzeuger M , durch alle s iterierten Faktoren, ein unabhangiges Erzeugenden-system ty1, . . . , ysu von M selbst finden (Der Beweis von Lemma 15.3-7 gibt eine Konstruktioneines Nebenklassenvertreters im nachst hoheren Faktor, der dieselbe Ordnung wie die Nebenklassehat). Es ist dann Opyiq pei und daher, nach Satz 16.2-10, ist fur 1 ¤ i ¤ s:

Bi tyi, fpyiq, . . . , fei1pyiqu K-Basis von Krtsyi, M sÀi1

Krtsyi und dahers

i1

Bi B die

kanonisch rationale Basis von M, sodassMf pB,Bq diag tppe1q, ppe2 q, . . . , ppesquist.

Eine echte Bemerkung:

16.2-14 Bemerkung: Ist die Jordanform ein Spezialfall der kanonischen rationalen Form? Die Antwortist: Nein. Dies kann man schon an Satz 15.3-13 sehen:Wir nutzen fur die Jordanform nicht den f -Zykel als Basis, sondern den pt λq-Zykel (also anstattf ipvq, pt λqiv pf ℓλqipvq) und das macht einen Unterschied, siehe nachstes Problem.

16.2-15 Problem: Sei

A Jλpnq λ 1 0 0

0. . .

. . ....

.... . .

. . . 0...

. . . 10 0 λ

ÆÆÆÆÆÆÆ PMnnpKq.Was ist die kanonische rationale Form von A?

235

Index

K-Algebra, 75K-Vektorraum, 40K-lineare Abbildung, 60λ-Zykel, 177m n-Matrix A, 67R-Vektorraum, 37f -invariant,, 99k-fach linear, 165k-fache Linearform, 166Aquivalenzklasse, 11Aquivalenzrelation, 10ahnliche Matrizen, 97uberabzahlbar, 50

Abbildung, 16inverse, 37Kern einer, 64linear, 60orthogonale, 118–120unitare, 123

Ableitung, 142, 147Abschluss

algebraischer, 104Abstand von Vektoren, 192abzahlbar, 50Addition, 37adjungiert, 124

-e Matrix, 123Adjunkte, 97algebraisch abgeschlossen, 103algebraischer Abschluss, 104Algebrennorm, 193Algorithmus, 85alternierende Multilinearform, 168, 169Amplitude, 116Anfangsbedingung, 141Anfangswertaufgabe, 191Annullator, 219Antihomomorphismus, 76Antisymmetrie, 12Assoziativitat

skalare, 35Aufspann

linearer, 173, 185Automorphismus, 61

Bahn, 162Banachalgebra, 193Banachraum, 193Basis, 48, 216

angepasste, 184duale, 150naturliche, 71

Basiswechsel, 66Betrag eines Vektors, 23bijektiv, 20Bild, 18bilinear, 110, 153Bilinearform, 153

alternierende, 156ausgeartete, 156nicht ausgeartete, 156symmetrische, 110, 156

binare Operation, 37Blockmatrix, 108

Cauchyfolge, 192Charakteristik, 134charakteristische Gleichung, 101charakteristisches Polynom, 102

Darstellung, 214nichttriviale, 48triviale, 48

Definitionsbereich, 18Determinante, 92, 93, 170

eines Endomorphismus, 97diagonalisierbar, 105, 106Diagramm

kommutatives, 130Differenzialgleichung, 142

homogene, 142

236

Losung, 142Losungsraum, 143lineare, 142

Differenzialoperator, 143Differenziation, 173, 185differenzierbar, 142Differenzmenge, 8Dimension, 26, 52Dimensionsformel, 54direkte Summe, 54, 55, 107disjunkt, 11, 53disjunkte Vereinigung, 11Displacements, 93Distributivitat

skalare, 35vektorielle, 35

Divisionsring, 39duale Basis, 150dualer Vektorraum, 149duales Komplement, 151Durchschnitt

von Unterraumen, 46von Mengen, 8

Ebene, 31echt, 204Eigenraum, 104

verallgemeinerter, 176Eigenvektor, 100

verallgemeinerter, 176Eigenwert, 100Einheit, 76, 206Einheitengruppe, 76, 206Einheitsvektor, 112Einschrankung, 19Einselement, 39, 75Element

einer Menge, 5großtes, 13invertierbares, 76kleinstes, 13maximales, 13minimales, 13

elementare Operationen, 80elementare Spaltenoperation, 80elementare Zeilenoperation, 79Elementarmatrizen, 80Elementarteiler, 227Ellipsoid, 128endlich erzeugt, 52, 205, 216

endlich-dimensional, 47Endomorphismus, 61

adjungierter, 124Epimorphismus, 61Equilibriumbedingung, 139Erzeugende, 43Erzeugendensystem, 43, 216

minimales, 47Erzeuger, 43, 189Euklidischer Ring, 209Euklidscher Vektorraum, 36exakte Folge, 217

Fahne, 184faktoriell, 211Faktormodul, 215Faktorraum, 58Faktorring, 188, 204Faser, 64flag, 184Flussgeschwindigkeit, 135Folge, 22Fourieranalyse, 115Fourierkoeffizient, 150Fourierkoeffizienten, 115freier Modul, 216Fundamentaltransposition, 163Funktion, 16

elementarsymmetrische, 103polynomiale, 42

Gauß-Algorithmus, 90Geometrie, 109geordnet

teilweise, 12wohl-, 14

geordnete Basis, 51geordnetes Paar, 9Gerade, 27, 30gerade Permutation, 164Gleichungssystem

lineares, 83großter gemeinsamer Teiler, 209großtes Element, 13Grad, 42Gram-Schmidt, 114Grammatrix, 154Graph, 16Grenzwert, 192Gruppe, 39

237

abelsch, 38orthogonale, 119spezielle lineare, 97symmetrische, 93

Hauptachsenform, 126Hauptachsentheorem, 121, 125Hauptideal, 189, 205Hauptidealring, 201, 208Hauptraum, 182hermitische Form, 111Hesse’sche Normalform, 28Hintereinanderausfuhrung, 19homogen, 84, 104, 142, 191Homomorphismus, 60

Kern eines, 64Hyperboloid, 128Hyperflache, 125

Ideal, 187, 204Identitat, 21Imaginarteil, 142inhomogen, 84injektiv, 20inneres Produkt, 110Integritatsbereich, 207Inverse, 37irreduzibel, 211Isometrie, 118isometrisch, 119isomorph, 51, 61Isomorphismus, 61

Jordanbasis, 176Jordanblock, 175Jordanform, 175Jordansche Normalform, 175Jordanzerlegung, 187

Korper, 36, 38kommutativer, 39Schief-, 39

kanonische Projektion, 63kanonische rationale Form, 233kanonischer Isomorphismus, 152Kardinalitat, 22kartesisches Produkt, 9Kategorie, 118Kegel, 128, 131Kern

eines Homomorphismus, 64hoherer, 182

Kirchhoffs Stromkreisregel, 138Kirchhoffs Verzweigungsregel, 138kleinstes Element, 13kleinstes gemeinsames Vielfaches, 209Kofaktor, 96kommutativer Korper, 39Komplement, 46

duales, 151orthogonales, 117

komplementar, 46komplex konjugiert, 111Komponente, 26kongruent, 57Konjugationsklasse, 165konjugiert, 97, 165, 189Kontraposition, 7konvergent, 193Koordinaten, 28Kroneckerdelta, 53kurze exakte Folge, 217

L/ange einer Bahn, 162Lange, 164

einer Fahne, 184einer Permutation, 93eines Vektors, 109, 112, 192

Lange, 24Losung

triviale, 84Laplace, 96leere Menge, 6Limes, 192linear unabhangig, 216linear abhangig, 48linear unabhangig, 48lineare Darstellung, 214lineare Abbildung, 60lineare Gleichungssysteme

aquivalente, 84lineare Ordnung, 13Lineare Transformation, 60Linearer Aufspann, 36, 173, 185lineares Gleichungssystem

homogenes, 84lineares Gleichungssystem, 83

inhomogenes, 84Linearform, 149, 151Linearkombination, 36

238

Linkshomomorphismus, 155Linksideal, 187

Machtigkeit, 22Matrix, 65

adjungierte, 123augmentierte, 81Block-, 108Blockdiagonal, 107diagonalisierbare, 105Elementar-, 80Gram-, 154hermitische, 124konjugiert komplexe, 123Konsumptions-, 139monomiale, 94nichtnegative, 139normale, 124orthogonale, 120Oszillations-, 198Permutations-, 94Rang einer, 79selbstadjungierte, 124singulare, 89Skalar-, 102symmetrische, 120transponierte, 71unitare, 124

Matrixmultiplikation, 73Matrizen

ahnliche, 97konjugierte, 97

maximales Element, 13Menge, 5

abgeschlossen, 37Differenz-, 8Durchschnitt, 8endliche, 14leere, 6Potenz-, 8Teil-, 6, 8unendliche, 14Vereinigung, 8

minimales Element, 13minimales Erzeugendensystem, 224Minimalpolynom, 189modulo, 57Monome, 207Monomorphismus, 61Morphismus, 118

Multiindex, 166multilinear, 92, 165Multilinearform, 166Multiplikation

im Ring, 75skalare, 25, 35, 40, 69von Endomorphismen, 75von Matrizen, 73, 75

Multiplizitat, 103

naturlicher Isomorphismus, 152Nebenklasse, 57

-nvertreter, 58Netzwerkprobleme, 135neutrales Element, 39nichttrivial, 204nilpotent, 186Nilpotenzgrad, 186noethersch, 205Norm, 109, 112Norm eines Vektors, 109normale Matrix, 124Normalform

Hesse’sche, 28Nullelement, 37Nullteiler, 207nullteilerfrei, 207Nullvektor, 24, 37

obere Schranke, 14Ohmsches Gesetz, 138Operation

binare, 37Operator, 16Ordnung, 162

lineare, 13teilweise, 12totale, 13Wohl-, 14

Ordnung eines Elements, 223Ordnung eines Moduls, 222orthogonal

-e Abbildung, 118–120-e Gruppe, 119-e Matrix, 120-e Vektoren, 113, 114-es Komplement, 117-es System, 114, 115aquivalent, 121links-, 155

239

rechts-, 155Orthogonalbasis, 27, 30Orthonormalbasis, 27, 30, 114orthonormales System, 114Oszillationsmatrix, 198

Paargeordnetes, 9

Paraboloid, 128parallel, 23, 29, 30Parameterdarstellung, 27, 30Partition, 11, 165, 181Permutation, 20, 93

Fehlstanden, 93Lange, 93

Permutationsmatrix, 94Pivotelemente, 91Polynom, 41, 143

assoziiertes, 143charakteristisches, 102irreduzibles, 190lineares, 103normiert, 189

Polynomdivision, 189polynomiale Funktion, 42positiv semidefinit, 112positiv definit, 110, 112positiv semidefinit, 110Potenzmenge, 8Primarkomponente, 221Primarkomponentenzerlegung, 223Primelement, 211Primfaktorzerlegung, 210Primideal, 211Primkorper, 133Primzahl, 191Produkt, 206

inneres, 110kartesisches, 9Skalar-, 110Vektor-, 33von Matrizen, 73

Projektion, 215kanonische, 63

Quadrik, 125Quotientenkorper, 208Quotientenraum, 58

Radikal

Links-, 155Rechts-, 155

Rang, 79Raum

Faktor-, 58linearer, 109Quotienten-, 58

Realteil, 142Rechtsideal, 187reduzierter Ausdruck, 164reeller Vektorraum, 37Reflexivitat, 10, 12Relation

Aquivalenz-, 10zweistellige, 10

Relationen, 230relativ unabhangig, 53Reprasentanten, 58Reprasentantensystem, 58Rest

-klasse, 57nach Polynomdivision, 189

Richtung eines Vektors, 23Richtungsvektor, 31Ring, 75

kommutativer, 75mit Eins, 75

Schauderbasis, 117Schiefkorper, 39selbstadjungierte Matrix, 124semilinear, 153Signum, 93, 164skalare Multiplikation, 25, 35, 40, 69skalare Vielfache, 36Skalarprodukt, 26, 110, 112Spalten einer Matrix, 67Spaltenrang, 78Spaltenvektor, 67Spur, 103Summe, 69, 215

direkte, 54, 55von Unterraumen, 46

Summe von Vektorraumen, 45surjektiv, 20Symmetrie, 10

Anti-, 12symmetrisch, 121symmetrische Bilinearform, 110symmetrische Multilinearform, 168

240

Teilmenge, 6, 8teilweise geordnet, 12teilweise Ordnung, 12Tensorprodukt, 156, 171Torsionselement, 219torsionsfrei, 219Torsionsmodul, 220Torsionsuntermodul, 220totale Ordnung, 13Transitivitat, 10, 12Transposition, 93, 163

Fundamental, 163Treppenform, 90trigonometrische Funktionen, 111

Umkehrabbildung, 21Umkehrrelation, 19unabhangige Elemente, 224unendlich-dimensional, 47ungerade Permutation, 164unipotent, 186unitarer Raum, 112universelle Eigenschaft, 160untere Schranke, 14Untermodul, 214Unterraum, 41

f -invarianter, 99f -zyklischer, 173aufgespannter, 44

Urbild, 19

Vektor, 24Addition, 35Anfangs-, 181Betrag, 23Eigen-, 100End-, 181normiert, 112Null-, 24Richtung, 23Skalarmultiplikation, 35

Vektorprodukt, 33Vektorraum

uber K, 40dualer, 149euklidischer, 36, 110normierter, 109reeller, 37Summe, 45, 46unitarer, 112

Unter-, 41verallgemeinerte Eigenvektoren, 176verallgemeinerter Eigenraum, 176Verband, 131Vereinigung

disjunkte, 11Vereinigung von Mengen, 8verschiebungsgleich, 24Verschwindungsideal, 188Vielfache

skalare, 36Vielfachheit, 103vollstandig, 193

Widerspruchsbeweis, 7windschief, 31Winkel, 110, 113wohlgeordnet, 14Wohlordnung, 14

Youngdiagramm, 181

Zeilen einer Matrix, 67Zeilenrang, 78zentral, 102Zerlegung in irreduzible Faktoren, 211zweistellige Relation, 10Zykel, 162, 163, 177Zykelschreibweise, 163Zykeltyp, 165zyklische Basis, 177zyklischer Modul, 220, 223Zylinder, 129

241