appunti di geometria 1 - guido cioni · 6 capitolo 1. nozioni insiemistiche de nizione 1.3...

90
Facolt´ a di Scienze Matematiche, Fisiche e Naturali Appunti di Geometria 1 Guido Cioni

Upload: lythuy

Post on 19-Feb-2019

216 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Facolta di Scienze Matematiche, Fisiche e Naturali

Appunti diGeometria 1

Guido Cioni

Page 2: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

2

Versione del 25 maggio 2012

Page 3: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Indice

1 Nozioni Insiemistiche 5

1.1 Numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Polinomi in K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3 Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Spazi vettoriali 13

2.1 Esempi di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1.1 Spazi di polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1.2 Spazi di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.3 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3.1 Esempi di sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . 18

2.4 Operazioni con sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Applicazioni Lineari 21

3.0.1 Esempi di applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4 Sistemi Lineari 27

4.1 Sistema lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4.2 Matrici a scalini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4.3 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Basi e dimensione 35

5.1 Applicazioni lineari e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5.2 Proprieta delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6 Basi e applicazioni lineari 41

7 Rango 45

7.1 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

7.2 Come trovare una base dello spazio delle soluzioni di Ax = 0 . . . . . . . . . . 47

7.3 Matrici invertibili e gruppo lineare . . . . . . . . . . . . . . . . . . . . . . . . . 47

7.4 Calcolo dell’inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

7.5 Rappresentazione matriciale di una applicazione lineare . . . . . . . . . . . . . 50

7.6 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . 52

7.7 Ulteriore caratterizzazione del rango . . . . . . . . . . . . . . . . . . . . . . . . 53

3

Page 4: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

4 INDICE

8 Determinante 558.1 Esistenza ed unicita del determinante . . . . . . . . . . . . . . . . . . . . . . . 55

8.1.1 Dimostrazione del teorema (8.1.1) . . . . . . . . . . . . . . . . . . . . . 568.2 Proprieta aggiuntive del determinante . . . . . . . . . . . . . . . . . . . . . . . 57

8.2.1 Calcolo dell’inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 588.3 Risoluzione di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

9 Endomorfismi 619.1 Calcolo di autovalori e autospazi . . . . . . . . . . . . . . . . . . . . . . . . . . 639.2 Conseguenze del teorema di diagonalizzazione . . . . . . . . . . . . . . . . . . . 66

10 Forme Bilineari 7110.1 Cambiamenti di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7210.2 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7310.3 Diagonalizzazione di prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . 7810.4 Forme quadratiche reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8010.5 Calcolo della segnatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8210.6 Spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

10.6.1 Ricerca di basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . 8510.7 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

10.7.1 Teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8710.8 Applicazioni ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Page 5: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 1

Nozioni Insiemistiche

Gli insiemi sono gli oggetti base con cui lavoreremo. Sono scontate le notazioni a ∈ A , a /∈ A.Sono quindi immediate le seguenti proprieta

1. A ⊂ B : ∀a ∈ A , a ∈ B ;

2. A = B ⇔ A ⊂ B,B ⊂ A.

Osservazione 1.

1. N denota l’insieme dei numeri naturali

2. N ⊂ Z denota l’insieme dei numeri interi

3. Z ⊂ Q denota l’insieme dei numeri razionali

4. Q ⊂ R denota l’insieme dei numeri reali.

Osservazione 2.Un insieme si puo definire esplicitando una proprieta rispettata da tutti gli elementi contenutinello stesso.

{x ∈ A : proprieta} (1.1)

Definizione 1.1 (Insiemi composti). Ci sono un insieme di operazioni che , a partire dainsiemi, producono nuovi insiemi.

A ∪B = {x : x ∈ A ∨ x ∈ B} (1.2)

A ∩B = {x : x ∈ A ∧ x ∈ B} (1.3)

A−B = {x ∈ A : x /∈ B} (1.4)

Un importante definizione utile e data dalla seguente

Definizione 1.2 (Prodotto cartesiano).

A×B = {(a, b) : a ∈ A, b ∈ B} (1.5)

Ovvero definiamo come prodotto cartesiano l’insieme formato dalle coppie ordinate di A e B.Si ponga attenzione alla differenza tra un normale insieme che contiene gli elementi 1,2 e ilprodotto cartesiano tra i due. Infatti

(1, 2) 6= (2, 1) = {1, 2} = {2, 1}

.

5

Page 6: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

6 CAPITOLO 1. NOZIONI INSIEMISTICHE

Definizione 1.3 (Sottoinsieme proprio). L’insieme A ⊂ B e sottoinsieme proprio se A 6= B ,ossia ∃b ∈ B : b /∈ A . Dunque esiste almeno un elemento che sta in B , che pero non sta in A.

A questo punto definiamo gli altri fondamentali oggetti necessari per la nostra trattazione.

Definizione 1.4 (Applicazione). Una applicazione e una terna di oggetti : dominio , codo-minio ed una legge tali che A → B , e la freccia sta per la legge. Questo significa che∀a ∈ A → f(a) ∈ B. L’applicazione associa quindi uno ed un solo elemento nel codominio :non ci deve essere ambiguita nella definizione di f(a) !

Definizione 1.5 (Immagine). Denoteremo con

Immf = f(A) = {b ∈ B : a ∈ A : b = f(a)} (1.6)

Seguono quindi una serie di definizioni che riguardano le applicazioni.

Definizione 1.6 (Surgettivita). f : A→ B si dice surgettiva se Immf = B ovvero Immf ⊂ Be B ⊂ Immf . Si noti che la prima inclusione e ovvia visto che il codominio di f e proprio B.La proprieta si puo quindi esplicitare come

∀b ∈ B, ∃a ∈ A tale che f(a) = b (1.7)

Definizione 1.7 (Iniettivita). f si dice iniettiva se ∀(x, y) ∈ A con x 6= y ⇒ f(x) 6= f(y). Sinoti che, se f(x) = f(y)⇒ x = y

Osservazione 3.Prendiamo la funzione f : R → R definita da x → x2. Tale funzione non e iniettiva perchef(1) = f(−1). Inoltre non e surgettiva perche −1 /∈ Immf ⇒ Immf 6= R

Definizione 1.8 (bigettiva). La funzione f : A → B si dice bigettiva se e sia iniettiva chesurgettiva.

Definizione 1.9 (Restrizione di f). Supponiamo di prendere f : A→ B e Z ⊂ A. L’insiemef(Z) e definita da

f(Z) = {b ∈ B : ∃x ∈ Z tale che b = f(x)} (1.8)

La restrizione di f a Z e l’applicazione definita da

f |Z : Z → B (1.9)

Questa e definita da ∀x ∈ Z, f |Z(x) = f(x)

Osservazione 4.Si noti che

Imm(f |Z) = {b ∈ B : ∃x ∈ Z : b = f(x)} = f(Z) (1.10)

Definizione 1.10 (Controimmagine). Data f : A → B , prendiamo W ⊂ B. Definiamo lacontroimmagine

f−1(W ) = {x ∈ A : f(x) ∈W} (1.11)

Osservazione 5.Prendiamo l’applicazione gia considerata definita da f(x) = x2. Allora

f−1([3, 4]) ={x ∈ R : x2 ∈ [3, 4]

}= [√

3, 2] ∪ [−2,−√

3] (1.12)

Page 7: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

7

Definizione 1.11 (Composizione di applicazioni). Supponiamo di avere f : A→ B , g : B →C. Si denota con (g ◦ f) una applicazione

(g ◦ f) : A→ C

definita da∀a ∈ A, (g ◦ f)(a) ≡ g(f(a))

Definizione 1.12 (Uguaglianza tra funzioni). Prendiamo f, g : A→ B . Diciamo che f = gse ∀a ∈ A allora f(a) = g(a).

Osservazione 6.Si noti che g ◦ f 6= f ◦ g in generale.

Definizione 1.13 (Identita). Dato un insieme A si definisce l’applicazione identita come

idA : A→ A , x→ x (1.13)

Definizione 1.14 (Applicazione invertibile). Una applicazione f : A → B si dice invertibilese ∃g : B → A tale che g ◦ f = idA e f ◦ g = idB.

Osservazione 7.Condizione necessaria e sufficiente affinche una applicazione sia invertibile e che questa siabigettiva. Ovvero f e invertibile ⇔ f e bigettiva.

Osservazione 8.Siano f : A→ B , g : B → C . Si ha che

Imm(g ◦ f) = Imm

(g∣∣ Immf

)(1.14)

Definizione 1.15 (Operazioni su insiemi). Un’operazione su A e un’applicazione A×A→ A

Osservazione 9.R e un insieme ordinato perche ∀a, b ∈ R si puo dire che a < b , a = b o a > b. Lo stessoinsieme e dotato inoltre di una somma e di un prodotto.

In particolare considerando le applicazioni somma , + , e prodotto , · , si possono definirenuovi oggetti , i campi.

Definizione 1.16 (Campo). Si dice campo una terna (K,+, ·) , dove K e un insieme nonvuoto e + : K ×K → K , · : K ×K → K e valgono le seguenti

1 : Associativita della somma : ∀a, b, c ∈ K allora (a+ b) + c = a+ (b+ c).

2 : Esistenza dell’elemento neutro per la somma : ∃ un elemento di K detto zero edenotato con 0 , tale che ∀a ∈ K , a+ 0 = 0 + a = a.

3 : Esistenza dell’inverso per la somma : ∀a ∈ K,∃a′ ∈ K tale che a+ a′ = a′ + a = 0.Tale elemento e detto opposto di a e si denota con −a.

4 : Commutativita : ∀a, b ∈ K allora a+ b = b+ a.

5 : Associativita : ∀a, b, c ∈ K allora (a · b) · c = a · (b · c).

Page 8: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

8 CAPITOLO 1. NOZIONI INSIEMISTICHE

6 : Esistenza dell’elemento neutro : ∃ un elemento di K detto unita e denotato 1 , taleche ∀a ∈ K , a · 1 = 1 · a = a.

7 : Distributivita : ∀a, b, c ∈ K allora a·(b+c) = ab+ac o , analogamente (a+b)·c = ac+bc.

8 : Commutativita del prodotto : ∀a, b ∈ K allora ab = ba.

9 : Esistenza dell’inverso per il prodotto : ∀a ∈ K , con a 6= 0 , ∃a′ ∈ K tale cheaa′ = a′a = 1. Tale elemento e detto inverso di a e si indica con a−1.

Osservazione 10.Q e un campo; R e un campo ; Z non e un campo.

Definizione 1.17 (Anello/Anello commutativo). Definiamo un oggetto che verifica le propri-eta (1)-(7) precedenti ANELLO. Se viene verificata anche al (8) allora viene detto ANELLOCOMMUTATIVO.

Osservazione 11.(Z,+, ·) e un anello commutativo.

1.1 Numeri complessi

Sia i tale che i2 = −1 . Definiamo lo spazio dei numeri complessi C = {a+ ib : a, b ∈ R}.Quindi se z ∈ C allora z = a+ ib con a = <(z) e b = =(z).

Definizione 1.18 (Relazione di uguaglianza tra complessi).

a+ ib = c+ id⇔ a = c ∧ b = d

Osservazione 12.Definiamo un’applicazione ϕ : C → R2 definita da z = a + ib → (a, b) che associa ad ogninumero complesso la coppia di numeri a, b. Si noti che ϕ e iniettiva e surgettiva perche∀(a, b) ∈ R2,∃z ∈ C tale che ϕ(z) = (a, b).

Definizione 1.19 (Operazioni su numeri complessi). Definiamo una somma su C ,

+ : C× C→ C

definita da

(z, w)→ z + w ≡ (a+ c) + i(b+ d)

con z = a+ ib e w = c+ id. Definiamo inoltre un prodotto

· : C× C→ C

definito da

(z, w)→ (ac− bd) + i(ad+ bc)

Definizione 1.20 (Coniugio). L’applicazione coniugio¯: C → C e definita da z = a + ib →z = a− ib . Si osservi che z ∈ R⇔ z = z e che zz = |z|2.

Page 9: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

1.2. POLINOMI IN K 9

1.2 Polinomi in K

Definiamo lo spazio dei polinomi nel campo K .

K[x] = { polinomi in x a coefficienti in K} (1.15)

Ovvero

K[x] 3 p(x) = a0 + a1x+ . . .+ anxn =

n∑i=0

aixi (1.16)

Definizione 1.21 (Grado di p). Sia p(x) ∈ K[x] , p(x) 6= 0. Definiremo il grado di p come

deg(p(x)) = max {k ∈ N : ak 6= 0} (1.17)

Con questa definizione risulta immediato osservare che

deg(0) = −1(oppure−∞) ; deg(p(x)) ≤ n (1.18)

Definizione 1.22 (Somma su polinomi). Definiamo una somma + : K[x]×K[x]→ K[x] cheassocia ad una coppia di polinomi (p, q) la loro somma p+ q. Questa si puo definire come{

p(x) =∑n

i=0 aixi

q(x) =∑n

i=0 bixi

(p+ q)(x) =n∑i=0

(ai + bi)xi (1.19)

Definizione 1.23 (Prodotto su polinomi). Analogamente si definisce un prodotto · : K[x]×K[x] → K[x] che associa ad ogni coppia di polinomi (p, q) il suo prodotto pq. Per trovare ladefinizione formale possiamo pensare al prodotto usuale tra polinomi , ricordando pero chestiamo definendo il prodotto in questo modo ( non e detto che sia l’unico!).{

p =∑n

i=0 aixi

q =∑k

i=0 bixi⇒ (pq)(x) =

n+k∑i=0

cixi dove ci =

i∑j=0

ajbi−j (1.20)

Osservazione 13.Supponiamo di voler trovare l’inverso del polinomio x . Bisogna quindi trovare q(x) tale chexq(x) = 1 , ma deg(xq(x)) ≥ 1 . Si nota quindi che gli unici polinomi invertibili sono quelli digrado 0, altrimenti la relazione scritta prima non e verificata. Dunque (K[x],+, ·) e un anellocommutativo.

Definizione 1.24 (Radice di un polinomio). Si dice che a e radice di p(x)⇔ p(a) = 0

Teorema 1.2.1 (di divisione ).∀a, b ∈ K[x], b 6= 0 , ∃no unici q(quoziente),r(resto)∈ K[x] tali che{

a = bq + r

deg r < deg b(1.21)

Osservazione 14.Se r = 0 allora b|a , ovvero b divide a.

Teorema 1.2.2 (di Ruffini).p(x) ∈ K[x] , α ∈ K. Se p(α) = 0 allora (x− α)|p , ovvero (x− α) divide p.

Page 10: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10 CAPITOLO 1. NOZIONI INSIEMISTICHE

Dimostrazione. Per il teorema di divisione esistono q, r ∈ K[x] tali che{p(x) = (x− α)q(x) + r(x)

deg r(x) < 1 = deg(x− α)⇒ r(x) e costante(1.22)

Resta quindi da dimostrare che r = 0. Utilizzo il fatto che α e radice , quindi p(α) =(α− α) · q(x) + r = 0 + r ⇒ r = 0

Proposizione 1.2.3. Se p(α) = 0 , ∃m ∈ N tale che p(x) = (x− α)mq(x) con q(α) 6= 0.

Definizione 1.25 (Molteplicita algebrica). L’intero m e detto molteplicita algebrica (µa)della radice α.

Osservazione 15.Se p(x) = (x− α)2q(x) allora µa(α) ≥ 2

Osservazione 16.I polinomi possono essere scomposti in polinomi di grado minore , ad esempio (x2 − 2) =(x+

√2)(x−

√2). Ovviamente la nozione di scomposizione dipende dal campo su cui si fanno

i calcoli : la scomposizione precedente ha senso solo su R e non su Q. Dunque

� x2 − 2 e irriducibile in Q.

� x2 + 1 e irriducibile in R.

Osservazione 17.

1. I polinomi di grado 1 sono irriducibili.

2. ax2 + bx+ c ∈ R[x] e irriducibile in R⇔ b2 − 4ac < 0.

Teorema 1.2.4 (fondamentale dell’algebra). Ogni polinomio in C[x] non costante ha almenouna radice.

1.3 Relazioni

Definizione 1.26 (Relazioni). Una relazione su A e un sottoinsieme , R , di A × A. Se(a, b) ∈ R scrivo aRb , ovvero a e in relazione con b.

Osservazione 18.Prendiamo come A = {rette del piano } e r, s ∈ A . Una relazione possibile puo essere ilparallelismo visto che rRs⇔ r ‖ s.

Definizione 1.27 (Relazione di equivalenza). Una relazione R si dice relazione di equivalenzase

Proprieta riflessiva : ∀a ∈ A , aRa.

Proprieta simmetrica : aRb⇒ bRa.

Proprieta transitiva : aRb, bRc⇒ aRc

Osservazione 19.Il parallelismo e una relazione di equivalenza.

Page 11: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

1.3. RELAZIONI 11

Definizione 1.28 (Classe e rappresentante). Sia R relazione di equivalenza. ∀a ∈ A , [a] ={b ∈ A : bRa} e detta classe di a. Ogni b ∈ [a] si dice rappresentante di [a].

Definizione 1.29 (Insieme quoziente). Viene definito come insieme quoziente l’insieme

A/R = {[a] : a ∈ A} (1.23)

dove R e una relazione.

Definizione 1.30 (Proiezione sull’insieme quoziente). Possiamo definire un’applicazione proiezioneal quoziente π : A→ A/R che agisce come a→ [a] ed e surgettiva perche a ∈ [a] ma in generalenon e iniettiva.

Proposizione 1.3.1.

1. [a] = [b]⇔ aRb

2. Se [a] 6= [b]⇒ [a] ∩ [b] = ∅

Dimostrazione. (1) (⇒)a ∈ [a] = [b] , quindi a ∈ [b] e quindi aRb. (⇐) Devo provare cheentrambi gli insiemi sono contenuti nell’altro. Provo che [a] ⊂ [b] , cioe che ∀x ∈ [a] , x ∈ [b].Ma se x ∈ [a] allora xRa e per ipotesi aRb , dunque per la transitivita xRb , x ∈ [b] . L’altrainclusione e analoga.(2) Per assurdo supponiamo che esista x ∈ [a] ∩ [b], cioe xRa , xRb , ovvero aRb che significa, per il punto (1) , [a] = [b] , che contraddice la tesi.

Definizione 1.31 (Unione). ∀a ∈ A , a ∈ [a] , A = ∪a∈A[a]. Inoltre , per la proposizioneprecedente , le classi di equivalenza o coincidono o sono completamente disgiunte.

Page 12: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

12 CAPITOLO 1. NOZIONI INSIEMISTICHE

Page 13: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 2

Spazi vettoriali

Definizione 2.1 (Prodotto cartesiano di campi). Se K campo definiamo con la notazioneKn = {(x1, . . . , xn) : xi ∈ K} il prodotto cartesiano di n campi K.

Cerchiamo di definire anche una somma su Kn.

Definizione 2.2 (Somma su campi).

+ : Kn ×Kn → Kn , (x1, . . . , xn) + (y1, . . . , yn) ≡ (x1 + y1, . . . , xn + yn) (2.1)

Definiamo anche un

Definizione 2.3 (Prodotto per scalari su campi).

· : K×Kn → Kn , ∀α ∈ K,∀(x1, . . . , xn) ∈ Kn, α(x1, . . . , xn) ≡ (αx1, . . . , αxn) (2.2)

Le proprieta viste prima ci permettono di definire una nuova struttura

Definizione 2.4 (Campo vettoriale). Si dice campo vettoriale un insieme V con (V,+, ·,K),V 6= ∅, su un campo K se valgono le proprieta seguenti. Sia x ≡ (x1, . . . , xn) :

1. Associativita della somma

2. Esistenza elemento neutro per la somma

3. Esistenza inverso per la somma

4. Commutativita per la somma

5. ∀α, β ∈ K , ∀x ∈ Kn allora (αβ)x = α(βx)

6. ∀α, β ∈ K, ∀x ∈ Kn , (α+ β)x = αx+ βx

7. ∀α ∈ K , ∀x, y ∈ Kn allora α(x+ y) = αx+ αy

8. ∀x ∈ Kn allora 1 · x = x.

Osservazione 20.(C,+, ·,C) e uno spazio vettoriale.(C,+, ·,R) e uno spazio vettoriale diverso dal precedente.

13

Page 14: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

14 CAPITOLO 2. SPAZI VETTORIALI

2.1 Esempi di spazi vettoriali

2.1.1 Spazi di polinomi

Prendiamo K campo e K[x] = {polinomi a coefficienti in K}. Abbiamo gia visto che su questoinsieme e definita la somma ed il prodotto per scalari. Questo e uno spazio vettoriale.

2.1.2 Spazi di funzioni

Supponiamo V spazio vettoriale e A insieme. Definiamo

F = {f : A→ V } (2.3)

tutte le funzioni da A a V . Definiamo la somma

+ : F ×F → F

(f, g)→ f + g : A→ V(2.4)

Dobbiamo anche definire l’operazione di valutazione sulla somma

(f + g)(a) ≡ f(a) + g(a),∀a ∈ A (2.5)

che e lecita visto che f(a) e g(a) sono elementi di V . Devo definire il prodotto per scalare

· : K×F → F

∀α ∈ K,∀f ∈ F , αf : A→ V(2.6)

e l’operazione di valutazione sul prodotto per scalari

∀a ∈ A(αf)(a) ≡ α · f(a) (2.7)

Si puo verificare ora che (F ,+, ·,K) e uno spazio vettoriale. Valgono le proprieta seguenti

� ∀f, g, h ∈ F mi chiedo se (f + g) + h = f + (g + h) , cioe ∀a ∈ A , [(f + g) + h](a) =[f + (g + h)](a)e un’uguaglianza in V .

[(f + g) + h](a) = (f + g)(a) + h(a) = (f(a) + g(a)) + h(a) =

f(a) + (g(a) + h(a)) = f(a) + (g + h)(a) = [f + (g + h)](a)(2.8)

dove abbiamo usato la definizione di somma tra funzioni e l’associativita su V .

� ∀f ∈ F , f + 0 = f , dove 0 e l’applicazione nulla 0 : A→ V definita da ∀a ∈ A, 0(a) ≡0V . Inoltre vale che

∀a ∈ A, (f + 0)(a) = f(a)

infatti

(f + 0)(a) = f(a) + 0(a) = f(a) + 0V = f(a)

Page 15: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

2.2. MATRICI 15

2.2 Matrici

La matrice e una tabella di numeri organizzata in righe e colonne. Denotiamo con M(p, q,K) ={matrici p× q a coefficienti in K}

Definizione 2.5. Sia A ∈M(p, q,K). Allora Ai =riga i−esima ; Ai =colonna i−esima.[A]ij=elemento di posto ij.

Devo definire una somma ed un prodotto per scalare

Definizione 2.6 (Somma tra matrici).

+ : M(p, q)×M(p, q)→M(p, q) ; (A,B)→ A+B (2.9)

definita da

∀i = 1, . . . , p;∀j = 1, . . . , q, [A+B]ij ≡ [A]ij + [B]ij (2.10)

Definizione 2.7 (Prodotto per scalari).

· : K×M(p, q)→M(p, q) ; (α,A)→ αA (2.11)

definito da

α[A]ij ≡ [αA]ij

Introduciamo il concetto di

Definizione 2.8 (Uguaglianza tra matrici). Diciamo che A = B se

∀i, j [A]ij = [B]ij

e verifichiamo se lo spazio delle matrici e uno spazio vettoriale.

� 0 ∈M(p, q) e definita da , ∀i, j : [0]ij = 0.

� ∀A ∈M(p, q) bisogna verificare che A+ 0 = A . Ma

[A+ 0]ij = [A]ij + [0]ij = [A]ij + 0K = [A]ij

Osservazione 21.Sia

v2O = { vettori del piano applicati in O} (2.12)

Su questo insieme si puo definire una somma (regola del parallelogramma) data da + : v2O ×v2O → v2O che somma ~OP + ~OQ = ~OR. Analogamente si puo definire un prodotto · : R×v2O →v2O che produce (α, ~OP )→ α ~OP . Lo spazio v2O , dotato di questo prodotto e di questa sommae uno spazio vettoriale.

Definizione 2.9 (Vettori colonna). Si consideri l’insieme delle matrici p× q , M(p, q,K). Lospazio dei vettori colonna e definito da

M(p, 1,K) =

x1

...xp

: xi ∈ K

(2.13)

Page 16: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

16 CAPITOLO 2. SPAZI VETTORIALI

Osservazione 22.L’applicazione Kp →M(p, 1) e biunivoca , quindi si possono usare entrambe le notazioni

(x1, . . . , xp)→

x1...xp

(2.14)

Osservazione 23.La traslazione di ~OP su v2O si definisce come τ ~OP : R2 → R2 e porta il punto Q in R con la

condizione che ~OR = ~OP + ~OQ.

Proposizione 2.2.1. Per gli spazi vettoriali valgono le seguenti proprieta.

1. Il vettore ~0 e unico.

2. ∀x ∈ V , 0 · x = 0.

3. ∀x ∈ V , ∃! opposto.

4. ∀α ∈ K, α ·~0 = ~0

5. Se αx = 0 allora α = 0 oppure x = 0.

6. ∀x ∈ V , (−1)x = (−x)

Dimostrazione. (1) Supponiamo per assurdo che esistano 01 , 02 elementi neutri per la somma+. Visto che 02 e neutro per la somma si avra che 01 = 01 + 02. Ma , per ipotesi, anche 01 eelemento neutro per la somma. Quindi 01 + 02 = 02 = 01 , dunque 01 = 02 e si trova l’assurdoqundi l’elemento neutro e unico.(6) Osserviamo che

(−1)x+ x = x(1− 1) = 0 · x = 0

Definizione 2.10 (Tipi di matrici). Presentiamo le diverse classi di matrici

Matrici diagonali Sono il sottospazio D(n) ⊂M(n, n,K) , tali che [A]ij = 0, ∀i 6= j.

Matrici triangolari Sono il sottospazio T (n) ⊂ M(n, n,K) tali che [A]ij = 0,∀i > j(triangolari superiori).

Matrici simmetriche Sono il sottospazio S(n) ⊂M(n, n,K) tali che [A]ij = [A]ji, ∀i, j

Matrici antisimmetriche Sono il sottospazioA(n) ⊂M(n, n,K) tali che [A]ij = −[A]ji, ∀i, j.

2.3 Sottospazi vettoriali

Definizione 2.11 (Sottospazio vettoriale). Sia V un K-spazio vettoriale. W ⊂ V si dicesottospazio vettoriale di V se1

1. 0V ∈W , ovvero W e non vuoto .

1Con la notazione 0V si intende lo zero relativo allo spazio vettoriale V , diverso dall’elemento neutro per lasomma!

Page 17: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

2.3. SOTTOSPAZI VETTORIALI 17

2. ∀x, y ∈W , x+ y ∈W ovvero si definisce +|W×W : W ×W →W .

3. ∀α ∈ K , ∀x ∈W,αx ∈W ovvero si definisce ·|K×W : K×W →W .

Quindi se W e ssv di V , W con l’operazione si somma e prodotto ristretti e uno spaziovettoriale indicato dalla terna

(+|W×W , ·|K×W ,W )

Osservazione 24.Gli spazi definiti prima sono tutti sottospazi vettoriali. Controlliamo la chiusura per sommanel caso delle matrici simmetriche. Prendiamo quindi A,B ∈ S(n) , per cui vale [A]ij = [A]jie [B]ij = [B]ji,∀i, j. Bisogna verificare

[A+B]ij = [A]ij + [B]ij = [A]ji + [B]ji = [A+B]ji (2.15)

Osservazione 25.

1. {0} e V sono sottospazi vettoriali di V .

2. Nel caso V = R2 :

(a) Le rette per l’origine sono sottospazi vettoriali di R2.

(b) L’unione dei semipiani {x ≥ 0, y ≥ 0} ∪ {x ≤ 0, y ≤ 0} non e un sottospazio vetto-riale.

(c) L’unione di due rette per l’origine non e uno sottospazio vettoriale.

3. K[x] , Km[x] = {p ∈ K[x] : deg p ≤ m,m ∈ N} e un sottospazio vettoriale. Infatti ∀p, q ∈Km[x]⇒ p+ q ∈ Km[x].

Definizione 2.12 (Combinazione lineare). Siano v1 . . . vn ∈ V e a1, . . . , an ∈ K con V ssv.

n∑i=1

aivi = a1v1 + . . .+ anvn ∈ V (2.16)

si dice combinazione lineare dei vi a coefficienti ai. Denotiamo con Span(v1 . . . vn) l’insiemedi tutte le combinazioni lineari dei vettori v1 . . . vn.

Span(v1, . . . , vn) = {a1v1 + . . .+ anvn : ai ∈ K}

Proposizione 2.3.1. Span(v1, . . . , vn) e un ssv di V che contiene v1, . . . , vn ed in particolaree il piu piccolo ssv di V che contiene v1, . . . , vn.

Dimostrazione. Iniziamo col mostrare che e un sottospazio vettoriale.

1. 0 ∈ Span(v1, . . . , vn) , infatti basta scegliere a1 = a2 = . . . = an = 0.

2. ∀x, y ∈ Span(v1, . . . , vn) devo mostrare che x + y ∈ Span(v1, . . . , vn) . Poiche x ∈Span(v1, . . . , vn) , esistono a1, . . . , an ∈ K tali che x = a1v1 + . . . + anvn. Inoltre y ∈Span(v1, . . . , vn) quindi esistono b1, . . . , bn ∈ K tali che y = b1v1 + . . .+ bnvn. Quindi

(x+ y) = (a1 + b1)v1 + . . .+ (an + bn)vn ≡ α1v1 + . . .+ αnvn ∈ V

Page 18: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

18 CAPITOLO 2. SPAZI VETTORIALI

3. La stessa cosa vale per il prodotto per scalari.

Il sottospazio contiene v1, . . . , vn infatti vi ∈ Span(v1, . . . , vn) in quanto basta prendere aj =0,∀j 6= i. Per dimostrare l’ultima parte della proposizione bisogna dimostrare che , se Z eun ssv di V che contiene v1, . . . , vn allora Z ⊃ Span(v1, . . . , vn). Devo mostrare quindi che∀x ∈ Span(v1, . . . , vn) allora x ∈ Z. Ma se x ∈ Span(v1, . . . , vn) esistono a1, . . . , an tali chex = a1v1 + . . . + anvn. D’altra parte a1v1 ∈ Z visto che Z e un ssv : questo vale ∀i quindiaivi ∈ Z , ovvero

∑i aivi ∈ Z , ⇒ x ∈ Z .

Definizione 2.13 (Generatori). Denotiamo con Span(v1, . . . , vn) il sottospazio generato dav1, . . . , vn . I vettori v1, . . . , vn sono i generatori del sottospazio.

Osservazione 26.Il sottospazio generato da Spanv1 = {av1, a ∈ R} e una retta. Dunque Span(v1, v2) ⊆ R2

Definizione 2.14 (Span per insiemi). Sia A ⊂ V , allora

SpanA = {comb. lineari finite dei vettori diA} (2.17)

Teorema 2.3.2. Span{v1, . . . , vk} coincide con Span{v2, . . . , vk} ⇔ v1 e combinazione linearedei (v2, . . . , vk).

Dimostrazione. (⇒) Supponiamo che Span{v1, . . . , vk} = Span{v2, . . . , vk}. Ma allora v1 ∈Span{v2, . . . , vk} perche i due spazi sono uguali, quindi v1si scrive come combinazione linearedei v2, . . . , vk.(⇐) Prendo un elemento che sta in Span{v1, . . . , vk} e voglio dimostrare che sta in Span{v2, . . . , vk}.Prendo v ∈ Span{v1, . . . , vk} ⇒ v =

∑ki=1 αivi = α1v1 +

∑ki=2 αivi. Ma v1 per ipotesi e

combinazione lineare dei v2, . . . , vk , quindi

v = α1

k∑j=2

βjvj

+k∑i=2

αivi

che e una combinazione lineare dei v2, . . . , vk , quindi sta anche in Span{v2, . . . , vk}.

2.3.1 Esempi di sottospazi vettoriali

Osservazione 27.Sia E =

{(x, x2), x ∈ R

}⊂ R2 , ovvero E rappresenta i punti della parabola nel piano. Si

noti che

� 0 sta in questo spazio.

� La somma di due vettori che stanno sulla parabola esce dalla stessa : non e chiusorispetto alla somma. Per dimostrarlo prendo un elemento (x, x2) ∈ E, (x1, x

21) ∈ E.

Deve verificarsi (x, x2) + (x1, x21) ∈ E ovvero (x + x1, x

2 + x21) ∈ E ⇒ x2 + x21 =(x+x1)

2 = x2 +x21 + 2xx1 , quindi e un sottospazio vettoriale se e solo se xx1 = 0 . Masi puo sicuramente trovare un contro esempio per cui xx1 6= 0 (ad esempio x = 2, x1 = 3). Dnque E non un sottospazio vettoriale.

Page 19: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

2.4. OPERAZIONI CON SOTTOSPAZI 19

Osservazione 28.

v1 =

(1 20 3

), v2 =

(2 10 5

), v3 =

(1 30 7

)(2.18)

Si noti che (1 02 1

)/∈ Span{v1, v2, v3} (2.19)

visto che non puo essere scritto come combinazione lineare degli altri 3.

� E = {p(t) ∈ R[t] : p(1) = 2} non e un ssv perche il polinomio nullo non e contenuto.Diventa sottospazio se si modifica la condizione di appartenenza all’insieme come p(1) =0. In questo caso

– 0 ∈ E– p1 ∈ E, p2 ∈ E allora deve essere p1 + p2 ∈ E . Ma (p1 + p2)(1) = p1(1) + p2(1) =

0 ∈ E.

� E = {p(t) ∈ Rr[t] : p(2) = 0} e sicuramente un ssv. Il teorema di Ruffini ci diceche possiamo scomporre p(t) = (t − 2)q(t) con deg q < r. Prendiamo un’applicazioneh : Rr[t] ⊃ E → Rr−1[t] definita da p(t) = (t − 2)q(t) → q(t). Tale applicazione eben definita perche Ruffini garantisce che q sia unica. E iniettiva perche se prendiamop1 → (t− 2)q1 , p2 → (t− 2)q2 ⇒ p1 = p2 ⇔ q1 = q2 . E anche surgettiva.

� Prendiamo

A = Span

3

10

,

−1−10

(2.20)

e

B = Span

3

10

,

−1−10

,

100

(2.21)

Si noti che 100

=1

2

310

+1

2

−1−10

(2.22)

quindi , i due span coincidono.

2.4 Operazioni con sottospazi

Proposizione 2.4.1. Siano A,B ssv di V

1. A ∩B e un ssv di V .

2. A ∪B non e in generale un ssv di V .

Dimostrazione. (1) Prendiamo x, y ∈ A ∩ B ,dobbiamo mostrare che x + y ∈ A ∩ B. Max+ y ∈ A visto che x ∈ A , y ∈ A e A e ssv di V . Lo stesso vale per x+ y ∈ B.(2) Basta prendere l’unione di due rette distinte per l’origine.

Page 20: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

20 CAPITOLO 2. SPAZI VETTORIALI

Definizione 2.15 (Somma di sottospazi). Siano A,B ssv di V . Si definisce il sottospaziosomma

A+B = {v ∈ V : ∃a ∈ A, ∃b ∈ B : v = a+ b} (2.23)

Si noti che

1. A ⊂ A+B, infatti ∀a ∈ A, a = a+ 0, 0 ∈ B

2. B ⊂ A+B

Proposizione 2.4.2. A + B e ssv di V , contiene A e B ed e il piu piccolo ssv di V checontiene A e B.

Definizione 2.16 (Somma diretta). Se A∩B = {0}, il sottospazio A+B viene denotato conA⊕B e viene definito come somma diretta.

Osservazione 29.Prendiamo un piano A e una retta B che si incontrano solo nello zero. Si noti che A⊕B = R3

perche e il piu piccolo ssv che contiene entrambi.

Proposizione 2.4.3 (Unicita della presentazione). Ogni vettore v ∈ A⊕B si scrive in modounico come v = a+ b con a ∈ A, b ∈ B.

Dimostrazione. Devo dimostrare che , se ci fossero due modi di scrivere v , allora questicoinciderebbero. Supponiamo quindi che v = a1 + b1 = a2 + b2 con a1, a2 ∈ A e b1, b2 ∈ B.Devo provare che a1 = a2, b1 = b2. Si ha che a1−a2 = b2−b1 : ma a1−a2 ∈ A visto che e sommadi vettori di un ssv; lo stesso vale per b2 − b1 ∈ B. Dunque a1 − a2 = b2 − b1 ∈ A ∩ B = {0}per l’ipotesi di somma diretta. Dunque a1 = a2 e b1 = b2.

Corollario 2.4.4. Se V = A⊕B allora ∀v ∈ V , ∃!a ∈ A,∃!b ∈ B tale che v = a+ b.

Definizione 2.17 (Proiezione). Posso definire una proiezione su A , prA : V → A che mandav → a e una proiezione in B , prB : V → B che manda v → b.

Osservazione 30.Si noti che le proiezioni sono ben definite solo perche A e B sono in somma diretta altrimentici sarebbe ambiguita nella definizione.

Definizione 2.18 (Supplementare). Sia U un ssv di V . Un sottospazio W di V si dicesupplementare di U se V = U ⊕W .

Osservazione 31.Se V = R2 e prendo U come retta per l’origine possiamo prendere come supplementare un’altraretta che passa per l’origine. Questi due sottospazi hanno intersezione solo nello 0 quindi sonosupplementari. La somma fa tutto R2. Si noti che in questo caso il supplementare non e unico!

Osservazione 32.

M(n) = S(n)⊕A(n)

Page 21: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 3

Applicazioni Lineari

Definizione 3.1 (Applicazioni lineari). Siano V,WK−spazi vettoriali. Un’applicazione f :V →W e detta lineare se

1. ∀x, y ∈ V , f(x+ y) = f(x) + f(y).

2. ∀α ∈ K, ∀x ∈ V , f(αx) = αf(x).

ovvero f(λx+ µy) = λf(x) + µf(y).

Osservazione 33.Se f e lineare allora f(0) = 0, infatti

f(0) = f(0 + 0) = f(0) + f(0)⇒ f(0) = 0

3.0.1 Esempi di applicazioni

1. 0 : V →W e l’applicazione nulla ed e lineare.

2. id : V → V e l’identita ed e lineare.

3. t : M(p, q) → M(q, p) che manda A → t A , dove [ tA]ij = [A]ji, e l’applicazionetrasposta ed e lineare. Infatti

�t[A+B]ij = [A+B]ji = [A]ji + [B]ji = t A+ t B

�t[αA] = α tA

Osservazione 34.∀A ∈M(n, n,K) , A+ tA e simmetrica e A− tA e antisimmetrica. Inoltre ogni matriceA si puo scrivere come somma di una matrice simmetrica ed antisimmetrica , infatti

(A+ t A) + (A− t A) = 2A⇒ A =1

2(A+ t A) +

1

2(A− t A) (3.1)

Questo prova anche che M(n) = S(n)⊕A(n) visto che un elemento di M(n) si scrive inmodo unico come somma di due elementi dei sottospazi in somma diretta. Verifichiamoche le due scomposizioni di A sono simmetriche ed antisimmetriche.

t[1

2(A+ t A)] =

1

2

t

(A+ t A) =1

2( tA+A) (3.2)

Mentret[

1

2(A− t A)] =

1

2

t

(A− t A) =1

2( tA−A) = −1

2(A− t A) (3.3)

21

Page 22: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

22 CAPITOLO 3. APPLICAZIONI LINEARI

4. Tr : M(n)→ K e l’applicazione traccia che manda

A→ TrA =n∑i=1

[A]ii

e lineare, infatti

Tr(A+B) =n∑i=1

[A+B]ii =n∑i=1

([A]ii + [B]ii) =n∑i=1

[A]ii +n∑i=1

[B]ii = TrA+ TrB

5. ddx : K[x]→ K[x] e l’applicazione derivata che manda p(x)→ d

dxp(x) e lineare.

6. a ∈ K , f : K[x]→ K che manda p(x)→ p(a) e l’applicazione di valutazione ed e lineare.

7. f : C→ C che manda z → z e l’applicazione di coniugio che non e lineare.

� f(z + w) = z + w = z + w = f(z) + f(w)

� f(αz) = αz = αz = αf(z) Dato che questa non vale ∀α ∈ C l’applicazione non elineare.

Osservazione 35.Ogni matrice A ∈M(p, q,K) definisce in modo naturale una applicazione lineare A : Kq → Kp

nel modo seguente.

Prima ci servono alcune definizioni di base.

Definizione 3.2. Prodotto tra vettori colonna

(a1, . . . , aq)

b1...bq

≡ a1b1 + . . .+ aqbq (3.4)

Definizione 3.3. Se A ∈M(p, q,K) e x ∈ Kq = M(q, 1) poniamo

Ax =

. . . A1 . . ....

......

. . . Ap . . .

x

=

A1x...

Apx

∈ Kp (3.5)

Osservazione 36.Ax = x1A

1 + . . . + xqAq, ovvero il prodotto Ax puo essere visto come combinazione lineare

delle colonne di A. Infatti

Ax =

A1x...

Apx

=

a11x1 + . . .+ a1qxq...

ap1x1 + . . .+ apqxq

= x1A1 + . . .+ xqA

q (3.6)

per la definizione della somma tra matrici e del prodotto tra vettori colonna.

Proposizione 3.0.5. Se A ∈ M(p, q,K) l’applicazione A : Kq → Kp che manda x → Ax elineare.

Page 23: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

23

Dimostrazione. Infatti ∀x, y ∈ Kq, A(x + y) = Ax + Ay . Inoltre ∀α ∈ K, ∀x ∈ Kq, A(αx) =α(Ax).

Osservazione 37.Data una matrice A si definisce immediatamente un’applicazione lineare. Dunque l’immaginedi A sara l’immagine dell’applicazione lineare associata ad A.

Osservazione 38.L’uguaglianza Ax = x1A

1 + . . . + xqAq confronta un vettore dell’immagine , Ax , ed una

combinazione lineare (span) delle colonne di A. Vogliamo quindi provare che ImmA =Span(A1, . . . , Aq)

Dimostrazione. (⊂) Infatti Ax = x1A1 + . . . + xqA

q quindi un vettore dell’immagine Ax sipuo scrivere come combinazione lineare delle colonne di A, ovvero sta nello span.(⊃) Se un vettore sta nello span allora e del tipo α1A

1 + . . . αqAq. Ma questo vettore e

immagine del vettore α ≡ (α1, . . . , αq) , ovvero Aα.

Dunque e vero che

ImmA = Span(A1, . . . , Aq) ≡ C (A) (3.7)

Osservazione 39.Posto

e1 ≡

10......0

∈ Kq . . . eq ≡

0......01

∈ Kq (3.8)

si ha che

A(e1) = A

10......0

= A1 (3.9)

. . .

A(eq) = A

0......01

= Aq (3.10)

Quindi

A =

(Ae1

∣∣∣∣∣ . . .∣∣∣∣∣Aeq

)=

(A1

∣∣∣∣∣ . . .∣∣∣∣∣Aq)

(3.11)

Teorema 3.0.6. Tutte le applicazioni lineari Kq → Kp sono indotte da una matrice, ossia∀g : Kq → Kp lineare esiste una ed una sola matrice A ∈M(p, q,K) tale che g(x) = Ax,∀x ∈Kq.

Page 24: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

24 CAPITOLO 3. APPLICAZIONI LINEARI

Dimostrazione. L’unico modo possibile per soddisfare l’uguaglianza g(x) = Ax e che le colonnedelle matrici siano uguali, ovvero che le due immagini coincidano. Ma le colonne di A sonoimmagini dei vettori e1, . . . , eq , quindi

A =

(g(e1)

∣∣∣∣∣ . . .∣∣∣∣∣g(eq)

)(3.12)

Verifichiamo che con tale scelta g(x) = Ax,∀x. Infatti ∀x ∈ Kq ,

Ax = x1g(e1) + . . .+ xqg(eq) = g(x1e1) + . . .+ g(xqeq) =

= g(x1e1 + . . .+ xqeq) = g(x1, . . . , xq) = g(x)(3.13)

per la linearita di g.

Osservazione 40.Sia g : R2 → R3 definita da (x, y) → (2x, x − y, x + 4y). Questa applicazione e indotta dallamatrice

A =

(g(e1)

∣∣∣∣∣g(e2)

)=

2 01 −11 4

(3.14)

Osservazione 41.hom (V,W ) = {f : V →W : f lineare } e un sottospazio vettoriale di {f : V →W}.

� 0 e lineare dunque 0 ∈ hom (V,W )

� Prese f, g ∈ hom (V,W ) deve essere (f + g) ∈ hom (V,W ). Si deve quindi verificare

(f + g)(x+ y) = f(x+ y) + g(x+ y) = f(x) + f(y) + g(x) + g(y)

= (f + g)(x) + (f + g)(y)(3.15)

Definizione 3.4 (Nucleo di f). Sia f : V →W lineare. Si definisce

ker f = {x ∈ V : f(x) = 0} (3.16)

come nucleo di f .

Osservazione 42.Si noti che

� il nucleo non puo essere mai vuoto perche , per la linearita di f , f(0) = 0.

� ker f ⊂ V

Proposizione 3.0.7. Se f : V →W e lineare allora

1. ker f e un ssv di V .

2. Immf e un ssv di W .

3. f e iniettiva se e solo se ker f = {0}

Dimostrazione. .

Page 25: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

25

1. Mostriamo le tre proprieta

� 0 ∈ ker(f) poiche f(0) = 0

� ∀x, y ∈ ker(f)⇒ (x+ y) ∈ ker(f) infatti f(x+ y) = f(x) + f(y) = 0 + 0 = 0.

� ∀x ∈ ker(f), ∀α ∈ K⇒ αx ∈ ker(f) infatti f(αx) = αf(x) = α0 = 0.

2. Mostriamo le tre proprieta

� 0 ∈ Imm(f) poiche f(0) = 0.

� ∀z, w ∈ Imm(f)∃x, y ∈ V tale che z = f(x), w = f(y) ⇒ z + w = f(x) + f(y) ⇒f(x+ y) = z + w ⇒ z + w ∈ Imm(f).

� ∀z ∈ Imm(f) ∃x ∈ V tale che z = f(x) ⇒ ∀α ∈ K, αz = αf(x) = f(αx) ⇒ αz ∈Imm(f).

3. (⇒) Prendiamo una x ∈ ker f allora f(x) = 0 = f(0) dunque per l’iniettivita x = 0.(⇐) Se f(x) = f(y) allora devo dimostrare x = y . Ma f(x) = f(y) ⇒ f(x) − f(y) =0⇒ f(x− y) = 0⇒ (x− y) ∈ ker f . Ma poiche ker f = {0} ⇒ x− y = 0⇒ x = y

Page 26: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

26 CAPITOLO 3. APPLICAZIONI LINEARI

Page 27: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 4

Sistemi Lineari

4.1 Sistema lineare

Definizione 4.1 (Sistema Lineare). Un sistema lineare in p equazioni ed n incognite e datoda

a11x1 + . . .+ a1nxn = b1

a21x1 + . . .+ a2nxn = b2...

......

......

......

......

...

ap1x1 + . . .+ apnxn = bp

(4.1)

E utile compattare questo sistema in una notazione diversa , utilizzando le matrici.

A =

a11 . . . a1n...

. . ....

ap1 . . . apn

∈M(p, n,K) ; X =

x1...xn

∈ Kn ; B =

b1...bp

∈ Kp

(4.2)Con questa notazione si nota subito che il sistema si puo scrivere semplicemente con la formula

AX = B (4.3)

con la nozione di prodotto tra matrici e vettori colonna gia data. Dunque ogni volta chedovremo analizzare un sistema ci ridurremo semplicemente alle matrici associate a questosistema.

Definizione 4.2 (Matrice completa del sistema). La matrice A′ = (A|B), ottenuta aggiun-gendo alla matrice A la colonna dei termini noti del sistema , e detta matrice completa delsistema.

Osservazione 43.La n-upla Y = (y1, . . . , yn) ∈ Kn e soluzione del sistema AX = B ⇔ AY = B. Ma sap-piamo che la matrice A induce un’applicazione lineare A : Kn → Kp che porta x → Ax.Dunque il sistema e risolubile se e solo se , dato un fissato B questo appartiene all’immaginedell’applicazione A. Le soluzioni del sistema sono invece la controimmagine del vettore B inKn.

27

Page 28: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

28 CAPITOLO 4. SISTEMI LINEARI

Definizione 4.3. L’insieme delle soluzioni di un qualsiasi sistema si puo scrivere come

SB = {x ∈ Kn : Ax = B} (4.4)

Il sistema con B = 0 e detto sistema omogeneo ed il suo insieme di soluzioni e dato da

S0 = {x ∈ Kn : Ax = 0} (4.5)

Osservazione 44.Si noti che S0 e un ssv di Kn , infatti

1. {0} ∈ S0 visto che lo 0 e soluzione del sistema omogeneo

2. Dati x, y ∈ S0 ⇒ Ax = 0, Ay = 0⇒ A(x+ y) = Ax+Ay = 0⇒ x+ y ∈ S0

3. λ ∈ K, x ∈ S0 ⇒ Ax = 0⇒ A(λx) = λAx = 0

Osservazione 45.Se B 6= 0 , SB non e un sottospazio vettoriale ( basti controllare che non contiene lo 0).

Definizione 4.4 (Sistemi equivalenti). Due sistemi lineari si dicono equivalenti se hanno lostesso insieme di soluzioni

4.2 Matrici a scalini

Definizione 4.5 (Matrice a scalini). Una matrice siffatta

S =

0 0 | ∗ ∗ ∗ ∗ ∗0 0 0 0 | ∗ ∗ ∗0 0 0 0 0 ∗ ∗ ∗...

......

......

......

...

(4.6)

e detta a scalini. Piu precisamente S ∈ M(p, k) si dice a scalini se ∀i = 1, . . . , p − 1 tutti glielementi [S]ij = 0, ∀j = 1, . . . , k ⇒ [S]i+1,h = 0, h = 1, . . . , k + 1.

Osservazione 46.La matrice

S =

2 1 2 −1 | 30 0 1 5 | −20 0 0 0 | 0

(4.7)

e a scalini ed ha 2 pivots1. Possiamo risolvere il sistema riducendosi alle equazioni che lodefiniscono {

x3 = −5x4 − 2

2x1 + x2 + 2x3 − x4 = 3⇒

{x3 = −5x4 − 2

x1 = −12x2 + 11

2 x4 + 72

(4.8)

Il sistema delle soluzioni e quindi dato da

SB =

−1

2x2 + 112 x4 + 7

2x2

−5x4 − 2x4

: x2, x4 ∈ R

=

7/20−20

+ x2

−1/2

100

+ x4

11/2

0−51

: x2, x4 ∈ R

(4.9)

1Primo elemento non nullo di una riga a partire da sinistra.

Page 29: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

4.2. MATRICI A SCALINI 29

Ovvero l’insieme delle soluzioni del sistema si presenta come la somma di una soluzioneparticolare e dello span dei vettori di S0, dato dax2

−1/2

100

+ x4

11/2

0−51

: x2, x4 ∈ R

= Span(y1, y2) (4.10)

con y1, y2 ∈ S0.

Proposizione 4.2.1. Sia S0 = {x : Ax = 0} , SB = {x : Ax = B}. Sia inoltre y0unasoluzione del sistema Ax = B. Si ha che SB = y0 + S0 , dove con la somma si intende chel’insieme y0 + S0 e dato da {y0 + x : x ∈ S0} , ovvero si somma ad y0 tutti i vettori di S0 ,ottenendo un nuovo spazio. Tale insieme ottenuto e il traslato di S0 e viene detto sottospazioaffine.

Dimostrazione. Proviamo solo l’implicazione SB ⊃ y0 + S0. Un qualsiasi vettore∈ y0 + S0si scrive come y0 + x , con x ∈ S0. Devo far vedere che y0 + x e soluzione del sistema nonomogeneo : A(y0 + x) = Ay0 +Ax = B + 0 = B

Proposizione 4.2.2 (Operazioni elementari). Questa serie di operazioni non cambiano lesoluzioni di un sistema.

1. Scambio di due equazioni

2. Moltiplicazione di una equazione per α 6= 0 , α ∈ K

3. Somma di un multiplo di un’equazione ad un’altra

Dimostrazione. Proviamo solo la (3) delle precedenti. Prendiamo il sistema{a11x1 + . . .+ a1nxn = b1

a21x1 + . . .+ a2nxn = b2(4.11)

e supponiamo che abbia come soluzione (y1, . . . , yn). Preso h ∈ K, sommo h volte la primaequazione alla seconda ottenendo il sistema{

a11x1 + . . .+ a1nxn = b1

a21x1 + . . .+ a2nxn + h(a11x1 + . . .+ a1nxn) = b2 + hb1(4.12)

Se si sostituisce (y1, . . . , yn) nel sistema si trova che questo vettore e soluzione anche delsistema modificato. Questo e facile da verificare nella prima equazione, mentre nella secondasi ha

a21y1 + . . .+ a2nyn︸ ︷︷ ︸b2

+h (a11y1 + . . .+ a1nyn)︸ ︷︷ ︸b1

= b2 + hb1

che e verificato sempre ∀h.

Le operazioni elementari possono essere scritte anche per matrici (data l’equivalenza giavista tra sistemi e matrici ) , basta sostituire al posto di equazione il termine riga. Presentiamoora , con un esempio, uno degli algoritmi piu conosciuti per ridurre una qualsiasi matrice ascalini.

Page 30: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

30 CAPITOLO 4. SISTEMI LINEARI

Osservazione 47.Prendiamo il sistema

x− y + 2z − t = 1

2x− 2y + 5z + t = 3

4x− 4y + 9z − t = 5

(4.13)

Scriviamo la matrice dei coefficienti1 −1 2 −1 | 12 −2 5 1 | 34 −4 9 −1 | 5

→1 −1 2 −1 | 1

0 0 1 3 | 10 0 1 3 | 4

→1 −1 2 −1 | 1

0 0 1 3 | 10 0 0 0 | 3

(4.14)

dove sono state fatte rispettivamente le seguenti operazioni elementari (Ri sta per la rigai-esima) :

1. R2 7−→ R2 − 2R1

2. R3 7−→ R3 − 4R1

3. R3 7−→ R3 −R2

Si osservi che si deve utilizzare sempre la riga con il pivot che viene considerato di volta involta!

4.3 Algoritmo di Gauss

Proposizione 4.3.1 (Algoritmo di Gauss). Si consideri la matrice completa del sistema(A|B) = D. Le operazioni da fare sono

1. Prendo la prima colonna da sinistra non nulla in D. Dunque ∃j1 tale che [D]j1,j2 6= 0

2. A meno di scambiare le righe posso supporre i = 1

3. ∀i = 2, . . . , p sommando a Di un opportuno multiplo di D1 , posso far si che l’elementodi posto (i, j1) sia 0.

4. Itero sulla sottomatrice ottenuta dimenticando la prima riga e la j1-colonna.

Teorema 4.3.2 (di Gauss). 1. Ogni matrice puo essere trasformata in una matrice a scali-ni attraverso un numero finito di operazioni elementari per riga.

2. Ogni sistema lineare e equivalente ad un sistema a scalini.

Proposizione 4.3.3. Un sistema Ax = B e risolubile ⇔ il numero di pivots di S e uguale alnumero dei pivots di (S|C) dove quest’ultima e una ridotta a scalini della matrice completadel sistema.

Osservazione 48.Prendiamo il sistema {

ax+ . . .

(a+ 1)x+ . . .⇒ A =

(a . . . | . . .

a+ 1 . . . | . . .

)(4.15)

Page 31: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

4.3. ALGORITMO DI GAUSS 31

Per lo studio del numero di pivots si dovrebbero innazitutto distinguere i casi in cui a = 0 (1 pivot) oppure a 6= 0. Tale distinzione risulta fastidiosa quando si ha a che fare con matricimolto piu grandi. Si puo invece notare che a + 1 − a non dipende da a , quindi convienesostituire alla seconda riga la differenza tra le due righe in modo da eliminare la dipendenzada a su almeno 1 pivot.

Osservazione 49.Abbiamo gia visto che le rette per l’origine sono sottospazi vettoriali. In particolare una rettar si puo scrivere come

r = Span(v) =

tabc

: t ∈ R

(4.16)

Si voglia ora verificare se un punto (x, y, z) ∈ R3 si trova sulla retta. Si dovra trovare se ∃t ∈ Rtale che

x = ta

y = tb

z = tc

(4.17)

Questo sistema rappresenta un nuovo modo di scrivere una retta in R3 , detta forma param-terica. In questo caso la retta stessa e l’immagine dell’applicazione ϕ : R→ R3 che trasformat→ (ta, tb, tc) , ovvero ab

c

t =

tatbtc

(4.18)

La matrice associata al sistema (4.17) si scrive comea | xb | yc | z

(4.19)

Dunque (x, y, z) ∈ r ⇔ il sistema e risolubile. Posso quindi ridurre a scalini ,supponendoa, b, c 6= 0 ( altrimenti la soluzione avrebbe poco senso!) , ottenendo? | ∗

0 | p(x, y, z)0 | q(x, y, z)

(4.20)

dove p, q sono generici polinomi di x, y, z. Perche il sistema sia risolubile non ci devono quindiessere pivots , ovvero p(x, y, z) = q(x, y, z) = 0 , cioe{

p(x, y, z) = 0

q(x, y, z) = 0(4.21)

ovvero la retta e l’intersezione di due piani , cioe il nucleo di una applicazione lineare.

Osservazione 50.Prendiamo un piano per l’origine in R3. Sia

H = Span

1

13

,

012

=

t1

13

+ s

012

: t, s ∈ R

=

t

t+ s3t+ 2s

: t, s ∈ R

= Immϕ

(4.22)

Page 32: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

32 CAPITOLO 4. SISTEMI LINEARI

dove ϕ : R2 → R3 e l’applicazione definita da(ts

)→

tt+ s

3t+ 2s

=

1 01 13 2

· (ts

)(4.23)

Dunque (x, y, z) ∈ H ⇔ ∃t, s tali che tt+ s

3t+ 2s

=

xyz

(4.24)

Utilizziamo la riduzione a scalini1 0 | x1 1 | y3 2 | z

→1 0 | x

0 1 | y − x0 2 | z − 3x

→1 0 | x

0 1 | y − x0 0 | z − x− 2y

(4.25)

che risolubile⇔ z − x− 2y = 0 che e l’equazione cartesiana di un piano.

Osservazione 51 (equazioni cartesiane).Sia Z il sottospazio generato da

α1 − α2 + α3

α2

α1

2α1 − α2

α1, α2, α3 ∈ R

Per trovare le equazioni cartesiane che defniscono Z innanzitutto costruiamo la matrice asso-ciata

A =

1 −1 10 1 01 0 02 −1 0

che definisce un’applicazione

R3 A−→ R4α1

α2

α3

→ A

α1

α2

α3

(4.26)

Voglio una condizione per cui v ∈ Imm(A)⇒ v = A

α1

α2

α3

Risolviamo quindi il sistema

1 −1 1 | x0 1 0 | y1 0 0 | z2 1 0 | t

1 −1 1 | x0 1 0 | y0 1 −1 | z − x0 1 −2 | t− 2x

1 −1 1 | x0 1 0 | y0 0 −1 | z − x− y0 0 0 | t− 2z + y

(4.27)

Dunque l’equazione cartesiana che definisce lo spazio e

t+ y − 2z = 0

Page 33: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

4.3. ALGORITMO DI GAUSS 33

Osservazione 52 (Linearita delle composizioni).V,W,Z , K-spazi vettoriali. Siano f : V → W e g : W → Z , applicazioni lineari. Ha sensoconsiderare (g ◦ f) : V → Z : vogliamo mostare che anche questa e lineare.

� ∀x, y ∈ V : (g ◦ f)(x + y) = g(f(x + y)) = g(f(x) + f(y)) = g(f(x)) + g(f(y)) =(g ◦ f)(x) + (g ◦ f)(y)

Osservazione 53 (Matrice associata alla composizione).

Supponiamo adesso di avere due applicazioni Kn f−→ Kp g−→ Kq. So quindi che

� ∃A ∈M(p, n,K) tale che f(x) = Ax,∀x ∈ Kn

� ∃B ∈M(q, p,K) tale che g(y) = By, ∀y ∈ Kp

Dato che g ◦ f e lineare , esistera una matrice C ∈ M(q, n,K) tale che (g ◦ f)(x) = Cx ,∀x ∈ Kn. La matrice C sara legata in qualche modo alle matrici A e B. Per trovare la formulaesplicita basta fare il calcolo con le sommatorie.

[Ax]i1 = Aix =n∑j=1

[A]ij [x]j1

[By]h1 = Bhy =

p∑k=1

[B]hk[y]k1

Si ha quindi(g ◦ f)(x) = g(f(x)) = g(Ax) = B(Ax) = Cx

dunque

[(g ◦ f)(x)]h1 = [B(Ax)]h1 =

p∑k=1

[B]hk[Ax]k1

=

p∑k=1

[B]hk

n∑j=1

[A]kj [x]j1

=n∑j=1

(p∑

k=1

[B]hk[A]kj

)[x]j1

(4.28)

Stiamo cercando una relazione tra la matrice C e il vettore x : [(g ◦ f)(x)]h1 = Chx. Dunqueper l’equazione (4.28) si ha che

[C]hj =

p∑k=1

[B]hk[A]kj = BhAj (4.29)

che e la formula per il prodotto di matrici e rappresenta la caratterizzazione della matriceassociata alla composizione delle due funzioni : C ≡ BA.

Definizione 4.6 (Matrice prodotto). Sia A ∈ M(p, n) , B ∈ M(q, p). BA e la matriceprodotto (q × n) definita da

[BA]ji ≡ BjAi (4.30)

Si noti che

� La moltiplicazione tra due matrici ha senso solo se il numero di righe di A e uguale alnumero di colonne di B, altrimenti non e definita.

Page 34: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

34 CAPITOLO 4. SISTEMI LINEARI

� Non vale la proprieta commutativa , AB 6= BA.

Osservazione 54.M(n,K,+,prodotto righe×colonne) e un anello NON commutativo. ∀A,B,C ∈M(n) valgonole proprieta

� ABC = A(BC)

� A(B + C) = AB +AC

� (A+B)C = AC +BC

L’elemento neutro per il prodotto tra matrici e la matrice identita.

idM =

1 . . . 0...

. . ....

0 . . . 1

(4.31)

Osservazione 55.A differenza di quanto succede nei campi come R moltiplicando due elementi non nulli inM(n,K,+,prodotto righe×colonne) si puo ottenere la matrice nulla.(

0 10 0

)(3 40 0

)=

(0 00 0

)(4.32)

Esistono anche matrici che moltiplicate per se stesse danno la matrice nulla.(0 10 0

)(0 10 0

)=

(0 00 0

)(4.33)

Definizione 4.7 (Matrice nilpotente). Una matrice A si dice nilpotente se ∃m ∈ N tale cheAm = 0. Il piu piccolo intero m per cui questo succede e detto indice di nilpotenza.

Definizione 4.8 (Isomorfismo). f : V →W lineare si dice isomorfismo se f e bigettiva.

Definizione 4.9 (Spazi isomorfi). Due spazi V , W si dicono isomorfi se esiste un isomorfismotra di essi.

Osservazione 56.Ogni punto appartente al piano R2 si puo scrivere come combinazione lineare dei vettori (0, 1), (1, 0) , infatti ogni vettore si scrive tramite 2 coordinate v = (x, y) = x(1, 0) + y(0, 1). Ivettori (0, 1) , (1, 0) generano tutto lo spazio , come e facile verificare.

Page 35: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 5

Basi e dimensione

5.1 Applicazioni lineari e basi

Definizione 5.1 (Spazio finitamente generato). Uno spazio vettoriale V si dice finitamentegenerato se esistono v1, . . . , vn ∈ V tali che ∀v ∈ V , ∃α1, . . . , αn ∈ K : v = α1v1 + . . .+ αnvn, ossia Span(v1, . . . , vn) = V . In tal caso v1, . . . , vn sono detti generatori di V .

Osservazione 57.e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) generano Kn.

Osservazione 58.K[x] non e finitamente generato. Infatti se lo fosse dovrebbero esistere un numero finito dipolinomi con i quali si genera ogni polinomio. Questo insieme di polinomi generatori avrannoun grado massimo , che denotiamo con m. Una combinazione lineare di questi polinomi potraavere al piu grado m , dunque si vede subito che non e possibile rappresentare polinomi digrado superiore ad m, ovvero K[x] non e finitamente generato.

Definizione 5.2 (Vettori linearmente indipendenti). v1, . . . , vn ∈ V sono detti linearmenteindipendenti se a1v1 + . . . + anvn = 0 ⇒ a1 = a2 = . . . = an = 0. Altrimenti sono dettidipendenti.

Osservazione 59.e1, . . . , en ∈ Kn sono linearmente indipendenti.

Osservazione 60.v ∈ V e linearmente indipendente ⇔ v 6= 0. Infatti av = 0⇔ a = 0∨ v = 0 . Se v = 0 , a 6= 0allora v e dipendente, altrimenti v 6= 0, a = 0 e v e indipendente.

Osservazione 61.Se uno tra i vettori v1, . . . , vn e nullo allora v1, . . . , vn sono linearmente dipendenti. Infatti sev1 = 0 allora v1 + 0 · v2 + . . .+ 0 · vn = 0.

Proposizione 5.1.1. Sia n ≥ 2 . I vettori v1, . . . , vn sono linearmente dipendenti ⇔ almenouno di essi si puo scrivere come combinazione degli altri.

Dimostrazione. (⇒) : Per ipotesi ∃a1, . . . , an non tutti nulli tali che a1v1 + . . .+ anvn = 0. Sea1 6= 0 posso moltiplicare per a−11 ottenendo a1v1a

−11 + . . .+anvna

−11 = 0⇒ v1 = −a−11 a2v2−

. . .− a−11 anvn . Segue la tesi.(⇐) : Se v1 = a2v2 + . . .+ anvn allora v1− a2v2− . . .− anvn = 0 e non tutti i coefficienti sononulli , ovvero i vettori sono linearmente dipendenti.

35

Page 36: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

36 CAPITOLO 5. BASI E DIMENSIONE

Osservazione 62.Se v1, . . . , vk sono linearmente indipendenti e m ≤ k allora v1, . . . , vm sono linearmenteindipendenti.

Osservazione 63.Se vm ∈ Span(v1, . . . , vm−1) , allora

Span(v1, . . . , vm−1, vm) = Span(v1, . . . , vm−1) (5.1)

Definizione 5.3 (Base). Un insieme ordinato {v1, . . . , vn} di vettori di V e detto base di Vse v1, . . . , vn sono linearmente indipendenti e generano V .

Osservazione 64.{e1, . . . , en} sono una base di Kn, detta base canonica.

Proposizione 5.1.2. Se B = {v1, . . . , vn} e una base di V , allora ogni v ∈ V puo essere scrittoin modo unico come combinazione lineare dei v1, . . . , vn. I coefficienti di questa combinazionelineare sono dette coordinate di v rispetto alla base B e vengono denotati con [v]B.

Dimostrazione. Supponiamo per assurdo che un vettore si scriva in due modi diversi{v = a1v1 + . . .+ anvn

v = b1v1 + . . .+ bnvn⇒ (a1 − b1)v1 + . . .+ (an − bn)vn = 0 (5.2)

Dato che v1, . . . , vn sono linearmente indipendenti⇒ a1− b1 = . . . = an− bn = 0⇒ a1 = b1 =. . . = an = bn.

Fissare una base determina quindi una corrispondenza BIUNIVOCA [·]B : V → Kn , chemanda v → [v]B. L’applicazione [·]B e lineare e dunque un isomorfismo.

Osservazione 65.Sia S = {(1, 0), (1, 1)} una base di R2. Per trovare le coordinate di un vettore in questa basebisogna trovare due numeri a, b tali che

(x, y) = a(1, 0) + b(1, 1)⇒

{a+ b = x

b = y(5.3)

Ovvero bisogna risolvere un sistema lineare che ha come soluzioni le coordinate del vettore.

[(x, y)]S =

(x− yy

)(5.4)

Corollario 5.1.3. Se V e un K-spazio vettoriale che ammette una base formata da n vettoriallora V e isomorfo a Kn.

Teorema 5.1.4. Siano {v1, . . . , vn} base di V , w1, . . . , wk vettori di V . Se k > n alloraw1, . . . , wk sono linearmente dipendenti.

Dimostrazione. Si ha

w1 = a11v1 + . . .+ a1nvn......

wk = ak1v1 + . . .+ aknvn

(5.5)

Page 37: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

5.2. PROPRIETA DELLE BASI 37

Prendiamo una combinazione α1w1 + . . .+ αkwk = 0 sostituendo si ha

α1(a11v1 + . . .+ a1nvn) + . . .+ αk(ak1v1 + . . .+ aknvn) = 0

ossia

(a11α1 + . . .+ ak1αk)v1 + . . .+ (a1nα1 + . . .+ aknαk)vn = 0

che e una combinazione lineare nulla dei vi , allora

a11α1 + . . .+ ak1αk = 0......

a1nα1 + . . .+ aknαk = 0

(5.6)

che e un sistema lineare omogeneo di n equazioni in k incognite. Poiche k > n il sistema hasoluzioni non nulle.

Corollario 5.1.5. Se {v1, . . . , vn} e {w1, . . . , wk} sono basi di V , allora n = k.

Definizione 5.4 (Dimensione). Se V possiede una base finita {v1, . . . , vn} diciamo che V hadimensione n. Se V = {0} poniamo dimV = 0.

5.2 Proprieta delle basi

Proposizione 5.2.1 (Algoritmo per l’estrazione di una base). Supponiamo V 6= {0} . Daogni insieme finito di generatori di V si puo estrarre una base di V .

Dimostrazione. Siano v1, . . . , vk generatori di V . Posso supporre vi 6= 0, ∀i. Allora v1 elinearmente indipendente. Passo a controllare la lista {v1, v2}. Si presentano vari casi

1. Se v1, v2 sono linearmente indipendenti posso tenerli.

2. Altrimenti v2 ∈ Span(v1) quindi posso toglierlo dalla lista, ovvero Span(v1, v2, . . . , vk) =Span(v1, v3 . . . , vk). Questi vettori continuano ad essere un insieme di generatori.

Ripeto il ragionamento partendo dall’inizio. Continuo cosı fino a quando ho esaminato tuttii vettori della lista.

Corollario 5.2.2. Sia dimV = n. Se v1, . . . , vk sono generatori di V allora k ≥ n

Osservazione 66.Se v1, . . . , vk sono linearmente indipendenti e v /∈ Span(v1, . . . , vk) allora v1, . . . , vk, v sonolinearmente indipendenti.

Dimostrazione. Sia a1v1+. . .+akvk+av = 0 . Deve essere a = 0 altrimenti v ∈ Span(v1, . . . , vk).Quindi a1v1 + . . . + akvk = 0 ⇒ a1 = . . . = ak = 0 , ovvero i vettori sono linearmenteindipendenti.

Lemma 5.2.3. Sia dimV = n. Se v1, . . . , vn sono linearmente indipendenti allora sono unabase per V .

Page 38: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

38 CAPITOLO 5. BASI E DIMENSIONE

Dimostrazione. Basta provare che questi generano V . Se , per assurdo, non generassero V, esisterebbe v /∈ Span(v1, . . . , vn) ma con v ∈ V . Dunque v1, . . . , vn, v sarebbero n + 1vettori linearmente indipendenti, ma dato che dimV = n questi vettori non possono esserelinearmente indipendenti, dunque e assurdo dire che v non sta in Span(v1, . . . , vn).

Teorema 5.2.4 (Completamento a base). Sia dimV = n . Se v1, . . . , vk sono linearmenteindipendenti , allora k ≤ n ed esistono vk+1, . . . , vn tali che {v1, . . . , vk, vk+1, . . . , vn} e unabase di V .

Dimostrazione. Se k = n , per il lemma {v1, . . . , vk} e una base. Se k < n i v1, . . . , vknon possono essere generatori . Ci sara quindi un vettore che esce dallo span , ovvero∃vk+1 /∈ Span(v1, . . . , vk). Dunque la lista v1, . . . , vk, vk+1 e una lista di vettori linearmenteindipendenti. Dunque

1. Se k + 1 = n per il lemma v1, . . . , vk+1 sono una base.

2. Se k + 1 < n continuo come sopra.

Dopo n − k passi trovo n vettori linearmente indipendenti in uno spazio di dimensione n edunque , una base.

Osservazione 67.Sia {v1, . . . , vn} una lista di vettori. Se i vi sono a due a due linearmente indipendenti ;{v1, . . . , vn} linearmente indipendenti. Basta prendere , ad esempio0

10

110

100

(5.7)

Osservazione 68.Sia U = Span(v1, . . . , vk) , W = Span(vk+1, . . . , vn) ⇒ U ∩W = {0}. Infatti se x ∈ U ∩Wallora

∃α1, . . . , αk ∈ K : x = α1v1 + . . .+ αkvk (x ∈ U)

∃βk+1, . . . , βn ∈ K : x = βk+1vk+1 + . . .+ βnvn (x ∈W )

Facendo la differenza si ottiene

α1v1 + . . .+ αkvk − βk+1vk+1 − . . .− βnvn = 0

Dato che questi vettori sono linearmente indipendenti , α1 = . . . = αk = βk+1 = . . . = βn =0⇒ x = 0 . Visto che U ∩W = {0} ⇒ ∃U ⊕W ssv di V e inoltre U ⊕W = V .

Corollario 5.2.5. Ogni ssv di uno spazio vettoriale V di dimensione finita ammette unsupplementare.

Osservazione 69.Sia dimV = n. Se v1, . . . , vk sono linearmente indipendenti allora ∃vk+1, . . . , vn ∈ V tali che{v1, . . . , vk, vk+1, . . . , vn} sono una base di V .

Dimostrazione. Supponiamo di conoscere {w1, . . . , wn} base di V . Dunque {v1, . . . , vk, w1, . . . , wn}generano V . Utilizziamo l’algoritmo di estrazione di una base.

1. v1 e indipendente per ipotesi;

Page 39: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

5.2. PROPRIETA DELLE BASI 39

2. v1, v2 sono indipendenti visto che e un sottoinsieme di un insieme indipendente ;

3. Continuo il ragionamento fino a vk

4. In seguito si esaminano i vettori w1, . . . , wn e si scelgono (n − k) vettori linearmenteindipendenti wjk+1, . . . , wjn per il completamento a base.

Proposizione 5.2.6. V sp. vettoriale finitamente generato. Allora ogni sottospazio W di Ve finitamente generato e dimW ≤ dimV . Inoltre W = V ⇔ dimW = dimV .

Dimostrazione. Devo far vedere inizialmente che W e finitamente generato. Se dei vettoridi W sono linearmente indipendenti quei vettori sono linearmente indipendenti anche in V. Sia dimV = n. Se W = {0} allora la tesi e vera visto che W e finitamente generato edim{0} = 0 ≤ dimV = n ⇒ 0 ≤ n che e sempre vero ∀n. Supponiamo quindi W 6= {0}. Allora ∃w1 ∈ W,w1 6= 0. Se W = Span{w1} allora dimW = 1. Resta da dimostrare chedimV ≥ dimW = 1 ma questo e ovvio perche w1 e linearmente indipendente in V ⇒ dimV ≥1. Se invece W 6= Span(w1) , ∃w2 ∈W−Spanw1. Allora w1, w2 sono linearmente indipendenti(in W e in V ). Ho quindi trovato 2 vettori linearmente indipendenti : se W = Span{w1, w2}allora dimW = 2 e dimV ≥ 2 , altrimenti continuo. Dopo al piu n passi il procedimentotermina altrimenti troverei (n + 1) vettori linearmente indipendenti in V , che e assurdo.Rimane da dimostrare che W = V ⇔ dimW = dimV . Supponiamo che dimW = dimV = n.Quindi posso prendere {w1, . . . , wn} base di W . w1, . . . wn sono indipendenti in W e quindianche in V . Dato che sono n vettori indipendenti in V , sono anche una base di V . Dunque

V = Span{w1, . . . , wn} = W

Proposizione 5.2.7 (Formula di Grassmann). U,W sottospazi vettoriali di dimensione finitadi V . Allora

dim(U +W ) = dimU + dimW − dim(U ∩W ) (5.8)

Dimostrazione. Sia dimU = h , dimW = k , dim(U ∩W ) = s. Sia {z1, . . . , zs} una base diU ∩W . Utilizzo l’algoritmo di completamento a base : ∃u1, . . . , uh−s ∈ U,∃w1, . . . , wk−s ∈Wtali che

{z1, . . . , zs, u1, . . . , uh−s} e base di U

{z1, . . . , zs, w1, . . . , wk−s} e base diW

Per provare il teorema basta provare che {z1, . . . , zs, u1, . . . , uh−s, w1, . . . , wk−s} e una base diU +W . Infatti avrei che dim(U +W ) = h+ k− s e visto che questi vettori sono una base perU +W allora seguirebbe la tesi. Passiamo quindi a dimostrare che

Sono generatori : Ogni vettore del sottospazio U + W si scrive, per definizione di somma, come u + w dove u ∈ U,w ∈ W . Allora u = Span(u1, . . . , uh−s, z1, . . . , zs), w =Span(w1, . . . , wk−s, z1, . . . , zs)⇒ u+ w = Span(u1, . . . , uh−s, w1, . . . , wk−s, z1, . . . , zs).

Page 40: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

40 CAPITOLO 5. BASI E DIMENSIONE

Sono linearmente indipendenti : Sia

a1z1 + . . .+ aszs︸ ︷︷ ︸z

+ b1u1 + . . .+ bh−suh−s︸ ︷︷ ︸u

+ c1w1 + . . .+ ck−swk−s︸ ︷︷ ︸w

= 0

dunque z + u + w = 0 ⇒ z + u = −w. Si noti che z ∈ U ∩ W , u ∈ U , w ∈ W. Visto che deve valere l’uguaglianza deve valere −w ∈ U ∩W . Posso quindi scriverew = α1z1 + . . .+ αszs , per cui ho

a1z1 + . . .+ aszs + b1u1 + . . .+ bh−suh−s + α1z1 + . . .+ αszs = 0

Questa e una combinazione lineare dei vettori della lista {z1, . . . , zs, u1, . . . , uh−s} chesappiamo essere una base di U dunque vettori linearmente indipendenti :

b1 = . . . = bh−s = 0

Dunque la combinazione lineare iniziale si puo scrivere come

a1z1 + . . .+ aszs + c1w1 + . . .+ ck−swk−s = 0

che e una combinazione lineare nulla della lista {z1, . . . , zs, w1, . . . , wk−s} che e una base, quindi a1 = . . . = as = c1 = . . . = ck−s = 0.

Page 41: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 6

Basi e applicazioni lineari

Proposizione 6.0.8. Sia f : V →W lineare.

1. Se v1, . . . , vm sono linearmente indipendenti e f e iniettiva allora f(v1), . . . , f(vm) sonolinearmente indipendenti.

2. Se v1, . . . , vm generano V , allora f(v1), . . . , f(vm) generano Immf .

Dimostrazione. 1. Sia a1f(v1) + . . .+ amf(vm) = 0⇒ a1v1 + . . .+ amvm ∈ ker f = {0} ⇒a1 = . . . = am = 0 per la lineare indipendenza.

2. Devo mostrare che ogni vettore dell’immagine puo essere scritto come combinazionelineare dei f(v1), . . . , f(vm). Sia y = f(x) ∈ Immf, x ∈ V . Dunque x = a1v1+ . . .+anvncon a1, . . . , an ∈ K. Dunque

y = f(x) = f

(m∑i=1

aivi

)=

m∑i=1

aif(vi) (6.1)

Corollario 6.0.9. Se f : V → W e isomorfismo , f trasforma ogni base di V in una base diW .

Teorema 6.0.10 (Formula delle dimensioni). V spazio vettoriale finitamente generato. f :V →W lineare. Allora

dimV = dim ker f + dim Immf (6.2)

Dimostrazione. Sia dimV = n , dim ker f = k.Sia {v1, . . . , vk} una base di ker f . La completo a base di V, {v1, . . . , vk, . . . , vn}. Per le propri-eta delle applicazioni lineari si ha che f(v1), . . . , f(vn) generano Immf , ossia f(vk+1), . . . , f(vn)generano Immf . Dimostraimo che f(vk+1), . . . , f(vn) sono anche linearmente indipendenti.Sia ak+1f(vk+1)+ . . .+anf(vn) = 0⇒ f(ak+1vk+1 + . . .+anvn) = 0⇒

∑ni=k+1 aivi ∈ ker f ⇒

∃a1, . . . , ak ∈ K tali che

n∑i=k+1

aivi = a1v1 + . . .+ akvk ⇒ a1v1 + . . .+ akvk − ak+1vk+1 − . . .− anvn = 0

che e una combinazione lineare nulla dei vettori v1, . . . , vk, . . . , vn ⇒ ai = 0, ∀i = 1, . . . , n. Dunque {f(vk+1), . . . , f(vn)} e una base di Immf cioe dim Immf = n − k = dimV −dim ker f .

41

Page 42: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

42 CAPITOLO 6. BASI E APPLICAZIONI LINEARI

Osservazione 70.Abbiamo provato che f |Span{vk+1,...,vn} e iniettiva.

Corollario 6.0.11. f : V → W lineare . Se dimV = dimW allora f e iniettiva ⇔ f esurgettiva. Dunque se f : V → V , f iniettiva ⇔ f surgettiva.

Dimostrazione. f e iniettiva⇔ ker f = {0} ⇔ dimV = dim Immf ⇔ dimW = dim Immf ⇔Immf = W ⇔ f e surgettiva.

Corollario 6.0.12. V e W sono isomorfi ⇔ dimV = dimW .

Dimostrazione. (⇐) Se dimV = dimW = n allora1 V ' Kn 'W .(⇒) Se ∃f : V →W isomorfismo basta usare la formula delle dimensioni.

Osservazione 71.Sia f : V →W isomorfismo. L’applicazione inversa f−1 : W → V tale che f(x) = y e lineare.Infatti

� ∀y1, y2 ∈W siano x1 = f−1(y1) , x2 = f−1(y2) , cioe f(x1) = y1 , f(x2) = y2. Dunque

f−1(y1 + y2) = f−1(f(x1) + f(x2)) = f−1(f(x1 + x2)) = x1 + x2 = f−1(y1) + f−1(y2)

come volevasi dimostrare.

� Sia λ ∈ K, y ∈ W . Dobbiamo dimostrare che f−1(λy) = λf−1(y). Sia x = f−1(y) , cioef(x) = y . Allora

f−1(λy) = f−1(λf(x)) = f−1(f(λx)) = λx = λf−1(y)

Definizione 6.1 (Gruppo lineare). Si definisce

GL(V ) = {f ∈ hom(V,W ) : f isomorfismo} (6.3)

Osservazione 72.Considero la composizione ◦ su GL(V ) , ovvero l’operazione definita da ◦ : GL(V )×GL(V )→GL(V ) che agisce su (f, g)→ g ◦ f . Si noti che

1. idV e un isomorfismo ⇒ idV ∈ GL(V )

2. ∀f, g, h ∈ GL(V )⇒ h ◦ (g ◦ f) = (h ◦ g) ◦ f

3. ∀f ∈ GL(V ) , ∃f−1 ∈ GL(V ) tale che f ◦ f−1 = f−1 ◦ f = idV

Osservazione 73.∀f ∈ GL(V ) , f ◦ idV = idV ◦ f = f . La proprieta (3) dell’osservazione precedente diventaquindi la proprieta di esistenza dell’elemento inverso per GL(V ).

Definizione 6.2 (Gruppo). Sia G 6= ∅ un insieme con l’operazione ∗ : G×G→ G. (G, ∗) sidice gruppo se

1. ∀g1, g2, g3 ∈ G si ha g1 ∗ (g2 ∗ g3) = (g1 ∗ g2) ∗ g3.

2. ∃e ∈ G tale che ∀g ∈ G, g ∗ e = e ∗ g = g.

1Il simbolo ' sta per isomorfismo.

Page 43: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

43

3. ∀g ∈ G, ∃g−1 ∈ G tale che g ∗ g−1 = g−1 ∗ g = e

4. ∀g, h ∈ G, g ∗ h = h ∗ g

La proprieta (4) e aggiuntiva : se questa viene rispettata si parla di gruppo Abeliano. Dunque(GL(V ), ◦) e un gruppo, detto gruppo lineare.

Definizione 6.3 (Isomorfia). Siano V,WK-spazi vettoriali finitamente generati. Dico cheVRW ⇔ V e W sono isomorfi. Si noti che R e una relazione di equivalenza! Si puo quindidefinire una classe di equivalenza

[V ] = {W,K-spazi vettoriali isomorfi a V }

Proposizione 6.0.13. VRW ⇔ dimV = dimW . Ovvero la dimensione e un invariante perR.

Dimostrazione. (⇒) : Se ϕ : V →W isomorfismo allora dimV = dim kerϕ︸ ︷︷ ︸0

+ dim Immϕ︸ ︷︷ ︸dimW

.

(⇐) : Viceversa se dimV = dimW = n allora V ' Kn 'W ⇒ VRW .

Teorema 6.0.14. V,W , K-spazi vettoriali , dimV = n.Sia {v1, . . . , vn} base di V e w1, . . . , wn vettori di W . Allora esiste una ed una sola f : V →Wlineare tale che f(v1) = w1, . . . , f(vn) = wn.

Dimostrazione. Si deve dimostrare l’esistenza e l’unicita della f .

Esistenza : Sia v ∈ V . Allora esistono unici a1, . . . , an ∈ K tali che v = a1v1 + . . . + anvn.Poniamo quindi f(v) = a1w1+. . .+anwn. Devo controllare che questa definizione sia benposta e che la funzione sia lineare. Si ha f(vi) = wi,∀i = 1, . . . , n quindi l’applicazionee ben definita. Inoltre f e lineare ,infatti se v = a1v1 + . . .+ anvn, z = b1v1 + . . .+ bnvnallora

v + z = (a1 + b1)v1 + . . .+ (an + bn)vn ⇒ f(v + z) = (a1 + b1)w1 + . . .+ (an + bn)wn

ovverof(v + z) = a1w1 + . . .+ anwn︸ ︷︷ ︸

f(v)

+ b1w1 + . . .+ bnwn︸ ︷︷ ︸f(z)

= f(v) + f(z)

Analogamente si prova che f(λv) = λf(v), ∀λ ∈ K, ∀v ∈ V .

Unicita : Se f e lineare e f(vi) = wi allora

f(v) = f

(n∑i=1

aivi

)=

n∑i=1

aif(vi) =n∑i=1

aiwi = a1w1 + . . .+ anwn (6.4)

Ovvero questo e l’unico modo di scrivere l’applicazione di cui si e dimostrata l’esistenza.In altre parole, provando a definire questa applicazione in un altro modo si nota chele due definizioni devono coincidere per le proprieta dell’applicazione stessa, dunquel’applicazione e unica.

Proposizione 6.0.15. f : V →W ; g : W → Z lineari. Allora

Page 44: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

44 CAPITOLO 6. BASI E APPLICAZIONI LINEARI

1. dim Imm(g ◦ f) ≤ min{dim Immf,dim Immg}

2. Se f e isomorfismo allora dim Imm(g ◦ f) = dim Immg.

3. Se g e isomorfismo allora dim Imm(g ◦ f) = dim Immf .

Dimostrazione. Dividiamo le tre dimostrazioni

1. Scriviamo l’uguaglianza Imm(g ◦ f) = Imm (g|Immf ) per l’osservazione 8. Si trattaquindi di calcolare la dimensione dell’immagine associata ad una sola applicazione , chee lineare. Applichiamo quindi la formula delle dimensioni

dim(Imm(g ◦ f)) = dim Imm(g|Immf ) = dim(Immf)− dim ker(g|Immf )︸ ︷︷ ︸≥0

≤ dim(Immf)

Inoltre Imm(g ◦ f) ⊂ Immg ⇒ dim Imm(g ◦ f) ≤ dim Immg.

2. Se f e isomorfismo allora f(V ) = W quindi Imm(g ◦ f) = Immg.

3. Se g e isomorfismo allora ker g = {0} quindi dim Imm(g ◦ f) = dim Immf .

Page 45: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 7

Rango

7.1 Rango

Definizione 7.1 (Rango). Sia f : V →W lineare. Poniamo rk(f) = dim Immf , rango di f .In particolare se A ∈ M(p, n,K), e dunque A : Kn → Kp , x → Ax , rk(A) = dim ImmA =dim C(A).

Vogliamo poter calcolare il rango di una applicazione f e trovare una base dell’immaginedi f . Cominciamo dal caso , relativamente piu semplice, delle matrici. Sia A ∈ M(p, n,K) eponiamo R(A) = Span(A1, . . . , Ap).

Proposizione 7.1.1. Sia S una ridotta a scalini di A. Allora

1. R(A) = R(S).

2. dim C(A) = dim C(S).

Dimostrazione. 1. Dato che S ha come righe le combinazioni lineari delle righe di A alloragli spazi generati dalle due matrici sono uguali.

2. I sistemi Ax = 0 e Sx = 0 sono equivalenti , quindi kerA = kerS. Per la formula delledimensioni allora dim ImmA = dim ImmS ⇒ rk(A) = rk(S).

Proposizione 7.1.2. Sia S una matrice a scalini con r pivots nelle colonne Sj1 , . . . , Sjr .Allora

1. {S1, . . . , Sr} e una base di R(S).

2. {Sj1 , . . . , Sjr} e una base di C(S) e dunque rkS = r.

Dimostrazione. 1. S1, . . . , Sr ovviamente generano R(S). Inoltre S1, . . . , Sr sono linear-mente indipendenti : prendendo una combinazione lineare a1S

1 + . . . + arSr = 0 dalla

prima somma si ottiene un vettore. Consideriamo l’ultima componente non nulla di talevettore ( che otteniamo dalla sola colonna Sr ) : arpr. Affinche sia uguale a 0 , poichepr 6= 0 per ipotesi si ottiene ar = 0. Si itera il procedimento, considerando che oral’ultima componente non nulla e data dalla colonna Sr−1.

45

Page 46: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

46 CAPITOLO 7. RANGO

2. La dimostrazione che Sj1 , . . . , Sjr sono linearmente indipendenti e analoga al caso prece-dente : bisogna solo ragionare per colonne invece che per righe. Per vedere che Sj1 , . . . , Sjr

generano C(S) = Span{S1, . . . , Sr} basta far vedere che ∀i 6= j1, . . . , jr ( ovvero per lecolonne non selezionate ) Si ∈ Span(Sj1 , . . . , Sjr) , ovvero un elemento fuori dalla listadei generatori prescelti si puo scrivere come combinazione lineare degli elementi stessi.Voglio quindi mostrare che esistono α1, . . . , αr ∈ K tali che Si = α1S

j1 + . . . + αrSjr ,

cioe che il sistema (Sj1∣∣∣∣ . . . ∣∣∣∣Sjr)

α1...αr

=

Si (7.1)

ha soluzione. Dato che il sistema e gia ridotto a scalini si nota subito che i pivots sonor quindi basta cercare i casi per i quali , aggiungendo la colonna dei termini noti ,Si,non cambiano il numero di pivots. Perche questo succeda occorre che dalla posizione(r + 1)-esima di Si gli elementi siano nulli. Ma questo e sicuramente verificato percheSi e stata ricavata dalla matrice completa del sistema , quindi sotto la posizione r hatutti elementi nulli.

Corollario 7.1.3. Il numero di pivots di una ridotta a scalini S di A non dipende dalleoperazioni elementari per riga eseguite.

Dimostrazione. numero di pivots= rk(S) = rk(A).

Corollario 7.1.4. Per ogni matrice A , dimR(A) = dim C(A) ovvero il rango per righe eequivalente al rango per colonne.

Dimostrazione. Sia S una ridotta a scala di A con r pivots . Allora

dimR(A) = dimR(S) = r = dim C(S) = dim C(A)

Corollario 7.1.5. Per ogni matrice A , rk( tA) = rk(A)

Dimostrazione.

rk( tA) = dim C( tA) = dimR(A) = dim C(A) = rk(A)

Teorema 7.1.6 (di Rouche-Capelli). Il sistema lineare Ax = B e risolubile ⇔ rk(A) =rk(A|B).

Dimostrazione. Per l’algoritmo di Gauss Ax = B e equivalente a Sx = T con (S|T ) scalini ede risolubile ⇔ rk(S) = rk(S|T ). Ma rk(A) = rk(S) e rk(A|B) = rk(S|T ).

Page 47: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

7.2. COME TROVARE UNA BASE DELLO SPAZIO DELLE SOLUZIONI DI AX = 0 47

7.2 Come trovare una base dello spazio delle soluzioni di Ax =0

Sia A ∈ M(p, n,K). Sappiamo che S0 = {x ∈ Kn : Ax = 0} = kerA. Sia r = rkA , questosara il numero di pivots di una qualsiasi ridotta a scalini di A. Dalla formula delle dimensioniottengo che

dimS0 = dim kerA = n− dim ImmA = n− r

Per calcolare una base di S0 basta trovare n− r vettori che generano lo spazio S0. Sia S unaridotta a scala di A : S ha r pivots. Supponiamo che questi stiano nelle colonne S1, . . . , Sr

. Allora il sistema Ax = 0 e equivalente a Sx = 0 : in seguito si ricavano le variabilicorrispondenti alle colonne contenenti i pivots in funzione delle altre :

s11x1 + . . .+ s1rxr = −s1,r+1xr+1 − . . .− s1nxns22x2 + . . .+ s2rxr = −s2,r+1xr+1 − . . .− s2nxn...

......

...

srrxr = . . .

(7.2)

con sij 6= 0 per i = j. Se fisso i valori dei parametri xr+1, . . . , xn la colonna dei termini notidiventa un vettore numerico. Dunque quando ricavo x1, . . . , xr trovo una soluzione numericaed unica. La soluzione sara del tipo

Y r+1 = (. . . , 1, 0, . . . , 0)

Y r+2 = (. . . , 0, 1, 0, . . . , 0)

......

...

Y n = (. . . , 0, 0, . . . , 1)

(7.3)

Questi vettori sono ovviamente linearmente indipendenti e sono n − r dunque formano unabase di S0.

7.3 Matrici invertibili e gruppo lineare

Abbiamo gia detto che M(n,K) e un anello ma non un campo.

Definizione 7.2 (Matrice invertibile). A ∈M(n,K) si dice invertibile se ∃B ∈M(n,K) taleche AB = BA = I dove I e l’elemento neutro nell’anello per il prodotto. Se B esiste e unica eviene detta inversa di A, B = A−1.

Osservazione 74. (0 10 0

)(7.4)

non e invertibile perche (0 10 0

)(x yz t

)6=(

1 00 1

), ∀x, y, z, t (7.5)

Page 48: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

48 CAPITOLO 7. RANGO

Definizione 7.3 (Gruppo lineare). Denotiamo con

GL(n,K) = {A ∈M(n,K) : A e invertibile}

Osservazione 75.SeA,B ∈ GL(n,K)⇒ AB ∈ GL(n,K). InfattiA,B ∈ GL(n,K)⇒ ∃A−1, B−1 ⇒ (AB)(B−1A−1) =A(BB−1)A−1 = AIA−1 = I e dunque (AB)−1 = B−1A−1

Osservazione 76.A ∈ GL(n)⇒ A−1 e invertibile e (A−1)−1 = A. Infatti (A−1)A = AA−1 = I.Osservazione 77.(GL(n,K), ·) e un gruppo , detto gruppo lineare, infatti

� vale la proprieta associativa per il prodotto

� I e l’elemento neutro e∈ GL(n,K) . I−1 = I.

� Ogni elemento dell’insieme possiede un inverso per quanto detto prima.

Osservazione 78.A ∈ GL(n) , A−1A = I posso interpretarla in termini di applicazioni lineari :

Kn A−→ Kn A−1

−−→ Kn

Questo e equivalente a dire che A e bigettiva , ossia e un isomorfismo. Le matrici invertibilisono dunque isomorfismi in Kn.

Proposizione 7.3.1. Sono fatti equivalenti

1. A invertibile⇒ A ∈ GL(n,K)

2. A isomorfismo

3. dim ImmA = n = rkA.

Osservazione 79.v1, . . . , vk ∈ Rn. La dimensione di Span(v1, . . . , vk) si puo calcolare utilizzando gli ultimimetodi studiati. Costruisco quindi la matrice

A =(v1

∣∣∣ . . . ∣∣∣vk) (7.6)

Poiche Span(v1, . . . , vk) = C(A) si tratta di calcolare rkA.

Osservazione 80.Se S e una ridotta a scalini di A allora dim C(A) = dim C(S) ma C(A) 6= C(S) in generale. Pertrovare una base non conviene quindi ridurre a scalini.

Definizione 7.4 (Matrice elementare). Si chiama matrice elementare ogni matrice che si ot-tiene dalla matrice identita con un’operazione elementare per righe. I tipi di matrici elementarisono principalmente 3 :

1. Eij ottenuta scambiando Ii, Ij

2. Ei(α) ottenuta moltiplicando Ii per α 6= 0.

Page 49: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

7.3. MATRICI INVERTIBILI E GRUPPO LINEARE 49

3. Eij(α) sommando a Ii α volte Ij .

Osservazione 81.Se B e la matrice ottenuta da A con una operazione elementare per riga , allora B coincidecon la matrice ottenuta moltiplicando A a sinistra per la matric elementare corrispondente aquella operazione elementare.

Osservazione 82.

(Eij)−1 = Eij ; (Ei(α))−1 = Ei(α

−1) ; (Eij(α))−1 = Eij(−α)

Osservazione 83.f : V → W isomorfismo , B = {v1, . . . , vn} base di V . Dunque f(v1), . . . , f(vn) sono linear-mente indipendenti e sono generatori dell’immagine ⇒ {f(v1), . . . , f(vn)} e una base di W .Dunque un isomorfismo trasforma basi in basi.

Osservazione 84.L’algoritmo di Gauss puo essere rivisto con questi ultimi risultati. In effetti questo puo essereinterpretato come una moltiplicazione a sinistra per un numero n di matrici elementari.

A E1A E2E1A . . . En . . . E1︸ ︷︷ ︸M

A = S

M e invertibile perche e il prodotto di matrici invertibili. Dunque se M e invertibile allora eun isomorfismo da Kp a Kp. Dato che MA = S allora

rkS = dim ImmS = dim Imm(MA) = dim ImmA = rkA

Inoltre ImmS = M(ImmA) . Ma noi conosciamo una base di ImmS che sono le colonnecontenenti i pivots della matrice S ⇒ {Sj1 , . . . , Sjr} e una base di ImmS. Dato che Me un isomorfismo trasforma basi in basi , una base di ImmA e data da M−1 ImmS ⇒{M−1(Sj1), . . . ,M−1(Sjr)} e una base di ImmA. Ma osservando la moltiplicazione M−1Ssi nota che M−1(Sj1) = Aj1 dunque una base di ImmA e data da

{M−1(Sj1) = Aj1 , . . . ,M−1(Sjr) = Ajr}

Proposizione 7.3.2. Se {Sj1 , . . . , Sjr} sono le colonne che contengono i pivots di una ridottaa scala di A ,allora {Aj1 , . . . , Ajr} sono una base di ImmA.

Osservazione 85.Sia v1, . . . , vm un insieme indipendente di Kn. Per completarlo a base costruiscoA =

(v1∣∣ . . . ∣∣vm∣∣e1∣∣ . . . ∣∣en).

Riducendo a scalini trovero n pivots :i primi m nelle prime m colonne. Prendo le colonne checontengono i pivots.

Osservazione 86.Dati dei vettori v1, . . . , vk ∈ Kn trovare una base dello spazio che essi generano. Sia

A =(v1

∣∣∣ . . . ∣∣∣vk)allora Span(v1, . . . , vk) = C(A). Riduciamo a scalini A , trovando la matrice S. Se Sj1 , . . . , Sjr

sono le colonne contenenti i pivots , allora {vj1 , . . . , vjr} sono una base di Span(v1, . . . , vk).

Page 50: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

50 CAPITOLO 7. RANGO

7.4 Calcolo dell’inversa

Sia A ∈ M(n,K). So che A e invertibile⇔ rk(A) = n. Cerchiamo prima un’inversa destra,ovvero una matrice x ∈M(n) tale che Ax = I , ossia

A(x1∣∣∣ . . . ∣∣∣xn) = I⇒

(Ax1

∣∣∣Ax2∣∣∣ . . . ∣∣∣Axn) =(I1∣∣∣ . . . ∣∣∣In) (7.7)

Per imporre l’uguaglianza tra questi matrici bisogna imporreAx1 = I1...

...

Axn = In(7.8)

che sono sistemi lineari n × n. Si noti , pero , che la matrice dei coefficienti e A , per ognisistema ; le uniche cose che cambiano sono la colonna delle incognite e la colonna dei termininoti. Dunque le operazioni elementari necessarie per trasformare la matrice A in una matricea scalini sono le stesse per ogni sistema visto che la matrice A e sempre la stessa. Posso quindi

ridurre a scalini direttamente la matrice completa del sistema(A∣∣∣I) . Dopo aver ridotto a

scala A si potra controllare se i pivots sono n , cioe se A e invertibile : ma si puo fare anchedi piu! In effetti si puo continuare la riduzione a scala applicando l’algoritmo di Gauss alcontrario in modo da ottenere una matrice diagonale. In seguito si puo moltiplicare ognipivots della matrice A diagonalizzata per il suo inverso (operazione lecita dato che ci troviamo

in un anello ) ottenendo l’identita da A. Si otterra quindi(I∣∣∣B). Le colonne di B cosı

ottenute rappresentano quindi le soluzioni x1, . . . , xn visto che Ix1 = x1, . . . , Ixn = xn ⇒ B =(x1, . . . , xn) =inversa destra. Resta da vedere se questa inversa coincide anche con l’inversasinistra. Poiche sono passato da (A|I) a (I|B) con operazioni elementari per riga , allora(

I∣∣∣B) = M

(A∣∣∣I) =

(MA

∣∣∣M)Se deve valere l’uguaglianza tra due matrici allora MA = I ; M = B e quindi BA = I.Vogliamo ora generalizzare questo metodo a spazi qualsiasi, ad esempio lo spazio dei polinomi.

7.5 Rappresentazione matriciale di una applicazione lineare

Sia f : V →W lineare . Siano inoltre S = {v1, . . . , vn} base di V e R = {w1, . . . , wm} base diW . La matrice di M(m,n,K)

A ≡ m(f)S,R =

([f(v1)]R

∣∣∣∣∣ . . .∣∣∣∣∣[f(vn)]R

)(7.9)

si chiama matrice associata ad f rispetto alla base S ed R. Vediamo perche questa definizionerisulta utile. Sia v ∈ V ⇒ v = x1v1 + . . . + xnvn ⇒ f(v) = x1f(v1) + . . . + xnf(vn) =x1(a11w1 + . . .+ am1wm) + . . .+ xn(a1nw1 + . . .+ amnwm) = (a11x1 + . . .+ a1nxn)w1 + . . .+(am1x1 + . . .+ amnxn)wm ovvero

[f(v)]R =

a11x1 + . . .+ a1nxn...

am1x1 + . . .+ amnxn

= A

x1...xn

= A[v]S (7.10)

Page 51: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

7.5. RAPPRESENTAZIONE MATRICIALE DI UNA APPLICAZIONE LINEARE 51

Ovvero

[f(v)]R = A[v]S

Dunque A e univocamente fissata da questa relazione.

Teorema 7.5.1. dimV = n, dimW = m. Sia S = {v1, . . . , vn} base di V e R base diW . Allora l’applicazione mS,R : hom(V,W ) → M(m,n,K) definita da f → m(f)S,R e unisomorfismo.

Dimostrazione. � Si verifica facilmente che e lineare, infatti bisogna far vedere che ∀f, g ∈hom(V,W ) allora m(f + g)S,R = m(f)S,R +m(g)S,R

� mS,R e iniettiva : infatti se f ∈ ker(mS,R) , ossia mS,R(f) = 0 , allora f(v1) = . . . =f(vn) = 0 ⇒ f(v) = 0 allora mS,R e iniettiva perche l’unica applicazione che sta nelnucleo e l’applicazione nulla.

� mS,R e surgettiva : ∀A ∈M(m,n), ∃!f : V →W lineare tale che [f(v1)]R = A1, . . . , [f(vn)]R =An. Allora m(f)S,R = A.

Corollario 7.5.2.

dim hom(V,W ) = n ·m

Dimostrazione. Siccome e un isomorfismo allora dim ker(mS,R) = 0 ⇒ dim hom(V,W ) =dim(M(m,n)) = m · n.

Proposizione 7.5.3 (Matrice della composizione).

USf−→ VT

g−→WR

Se m(f)S,T = A e m(g)T ,R = B allora m(g ◦ f)S,R = BA.

Dimostrazione. ∀u ∈ U si ha [(g ◦ f)(u)]R = [g(f(u))]R = B[f(u)]T = BA[u]S

Proposizione 7.5.4. f : V →W lineare , A = m(f)S,T . Allora rkf = rkA.

Dimostrazione. Sia S = {v1, . . . , vn}. Allora Immf = Span(f(v1), . . . , f(vn)). Inoltre [f(v1)]T =A1, . . . , [f(vn)]T = An. Se ϕ = [·]T : W → Km e l’isomorfismo indotto dalla base T , alloraϕ(Immf) = C(A) = ImmA per cui dim Immf = dim ImmA, ovvero rkf = rkA.

Corollario 7.5.5. Se {Aj1 , . . . , Ajr} sono una base di ImmA , allora {f(vj1), . . . , f(vjr)} sonouna base di Immf .

Corollario 7.5.6. f : V → W lineare , dimV = dimW = n. Allora f e un isomorfismo⇔A = m(f)S,T e invertibile⇔ rk(A) = n.

Dimostrazione. Si noti che f e isomorfismo⇔ rk(f) = n⇔ rk(A) = n⇔ A e invertibile.

Page 52: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

52 CAPITOLO 7. RANGO

7.6 Matrice del cambiamento di base

Prendiamo VSid−→N

VT . Allora ∀v ∈ V ⇒ [Iv]T = [v]T = N [v]S quindi N e la matrice che lega

le coordinate di V rispetto a basi diverse. N e la matrice del cambiamento di base.

Osservazione 87.Se N e la matrice del cambiamento di base da S a T , la matrice del cambiamento di base aT a S e N−1. Infatti

VSid−→N

VTid−→M

VS , MN = I⇒M = N−1

Osservazione 88.Prendiamo VS

f−→A

WT e VS′f−→A′

WT ′ . Ci chiediamo che legame sussiste tra A ed A′.

Consideriamo il diagramma commutativo

VSf−−−−→A

WT

N

xid M

yid

VS′f−−−−→A′

WT ′

(7.11)

alloraA′ = MAN

.

Definizione 7.5 (SD-equivalenza). Siano A,B ∈ M(p, n). Diciamo che A e B sono SD-equivalenti ( e scriviamo A ≡ B)⇔ ∃M ∈ GL(p),∃N ∈ GL(n) tali che B = MAN .

Osservazione 89.

1. ≡ e una relazione di equivalenza.

2. Se A ≡ B ⇒ rk(A) = rk(B).

3. Interpretando M ed N come matrici di cambiamento di base , A ≡ B ⇔ A,B rappre-sentano la stessa applicazione rispetto a basi diverse.

Proposizione 7.6.1. f : V →W lineare , dimV = n , dimW = p. Allora esiste una base Sdi V ed esiste una base T di W tali che

mS,T (f) =

Ir 0

0 0

(7.12)

dove r = dim Immf .

Dimostrazione. dim ker f = n−r. Sia {vr+1, . . . , vn} una base di ker f . Sia S = {v1, . . . , vr, vr+1, . . . , vn}una base di V che contiene i vettori {vr+1, . . . , vn}. Data la forma della matrice associata adf il primo vettore della base sara

f(v1) =

10...0

Page 53: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

7.7. ULTERIORE CARATTERIZZAZIONE DEL RANGO 53

Quindi {f(v1), . . . , f(vr)} sono generatori di Immf . Inoltre sono una base perche la lineareindipendenza e garantita dal fatto che dim Immf = r. Posso completare questo insieme aT = {f(v1), . . . , f(vr), wr+1, . . . , wp} base di W . Allora S, T verificano la tesi.

Corollario 7.6.2. Se rkA = r allora

A ≡

Ir 0

0 0

(7.13)

Teorema 7.6.3. A ≡ B ⇔ rkA = rkB ovvero il rango e un invariante completo per SD-equivalenza.

Dimostrazione. (⇒) : gia visto(⇐) : Se rk(A) = rk(B) = r allora

A ≡

Ir 0

0 0

≡ B

7.7 Ulteriore caratterizzazione del rango

Se A ∈ M(p, n) denotiamo con (Ai1 , . . . , Aim |Aj1 , . . . , Ajq) la sottomatrice ottenuta da Ascegliendo gli elementi sulle righe Ai1 , . . . , Aim e nelle colonne Aj1 , . . . , Ajq .

Definizione 7.6 (Minori). Le sottomatrici quadrate sono dette minori.

Proposizione 7.7.1. Sia A ∈M(p, n) e sia B un minore di A di ordine q , invertibile. Allorale righe ( e le colonne ) che concorrono a formare B, ovvero le righe della matrice originariada cui si estratto il minore , sono linearmente indipendenti.

Dimostrazione. Sia B = (Ai1 , . . . , Aiq |Aj1 , . . . , Ajq) . Bisogna mostrare che Ai1 , . . . , Aiq sonolinearmente indipendenti. α1Ai1 + . . .+αqAiq = 0 , anche α1B1 + . . .+αqBq = 0. Ma le righedi B sono linearmente indipendenti perche rk(B) = q. Dunque α1 = . . . = αq = 0.

Teorema 7.7.2. Il rango di una matrice e uguale al massimo degli ordini dei suoi minoriinvertibili.

Dimostrazione. Sia A ∈M(p, n). Sia ρ il massimo degli ordini dei minori invertibili di A. Siar = rk(A). Vogliamo provare che ρ = r. Sia B un minore di A di ordine ρ invertibile. Allora,per la proposizione (7.7.1) , esistono in A ρ righe indipendenti , quindi rk(A) ≥ ρ ossia r ≥ ρ.Siano Ai1 , . . . , Air , r righe indipendenti di A. Allora la sottomatrice r × n data da B =(Ai1 , . . . , Air |A1, . . . , An) ha rango (per righe) r. Ma allora anche il rango per colonne e r ,ovvero esistono in B , r colonne Bj1 , . . . , Bjr linearmente indipendenti. Allora la sottoma-trice (B1, . . . , Br|Bj1 , . . . , Bjr) ha rango r visto che Bj1 , . . . , Bjr sono linearmente indipen-denti. Questa matrice e un minore di A ed ha rango r, dunque ρ ≥ r. Quindi deve valerecontemporaneamente ρ ≥ r e ρ ≤ r ovvero ρ = r , come volevasi dimostrare.

Page 54: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

54 CAPITOLO 7. RANGO

Page 55: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 8

Determinante

8.1 Esistenza ed unicita del determinante

Teorema 8.1.1. ∀n ≥ 1, ∃! funzione D : M(n,K)→ K tale che

1. D e lineare in ogni riga , cioe ∀i = 1, . . . , n

D(A1, . . . , λB + µC, . . . , An) = λD(A1, . . . , B, . . . , An) + µD(A1, . . . , C, . . . , An)

2. Se A ha due righe uguali , D(A) = 0.

3. D(In) = 1.

Vediamo che nel caso n = 2 una funzione siffatta si puo definire semplicemente comeD : M(2, 2)→ K (

a11 a12a21 a22

)→ a11a22 − a12a21

Vediamo che sono verificate le tre proprieta

1. D e lineare nella prima riga ( e seconda riga ) , ovvero

D

(λB + µC

a21 a22

)= λD

(b1 b2a21 a22

)+ µD

(c1 c2a21 a22

)(8.1)

con B = (b1, b2) C = (c1, c2). Verifichiamo quindi la proprieta

D

(λb1 + µc1 λb2 + µc2

a21 a22

)=

= a22(λb1 + µc1)− a21(λb2 + µc2) = λ(b1a22 − a21b2) + µ(c1a22 − c2a21)

= λD

(b1 b2a21 a22

)+ µD

(c1 c2a21 a22

) (8.2)

2. D

(a ba b

)= ab− ba = 0

3. D

(1 00 1

)= 1

55

Page 56: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

56 CAPITOLO 8. DETERMINANTE

8.1.1 Dimostrazione del teorema (8.1.1)

Unicita Vogliamo verificare che se c’e una funzione che rispetta le proprieta enunciate nelteorema (8.1.1) allora essa soddisfa anche altre proprieta deducibili da queste tre , cheora elenchiamo.

1. Se A ha una riga nulla allora D(A) = 0.Dim: Se Ai = 0 allora A = (A1, . . . , 0 · B, . . . , An) dove B e una qualsiasi rigapossibile. Utilizzando ora la (1) del (8.1.1) segue la tesi

2. D(. . . , Ai, . . . , Aj , . . .) = −D(. . . , Aj , . . . , Ai, . . .) Dim: 0 = D(. . . , Ai+Aj , . . . , Ai+Aj , . . .) = D(. . . , Ai, . . . , Ai, . . .) +D(. . . , Ai, . . . , Aj , . . .) +D(. . . , Aj , . . . , Ai, . . .) +D(. . . , Aj , . . . , Aj , . . .) = D(. . . , Ai, . . . , Aj , . . .)+D(. . . , Aj , . . . , Ai, . . .) = 0 dove leuguaglianze derivano tutte dalle proprieta del teorema (8.1.1).

3. Se B e ottenuta da A sommando ad una riga una combinazione lineare delle altrerighe allora D(B) = D(A). Dim: Supponiamo che B1 = A1 +

∑ni=2 αiAi. Allora

D(B) = D(A1 +

n∑2

αiAi, A2, . . . , An) = D(A) +

n∑i=2

αiD(Ai, A2, . . . , An)

∀i in questa matrice ci sono due righe uguali dunque D(B) = D(A).

4. Se le righe di A sono linearmente dipendenti allora D(A) = 0. Dim: Esiste almenouna riga, ad esempio A1 , che si puo scrivere come

∑ni=2 αiAi. Allora

D(A) = D(

n∑2

αiAi, A2, . . . , An) =

n∑i=2

αiD(Ai, A2, . . . , An) = 0

5. Se A e diagonale con [A]ii = ai,∀i = 1, . . . , n allora D(A) = a1 · . . . · an. Dim:D(A) = D(a1(1, . . . , 0) + a2(0, 1, 0, . . . , 0) + . . .) = a1 · . . . · an ·D(In) = a1 · . . . · an.

Supponiamo che D sia una funzione con le proprieta del teorema (8.1.1) . Vediamo cheallora D e univocamente individuata e quindi che al massimo esiste una tale funzione.Sia S una matrice a scalini ottenuta da A attraverso operazioni del primo e del terzotipo. Abbiamo visto che le prime cambiano il segno di D mentre le seconde lo lascianoinalterato. Quindi

D(A) = (−1)mD(S)

dove m e il numero di scambi di riga eseguiti. Dimostriamo che quest’ultima formulasoddisfa le proprieta del teorema (8.1.1). Ci sono due casi

1. S ha una riga nulla, quindi D(S) = 0 e anche D(A) = 0.

2. S ha n pivots p1, . . . , pn . Con sole operazioni del terzo tipo per riga ( che nonalterano D ) riportiamo S alla forma diagonale su cui D vale p1 · . . . · pn . AlloraD(A) = (−1)mp1 · . . . pn.

Quindi la funzione assume solo dei valori fissati ed e quindi univocamente determinata: abbiamo provato l’unicita di D.

Corollario 8.1.2. Se D e una funzione che verifica le proprieta del teorema (8.1.1)allora D(A) = 0⇔ le righe di A sono linearmente dipendenti.

Page 57: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

8.2. PROPRIETA AGGIUNTIVE DEL DETERMINANTE 57

Dimostrazione. (⇐) : e stato gia provato(⇒) : Se le righe di A fossero indipendenti ogni ridotta a scalini di S avrebbe n pivotsquindi D(S) =

∏i pi 6= 0 e dunque D(A) 6= 0.

Esistenza Si consideri la funzione Dn : M(n,K)→ K definita da

� n = 1 : D1(a) = a.

� n = 2 : D2

(a bc d

)= ad− bc .

� n ≥ 2 :

Dn(A) =

n∑i=1

(−1)i+1[A]i1Dn−1(Ai1) (8.3)

dove Ai1 e la sottomatrice di A ottenuta da A cancellando la riga Ai e la colonnaA1.

E una funzione definita ricorsivamente. L’espressione Dn(A) e detto sviluppo di Laplacesecondo la prima colonna. Si dovrebbe ora verificare che la funzione cosı definita soddisfagli assioni del teorema (8.1.1).

8.2 Proprieta aggiuntive del determinante

Osservazione 90.Anche lo sviluppo di Laplace secondo una colonna Aj verifica le proprieta del teorema (8.1.1).Dato che la funzione e unica allora il determinante e uguale, ovvero lo sviluppo di Laplace suqualsiasi colonna e lo stesso in virtu dell’unicita .

Osservazione 91.In generale det(A + B) 6= det(A) + det(B) quindi det : M(n,K) → K non e lineare. Inoltredalla definizione segue det(λA) = λn det(A).

Teorema 8.2.1 (di Binet). ∀A,B ∈M(n,K)⇒ det(AB) = det(A) · det(B)

Dimostrazione. Dividiamo la dimostrazione in due casi:

� Se detB = 0 ⇒ rk(A · B) ≤ rk(B) < n e dunque A · B non e invertibile, ovverodet(AB) = 0.

� Se detB 6= 0 consideriamo la funzione f : M(n,K) → K definita da f(A) = det(AB)det(B) e

verifichiamo che questa soddisfa le proprieta del teorema (8.1.1) : questo ci garantirache e l’unica e che quindi e la funzione cercata , ovvero det(A).

1. f e lineare nelle righe, infatti se una riga di A e combinazione lineare di due righelo stesso vale anche per A · B e quindi basta sfruttare che det e lineare nelle righedi A ·B.

2. Se A ha due righe uguali , anche A ·B ce le ha e quindi det(AB) = 0.

3. f(I) = det(B)det(B) = 1.

Page 58: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

58 CAPITOLO 8. DETERMINANTE

Corollario 8.2.2. Se A e invertibile allora

det(A ·A−1) = det I = det(A) · det(A−1)⇒ detA−1 =1

det(A)

Osservazione 92.Consideriamo lo sviluppo di Laplace secondo la prima riga di A.

n∑i=1

(−1)i+1[A]1i det(A1i) =

n∑i=1

(−1)i+1[ tA]i1 det( t(A1i))

=

n∑i=1

(−1)i+1[ tA]i1 det( tAi1) = det( tA) = det(A)

(8.4)

Se si considera poi la rige i-esima, invece della prima, si conclude che si puo fare lo sviluppodi Laplace sulla riga che si preferisce.

Proposizione 8.2.3 (Regola di Cramer). Ax = B sistema lineare quadrato con det(A) 6= 0.Allora la sua unica soluzione e (y1, . . . , yn) dove

yi =detB(i)

detAcon B(i) = (A1, . . . , B︸︷︷︸

postoiesimo

, . . . , An)

Dimostrazione. (y1, . . . , yn) e soluzione di Ax = B ⇔ y1A1 + . . .+ ynA

n = B. Allora

detB(i) = det

A1, . . . ,

n∑j=1

yjAj , . . . , An

=

n∑j=1

yj det(A1, . . . , Aj , . . . , An) = yi det(A)

(8.5)

poiche det(A) 6= 0⇒ yi = detB(i)detA

8.2.1 Calcolo dell’inversa

Se A e invertibile allora la matrice B definita da

[B]ij = (−1)i+jdetAjidetA

e l’inversa di A.

Dimostrazione. Verifichiamo che AB = I.

[AB]hk =n∑i=1

[A]hi[B]ik =n∑i=1

[A]hi(−1)i+kdetAkidetA

(8.6)

� Se h = k allora

[AB]hh =1

detA

n∑i=1

[A]hi(−1)i+h det(Ahi) =detA

detA= 1

Infatti la formula precedente e lo sviluppo di Laplace secondo la riga h-esima , quindi euguale a detA.

� Se h 6= k il numeratore e lo sviluppo secondo la riga k-esima di una matrice ottenuta daA sostituendo ad Ak la riga Ah e che quindi ha due righe uguali , quindi detA′ = 0 ⇒[AB]hk = 0 per h 6= k.

Inoltre BA = A−1ABA = A−1A = I.

Page 59: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

8.3. RISOLUZIONE DI SISTEMI 59

8.3 Risoluzione di sistemi

Consideriamo il sistema lineare Ax = B,A ∈ M(p, n). Questo sistema e risolubile ⇔rk(A) = rk(A|B). Posso controllare la risolubilita utilizzando il determinante. Supponi-amo che rk(A) = r = rk(A|B). Se rk(A) = r esiste nella matrice A un minore M , r × r, invertibile. Allora le equazioni che entrano in M , ovvero le righe della matrice completache formano M sono linearmente indipendenti. Lo spazio generato dalle righe di (A|B) hadimensione r : prendendo quindi una riga esterna ad M questa sara combinazione lineare dellerighe che concorrono a formare M . Il sistema Ax = B e allora equivalente al sistema ottenutoeliminando le righe di (A|B) che non concorrono a formare M . Si ottiene quindi una matricerettangolare che ha minore M : posso portare gli altri minori che non formano M nel terminenoto. In questo modo la matrice dei coefficienti del sistema diviene M ed abbiamo ottenutoun sistema quadrato dove si puo applicare Cramer.

Definizione 8.1 (Minori orlati). Si ottengono aggiungendo ad un minore di una matrice unariga ed una colonna qualsiasi della matrice.

Proposizione 8.3.1 (Criterio dei minori orlati). Sia B un minore di ordine r di A condetB 6= 0. Se tutti i minori orlati di B hanno determinante nullo allora rk(A) = r.

Page 60: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

60 CAPITOLO 8. DETERMINANTE

Page 61: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 9

Endomorfismi

Definizione 9.1 (Endomorfismi). Si definisce endomorfismo End(V ) = hom(V, V ). Sia Sbase di V , A = mS(f). Se T e un’altra base e M = mT ,S(id) allora M−1 = mS,T (id).Dunque

mT (f) = M−1AM

Definizione 9.2 (f diagonalizzabile). f e detta diagonalizzabile ⇔ ∃ base B tale che mB(f)e diagonale.

Definizione 9.3 (Autovettore ed autovalore).

1. v ∈ V si dice autovettore per f se v 6= 0 e ∃λ ∈ K tale che f(v) = λv.

2. λ ∈ K si dice autovalore per f se ∃v 6= 0 tale che f(v) = λv.

Se B = {v1, . . . , vn} e una base di autovettori ,

mB(f) =

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 . . . . . . λn

⇔ f(vi) = λivi, ∀i (9.1)

Osservazione 93.Se v e autovettore per f , f(Span(v)) ⊂ Span(v)

� Se λ 6= 0 , f(Span(v)) = Span(v).

� Se λ = 0 , f(Span(v)) = {0}.

Osservazione 94.L’autovalore relativo ad un autovettore e univocamente determinato. Infatti se fosse , perassurdo , che f(v) = λv = µv allora sarebbe (λ − µ)v = 0 e per la definizione di autovettoreseguirebbe λ = µ che e assurdo.

Osservazione 95.v e autovettore relativo a 0 ⇔ v ∈ ker f , quindi 0 e autovalore ⇔ f non e iniettiva.

Definizione 9.4 (Autospazio). Poniamo V (λ) = {v ∈ V : f(v) = λv}. Allora

1. V (λ) = ker(f − λ id)⇒ V (λ) e sottospazio perche f − λ id e lineare.

61

Page 62: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

62 CAPITOLO 9. ENDOMORFISMI

2. λ e autovalore ⇔ dimV (λ) ≥ 1. In tal caso V (λ) = {0} ∪ { autovettori relativi a λ}. eV (λ) e detto autospazio relativo a λ.

Osservazione 96.Le nozioni precedenti si applicano anche a A : Kn → Kn , x → Ax dove A ∈ M(n,K).Ricordiamo che mT (A) = A. Quindi A e diagonalizzabile ⇔ ∃ base B tale che mB(A) = Dossia ⇔M−1AM = D con M = mB,T (id).

Definizione 9.5 (Matrici simili). A,B ∈M(n,K) si dicono simili se ∃M ∈ GL(n,K) tale cheB = M−1AM ( e si scrive A ∼ B).Dunque una matrice e diagonalizzabile se e simile ad unamatrice diagonale.

Osservazione 97.

1. La similitudine e una relazione di equivalenza.

2. A ∼ B ⇒ A ≡ B e quindi rk(A) = rk(B) e M e isomorfismo.

3. A ∼ B ⇒ det(A) = det(B). Infatti detB = det(M−1) detAdetM = detA.

Dunque rango e determinante sono invarianti di similitudine ma NON un sistema completodi invarianti.

Proposizione 9.0.2. Sia A ∼ B e sia λ autovalore per A. Allora

1. λ e autovalore per B

2. dimV (λ,A) = dimV (λ,B)

Dimostrazione. Per ipotesi ∃M ∈ GL(n,K) tale che B = M−1AM ed ∃x 6= 0 tale che Ax = λx. Devo provare che BY = λY . Sia Y = M−1x. Allora Y 6= 0 (infatti M e isomorfismo ,quindi M−1 e isomorfismo e quindi manda x 6= 0 in M−1x 6= 0) e

BY = M−1AMM−1x = M−1Ax = λM−1x = λY

Inoltre ∀x ∈ V (λ,A),M−1x ∈ V (λ,B) ovvero M−1(V (λ,A)) ⊂ V (λ,B) e quindi V (λ,A) ⊂M(V (λ,B)). Analogamente si vede che M(V (λ,B)) ⊂ V (λ,A). Ma quindi deve valereche M(V (λ,B)) = V (λ,A) , ovvero M trasforma gli autospazi del primo endomorfismoin autospazi del secondo endomorfismo. Visto che M e un isomorfismo segue subito chedimV (λ,B) = dimV (λ,A).

Osservazione 98.Dunque gli autovalori e le dimensioni degli autospazi sono altri invarianti per similitudine.

Proposizione 9.0.3. Sia f ∼ g. Allora1

1. Se λ e autovalore per f , λ e autovalore per g.

2. dimVλ(f) = dimVλ(g)

Dimostrazione. Sia B base di V , A = mB(f), B = mB(g). Allora A ∼ B. Dunque λautovalore per f ⇒ λ autovalore per A⇒ λ autovalore per B ⇒ λ autovalore per g. Inoltre

dimVλ(f) = dimVλ(A) = dimVλ(B) = dimVλ(g)

per la proposizione (9.0.2).

1Da ora in avanti si utilizzera anche la notazione equivalente V (λ, f) = Vλ(f).

Page 63: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI 63

9.1 Calcolo di autovalori e autospazi

Osservazione 99.λ e autovalore per A ⇔ ∃x 6= 0 tale che Ax = λx ⇔ ∃x 6= 0 tale che (A − λI)x = 0 ⇔ x ∈ker(A− λI⇔ det(A− λI) = 0

Definizione 9.6 (Polinomio Caratteristico). Il polinomio pA(t) = det(A − tI) e detto poli-nomio caratteristico di A. Dunque λ e autovalore per A⇔ pA(λ) = 0

Proposizione 9.1.1. Se A ∼ B allora pA(t) = pB(t)

Dimostrazione. Se A ∼ B ⇒ B = M−1AM , quindi pB(t) = det(B − tI) = det(M−1AM −tI) = det(M−1(A− tI)M) = det(A− tI) = pA(t) per Binet.

Osservazione 100.Sia f ∈ End(V ). Allora pf (t) = det(A− tI) , dove A e una qualsiasi matrice associata ad f .

Proposizione 9.1.2. Il polinomio caratteristico e un invariante di similitudine in End(V ).

Dimostrazione. Se f ∼ g e B e una base di V allora mB(f) ∼ mB(g) e quindi pf (t) = pg(t)per la proposizione precedente.

Osservazione 101.Se due matrici hanno lo stesso polinomio caratteristico pA(t) = pB(t) allora

1. hanno gli stessi autovalori

2. det(A) = det(B) perche il determinante e il termine noto del polinomio caratteristico.

Inoltre le colonne di A e B generano spazi di dimensione uguale, ovvero rk(A) = rk(B). Infattirk(A) = dim Imm(A) = n− dim ker(A) = n− dimV0(A). Quindi gli invarianti di similitudinesono

� polinomio caratteristico

� dimensione degli autospazi

Definizione 9.7 (Molteplicita algebrica e geometrica). Sia λ autovalore per f

1. Si chiama molteplicita algebrica di λ la sua molteplicita µa(λ) come radice del polinomiocaratteristico pf (t).

2. Si chiama molteplicita geometrica di λ la dimensione dell’autospazio , ovvero µg(λ) =dimVλ(f) = n− rk(A− λI).

Osservazione 102.Il determinante delle matrici triangolari a blocchi si puo calcolare semplicemente come

det

A B

0 C

= detA · detC (9.2)

con A e C quadrate.

Proposizione 9.1.3.dimVλ(f) = µg(λ) ≤ µa(λ)

Page 64: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

64 CAPITOLO 9. ENDOMORFISMI

Dimostrazione. Sia d = dimVλ(f) , sia A = mB(f). Sia {v1, . . . , vd} una base di Vλ(f) checompletiamo ad una base B di V . La matrice associata ad f nella base B sara quindi del tipo λI M

0 N

(9.3)

Allora

pA(t) = det

(λ− t)I M

0 N − t

= (λ− t)d · det(N − tI) (9.4)

Da cui

pf (t) = det(A− tI) = (λ− t)dpN (t)⇒ µa(λ) ≥ d (9.5)

Definizione 9.8. A ∈M(n,K) si dice diagonalizzabile se A e simile ad una matrice diagonale.

Osservazione 103.f ∈ End(V ) , B base di V . Allora f e diagonalizzabile ⇔ mB(f) e diagonalizzabile.

Proposizione 9.1.4. f ∈ End(V ) , v1, . . . , vk autovettori relativi agli autovalori λ1, . . . , λk.Se i λi sono a due a due distinti allora v1, . . . , vk sono linearmente indipendenti.

Dimostrazione. Si prova per induzione su k.

� Se k = 1 abbiamo un solo autovettore relativo ad un solo autovalore che e ovviamentelinearmente indipendente visto che e diverso da 0.

� Sia k ≥ 2. Prendo

c1v1 + . . .+ ckvk = 0 (9.6)

se due vettori sono uguali lo sono anche le loro immagini tramite f . Applico quindi fottenenendo

c1λ1v1 + . . .+ ckλkvk = 0

. Moltiplicando la 9.6 per λ1 si ottiene

c1λ1v1 + . . .+ ckλ1vk = 0 (9.7)

Sottraendo queste ultime due equazioni si ottiene

c2(λ2 − λ1)v1 + . . .+ ck(λk − λ1)vk = 0

Per induzione c2(λ2 − λ1) = . . . = ck(λk − λ1) = 0. Ma i λi sono distinti, quindiλi − λ1 6= 0. Quindi segue che c2 = c3 = . . . = ck = 0⇒ c1 = 0.

Teorema 9.1.5 (di diagonalizzazione). f e diagonalizzabile se e solo se

1. µa(λ1) + . . .+ µa(λk) = n = dimV

2. ∀λi autovalore µg(λi) = µa(λi).

Page 65: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI 65

Dimostrazione. (⇒) : Suppongo f diagonalizzabile e B una base di autovettori. Allora

mB(f) =

λ1Id1 0 . . . . . . 0

0 λ2Id2 0 . . ....

0. . .

......

. . ....

... . . . . . . . . . λkIdk

(9.8)

Quindi pf (t) = (λ1− t)d1 . . . (λk− t)dk , ovvero µa(λ1) = d1, . . . , µa(λk) = dk.Poiche d1 + . . .+dk = n la prima parte e provata. Inoltre dato che in B ci sono almeno di autovettori relativi aλi , si ha dimVλi ≥ di = µa(λi). Poiche in generale dimVλi ≤ µa(λi) allora anche la secondaparte e provata.(⇐): Sia di = dimVλi e sia Bi = {vi,1, . . . , vi,di} una base di Vλi . Sia inoltre B =

⋃ki=1 Bi. In

totale B contiene d1 + . . .+ dk = n vettori. Per dimostare che questi formano una base bastaverificare la lineare indipendenza.

c11v11 + . . .+ c1d1v1d1︸ ︷︷ ︸z1

+ . . .+ ck1vk1 + . . .+ ckdkvkdk︸ ︷︷ ︸zk

= 0 (9.9)

L’equazione precedente diviene

z1 + z2 . . .+ zk = 0

Dato che z1 e combinazione lineare dei vettori v1, . . . , v1d1 , che stavano in un sottospazio,allora z1 ∈ Vλ1 e quindi zi ∈ Vλi , ∀i = 1, . . . , k. Riguardo a z1 posso notare che e o 0 o unautovettore. In particolare se z1 6= 0 sara autovettore e lo stesso vale per gli altri. Ma alloraquesta relazione sarebbe una combinazione lineare di vettori nulla. Ma questo e assurdo poichetroverei una relazione di dipendenza lineare mentre in realta si tratta di vettori linearmenteindipendenti. Quindi l’unico modo per non incorrere in un assurdo e che

zi = 0,∀i = 1, . . . , n⇒ z1 = 0⇒ c11 v11︸︷︷︸6=0

+ . . .+ c1d1 v1d1︸︷︷︸6=0

= 0

ovvero c11 = cidi = . . . = 0,∀i.

Proposizione 9.1.6. f ∈ End(V ) , S base di V , A = mS(f). Allora

1. f e diagonalizzabile ⇔ A e diagonalizzabile.

2. λ e autovalore per f ⇔ λ e autovalore per A.

3. v e autovettore per f ⇔ x = [v]S e autovettore per A.

4. Se ϕ : V → Kn isomorfismo indotto da S allora ϕ(V (λ, f)) = V (λ,A).

Dimostrazione. 1. f e diagonalizzabile ⇔ ∃ base B di autovettori ⇔ mB(f) = D ⇔M−1AM = D con M matrice del cambiamento di base da B a S ⇔ A e diagonalizzabile.

2. ∃v 6= 0 tale che f(v) = λv ⇔ ∃v 6= 0 tale che Av = λv.

3. Per la definizione di endomorfismo.

Page 66: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

66 CAPITOLO 9. ENDOMORFISMI

4. [f(v)]S = λ[v]S ⇔ x = [v]S 6= 0 e tale che Ax = λx. Dunque per decidere se f

Osservazione 104.f ∈ End(V ) , B base di V , A = mB(f). Sia ϕ : V → Kn l’applicazione tale che v → [v]B.Se {v1, . . . , vn} e una base di Kn di autovettori per A allora {ϕ−1(v1), . . . , ϕ−1(vn)} sono unabase di autovettori per f .

9.2 Conseguenze del teorema di diagonalizzazione

Osservazione 105.Se K = C il polinomio caratteristico ha coefficienti complessi. Per il teorema fondamentaledell’algebra la seconda condizione del teorema (9.1.5) e sempre verificata. Non e detto che losia anche la seconda. Nel caso K = R invece puo mancare gia la prima condizione : ad esempio

se si prende

(0 1−1 0

)il polinomio caratteristico associato e pA(t) = t2 + 1 che non ammette

soluzioni in R. Infatti la matrice A rappresenta una rotazione di 90°che non ha sicuramenteautovettori. La diagonalizzabilita e verificata solo in C dove si trovano gli autovalori λ = ± i

distinti. Nella base degli autovettori la matrice si scrivera quindi come

(i 00 − i

).

Osservazione 106.Se λ e un autovalore semplice , ovvero con µa(λ) = 1 , allora µg(λ) ≤ µa(λ) = 1. D’altraparte µg(λ) ≥ 1 altrimenti λ non sarebbe autovalore relativo ad un autovettore visto chel’autospazio relativo avrebbe dimensione 0. Se ne deduce quindi che µg(λ) = µa(λ) = 1.

Osservazione 107.Se Bi e una base di V (λi) = ker(A− λiI) la lista

⋃ki Bi e formata da vettori indipendenti.

Osservazione 108.Se λ e autovalore per A , allora ∀s ∈ N , λs e autovalore per As.

Dimostrazione. Se λ e autovalore per A , ∃x ∈ Kn, x 6= 0tale che Ax = λx. Ma

Asx = As−1Ax = As−1λx = λ(As−1x) = λ(As−2Ax) = . . . = λsx

Ovvero x e autovettore per As relativo all’autovalore λs.

Corollario 9.2.1. Se A e nilpotente , allora A ha solo l’autovalore nullo. Infatti ∃m ∈ N taleche Am = 0⇒ λm = 0⇒ λ = 0

Osservazione 109.Se A e simile a B , allora ∀s ∈ N , As ∼ Bs.

Dimostrazione. Infatti se A ∼ B allora ∃M ∈ GL(n) tale che B = M−1AM . Ma

Bs = B ·B . . . B︸ ︷︷ ︸s

= M−1AM . . .M−1AM︸ ︷︷ ︸s

= M−1AM ·M−1AM . . .M−1AM = M−1AsM

ovvero Bs ∼ As.

Page 67: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE 67

Corollario 9.2.2. Se A e diagonalizzabile , cioe A ∼ D diagonale , allora ∀s ∈ N, As ∼Ds. Infatti Ds e sempre una matrice diagonale⇒ As e simile ad una matrice diagonale⇒As e diagonalizzabile. Non vale il viceversa perche ad esempio la rotazione di 90 °non ediagonalizzabile , mentre se si compone 2 o 4 volte, ottenendo 180°o 360°si ottiene una matricediagonalizzabile.

Osservazione 110 (Invarianti di similitudine).Gli invarianti di similitudine esaminati fin’ora risultano essere

1. rango

2. determinante

3. polinomio caratteristico

4. autovalori

5. dimensione autospazi

Notiamo pero che (3)⇒ (4), (3)⇒ (2), (5)⇒ (1) , quindi basta controllare la (3) e la (5). Sivede pero che il sistema di invarianti cosı costruito non e completo , infatti basta prendere uncontroesempio che presentiamo di seguito.

A =

0 1 0 00 0 0 00 0 0 10 0 0 0

, B =

0 1 0 00 0 1 00 0 0 00 0 0 0

(9.10)

Si noti che pA(t) = pB(t) = t4. Inoltre dimV (0, A) = dimV (0, B) = 2 visto che rk(B) =rk(A) = 2 , quindi le matrici sono entrambe non diagonalizzabili. Abbiamo quindi trovatodue matrici non diagonalizzabili che soddisfano le proprieta precedenti : per dimostrare chenon sono simili utilizzamo una dimosrrazione per assurdo. Se A fosse simile a B allora A2

sarebbe simile a B2. Ma A2 = 0 e la matrice B2 ha almeno un elemento [B]13 6= 0. Dato chel’unica matrice simile alla matrice nulla e se stessa segue l’assurdo, ovvero A non e simile a B.

Definizione 9.9. Sia f ∈ End(V ). W ssv. di V si dice f -invariante se f(W ) ⊂ W , ossia

f∣∣∣W

: W →W e un endomorfismo.

Definizione 9.10. Siano W1, . . . ,Wm sottospazi vettoriali di V . Si dice che V e sommadiretta dei Wi , e si scrive V =

⊕iWi , se ∀v ∈ V , v si puo scrivere in modo unico come

v = w1 + . . .+ wm , con wi ∈Wi, ∀i. In particolare, allora,

V = W1 + . . .+Wm

Proposizione 9.2.3. V =⊕m

i=1Wi ⇔ prese B1, . . . ,Bm basi di W1, . . . ,Wm allora⋃mi=1 Bi e

base di V .

Dimostrazione. .(⇒) :

⋃mi=1 Bi e certamente un insieme di generatori di V : infatti l’ipotesi e che V =

⊕iWi

quindi v = w1+ . . .+wm,∀v ∈ V dove w1 = SpanB1, . . . , wm = SpanBm. Inoltre questi vettorisono linearmente indipendenti , infatti presa una combinazione lineare nulla

comb.lineare dei vettori di B1︸ ︷︷ ︸w1

+ . . .+ comb.lineare dei vettori di Bm︸ ︷︷ ︸wm

= 0 (9.11)

Page 68: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

68 CAPITOLO 9. ENDOMORFISMI

abbiamo scritto 0 come somma di elementi che stanno in W1,W2, . . . ,Wm. Dato che 0 =0 + 0 + . . . + 0 , per l’unicita della presentazione ( dovuta all’ipotesi della somma diretta) siottiene necessariamente w1 = 0, . . . , wm = 0. Ma wi, ∀i e una combinazione lineare di vettoriindipendenti dunque segue che tutti i coefficienti sono nulli e quindi

⋃mi=1 Bi e una base di V .

(⇐) : Supponiamo per assurdo che

v = w1 + . . .+ wm = w′1 + . . .+ w′m con wi 6= w′i, ∀i

ovvero che la presentazione NON sia unica. Dunque

(w1 − w′1) + . . .+ (wm − w′m) = 0

Ma (w1 − w′1) ∈ W1 quindi puo essere scritto come combinazione lineare dei vettori di B1.Lo stesso vale per gli altri vettori : ottengo quindi una combinazione lineare dei vettori chestanno in

⋃mi=1 Bi . Dato che questa somma deve essere nulla i coefficienti della combinazione

lineare sono tutti nulli , infatti per l’ipotesi questi vettori formano una base. Ne segue chew1 − w′1 = 0 = . . . = wm − w′m = 0 , ovvero wi = w′i , da cui l’assurdo.

Proposizione 9.2.4. Sia V = A⊕B , f ∈ End(V ) tale che f(A) ⊂ A , f(B) ⊂ B. Allora fe diagonalizzabile ⇔ f

∣∣A, f∣∣B

lo sono.

Dimostrazione. (⇐) : E ovvia perche f∣∣A, f∣∣B

sono diagonalizzabili dunque posso trovare unabase di autovettori per f in questi sottospazi. Una base di autovettori per V si ottiene unendoqueste due basi.(⇒): Per ipotesi esiste una lista di autovettori per f , {v1, . . . , vn} , base di V tali che f(vi) =λivi, ∀i = 1, . . . , n. Bisogna cercare una base di autovettori in A ed in B , avendo una basedi V . Questa si puo ottenere proiettando i vettori di V nei due sottospazi in somma direta.Consideriamo quindi le applicazioni di proiezione

prA : V → A

prB : V → B

Per l’unicita della presentazione , dovuta al fatto che A e B stanno in somma diretta , allora∀v ∈ V,∃!a ∈ A,∃!b ∈ B tali che v = a+b , ovvero prA(v) = a,prB(v) = b. Quindi ∀vi = ai+biposso considerare la lista dei vettori {a1, . . . , an} ottenuta proiettando i vettori della base diautovettori per f in V su A e la lista {b1, . . . , bn} ottenuta proiettando i vi su B. Si ha che

f(vi) = λivi = λiai + λibi

d’altra parte

f(vi) = f(ai + bi) = f(ai) + f(bi)

ovvero

f(ai) + f(bi) = λiai + λibi (9.12)

Ma f(ai) ∈ A perche A per ipotesi e f -invariante ; la stessa cosa vale anche per f(bi) ∈ B.Dato che nelle somme dirette un vettore si scrive in modo unico, si ottiene{

f(ai) = λiai

f(bi) = λibi(9.13)

Page 69: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE 69

Ci sono due possibilita : o ai ( e analogamente bi ) e nullo per qualche i , o e autovettore.Dunque la lista {a1, . . . , an} contiene certamente una base di A , a patto che questi vet-tori generino A. Ma {a1, . . . , an} erano le proiezioni su A dei vettori {v1, . . . , vn} ⇒ a1 =prA(v1), . . . , an = prA(vn). Sappiamo quindi che a1, . . . , an generano Imm(prA) : per dire chegenerano anche Imm(A) bastera che l’applicazione sia surgettiva : ma questo e garantito dallaproprieta della proiezione. Dunque si puo estrarre dagli insiemi {a1, . . . , an} , {b1, . . . , bn} unabase di autovettori per f

∣∣A, f∣∣B

, ovvero queste restrizioni sono diagonalizzabili.

Proposizione 9.2.5. Se f e diagonalizzabile e W e f -invariante , allora f∣∣W

e diagonalizz-abile.

Dimostrazione. Se trovo un ssv. Z di V tale che V = W ⊕ Z e che f(Z) ⊂ Z allora possoapplicare la proposizione (9.2.4) e dimostrare quest’ultima. Per ipotesi f e diagonalizzabile ,dunque ∃{v1, . . . , vn} base di autovettori in V per f .Sia {w1, . . . , wk} una base qualunque diW . Posso completarla a base di V scegliendo i vettori aggiuntivi dalla base di V ottenendo lalista {w1, . . . , wk, v1, . . . , vn}. I primi k vettori sono sicuramente linearmente indipendenti , fragli altri n l’algoritmo di estrazione di una base selezionera i vettori indipendenti ottenendo lalista {w1, . . . , wk, vj1 , . . . , vjn−k}. Basta quindi prendere come Z lo spazio generato dai vettori{vj1 , . . . , vjn−k} : questi vanno in se stessi tramite f per l’ipotesi iniziale di diagonalizzabilita ,quindi Z e f -invariante ed e il complementare di V , ovvero e il candidato adatto per utilizzarela proposizione (9.2.4).

Corollario 9.2.6. f ∈ End(V ) e diagonalizzabile ⇔ V = Vλ1(f)⊕ . . .⊕Vλn(f)⇔ V e sommadiretta di sottospazi invarianti , su ciascuno dei quali f = λiI.

Page 70: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

70 CAPITOLO 9. ENDOMORFISMI

Page 71: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

Capitolo 10

Forme Bilineari

Definizione 10.1. V K-spazio vettoriale.φ : V × V → K e detta applicazione ( o forma ) bilineare se

1. ∀x, y, z ∈ V : φ(x+ y, z) = φ(x, z) + φ(y, z)

2. ∀x, y, z ∈ V : φ(x, y + z) = φ(x, y) + φ(x, z)

3. ∀x, y, z ∈ V,∀α ∈ K : φ(αx, y) = αφ(x, y) = φ(x, αy).

In generale φ : V × V . . .× V → K e detta multilineare se e lineare in ogni variabile.

Osservazione 111. Presentiamo alcuni esempi di forme bilineari

1. φ ≡ 0 e una forma bilineare , come e semplice verificare.

2. Il prodotto scalare standard su Rn , φ : Rn × Rn → R . E definito da1

φ(x, y) = t xy =n∑i=1

xiyi

3. A ∈M(n,K) , in generale si puo dare la seguente definizione di prodotto scalare

φ : Kn ×Kn → K(x, y)→ t xAy

(10.1)

4. Il determinante e multilineare nelle righe.

5. M(n,K) : φ(A,B) = Tr(tAB), φ(A,B) = Tr(AB) sono bilineari.

6. Fissato a1, . . . , an ∈ K si considera

φ : Kn[x]×Kn[x]→ K

φ(p(x), q(x)) =

n∑i=1

p(ai)q(ai)(10.2)

1Nel seguito, per non creare fraintendimenti, si indichera con x un vettore e con xi la sua componente. Lalettera maiuscola sara riservata, come fatto fino ad ora, alle sole matrici.

71

Page 72: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

72 CAPITOLO 10. FORME BILINEARI

7. E di grande importanza il prodotto scalare nella metrica di Minkowski per la relativitaristretta. Si definisce su R4 il prodotto scalare

φ((x1, . . . , x4), (y1, . . . , y4)) = x1y1 + x2y2 + x3y3 − x4y4

Osservazione 112.

Bil(V ) = {φ : V × V → φ e bilineare }

e un K-spazio vettoriale.

Definizione 10.2 (Matrice associata alla forma bilineare). φ ∈ Bil(V ),B = {v1, . . . , vn} basedi V . Si chiama matrice associata a φ rispetto a B la matrice mB(φ) ∈M(n,K) definita da

[mB(φ)]ij = φ(vi, vj)

Proposizione 10.0.7. Se mB(φ) = A allora ∀v, w ∈ V

φ(v, w) = t [v]BA[w]B (10.3)

Dimostrazione. Calcoliamo direttamente

φ(v, w) = φ

n∑i=1

xivi,

n∑j=1

yjvj

=

n∑i=1

n∑j=1

xiyjφ(vi, vj)

=

n∑i=1

n∑j=1

xiyj [A]ij =

n∑i=1

n∑j=1

[ tx]i[y]j [A]ij =t xAy = t [v]BA[w]B

(10.4)

Proposizione 10.0.8. B base di V . L’applicazione

mB : Bil(V )→M(n,K)

φ→ mB(φ)(10.5)

e un isomorfismo di spazi vettoriali. In particolare dim(Bil(V )) = n2.

10.1 Cambiamenti di base

Sia φ ∈ Bil(V ) , B,B′ due basi di V . Poniamo A = mB(φ), A′ = mB′(φ). Vogliamo determinarela relazione tra A ed A′. Sia M la matrice del cambiamento di base da B′ a B , per cui

[v]B = M [v]B′ ,∀v ∈ V

Allora

φ(u, v) = t [u]BA[v]B = t (M [u]B′)A(M [v]B′)

= t [u] tB′MAM [v]B′(10.6)

Ma vale anche

φ(u, v) = t [u]B′A′[v]B′ (10.7)

Page 73: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.2. PRODOTTI SCALARI 73

Dunque per ogni scelta di vettori u, v ∈ V si ottiene

t[u]B′A′[v]B′ = t [u] tB′MAM [v]B′ ⇒ t MAM = A′ (10.8)

Questo non segue semplificando i fattori comuni perche nell’anello delle matrici un prodottopuo essere nullo anche se tutti i fattori sono non nulli. Piuttosto questo segue dal fatto che larelazione deve valere per ogni u, v ∈ V , quindi posso scegliere, in particolare, u = e1, v = e1.In questo caso applicando la formula (10.8) si ottiene [A′]11 = [ tMAM ]11. Prendendo quindiu = ei, v = ej allora si ottiene che [A′]ij = [ tMAM ]ij ⇒ t MAM = A′.

Definizione 10.3 (Congruenza). A,B ∈M(n,K) si dicono congruenti se esisteM ∈ GL(n,K)tali che B = t MAM .

Osservazione 113.La congruenza e una relazione di equivalenza. Il rango e quindi un invariante di congruenza.

Definizione 10.4 (rango di un prodotto scalare). rk(φ) = rkmB(φ) e questa definizione nondipende dalla scelta della base visto che le matrici associate a φ sono congruenti, dunquequesta definizione e ben posta.

10.2 Prodotti scalari

Definizione 10.5 (Prodotto scalare). Sia φ : V × V → K bilineare. φ si dice applicazionebilineare simmetrica ( o prodotto scalare ) se

φ(v, w) = φ(w, v), ∀v, w ∈ V

Osservazione 114.Sia B base di V , φ ∈ Bil(V ). Allora φ e prodotto scalare ⇔ mB(φ) e simmetrica.

Dimostrazione. (⇒) : Se φ e un prodotto scalare [mB(φ)]ij = φ(vi, vj) , ma [mB(φ)]ji =φ(vj , vi). Ma per l’ipotesi di prodotto scalare φ(vi, vj) = φ(vj , vi) quindi la matrice e simmet-rica.(⇐) : Se mB(φ) e simmetrica allora [mB(φ)]ij = [mB(φ)]ji ⇒ φ(vi, vj) = φ(vj , vi) che e laproprieta caratteristica di un prodotto scalare.

Osservazione 115.Se B = t MAM allora A simmetrica ⇒ B simmetrica. Infatti t( tMAM) = t M tAM = t

MAM = B = t B

Definizione 10.6 (forma quadratica). Se φ : V ×V → K e bilineare , l’applicazione q : V → Kdefinita da q(v) = φ(v, v), ∀v ∈ V si dice forma quadratica indotta da φ.

Definizione 10.7 (Caratteristica). Un campo K ha caratteristica 0 se ∀n ∈ N, n ≥ 1.

n · 1 = 1 + 1 + . . .+ 1︸ ︷︷ ︸n volte

6= 0

Altrimenti char(K) e il minimo intero positivo n tale che n · 1 = 0.

Osservazione 116.R,C,Q hanno caratteristica 0. charZ2 = 2.

Da ora in poi supporremo char(K) 6= 2.

Page 74: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

74 CAPITOLO 10. FORME BILINEARI

Proposizione 10.2.1. q forma quadatica su V . Allora esiste uno ed un solo prodotto scalareche induce q.

Dimostrazione. Per definizione ∃φ ∈ Bil(V ) tale che q(v) = φ(v, v),∀v. Definisco

φ′(u, v) =φ(u, v) + φ(v, u)

2

Questa forma bilineare e simmetrica e induce q , infatti φ′(v, v) = φ(v,v)+φ(v,v)2 = φ(v, v).

Dobbiamo provare l’unicita. Se trovo un prodotto scalare che induce q e riesco a scriverloin termini della stessa q allora questo sara unico. Supponiamo quindi che φ sia un prodottoscalare che induce q. Calcoliamo

q(u+ v)− q(u)− q(v) = φ(u+ v, u+ v)− φ(u, u)− φ(v, v) =

= φ(u, u) + φ(v, v) + φ(u, v) + φ(v, u)− φ(u, u)− φ(v, v) = 2φ(u, v)

⇒ φ(u, v) =q(u+ v)− q(u)− q(v)

2(10.9)

L’ultima relazione della (10.9) e detta formula di polarizzazione. Ho scritto quindi φ , chedefinisce il prodotto scalare, in funzione di q , quindi segue l’unicita di φ.

Definizione 10.8 (prodotto scalare non degenere). Sia φ prodotto scalare. φ si dice nondegenere se

φ(v, w) = 0, ∀w ∈ V ⇒ v = 0

Teorema 10.2.2. φ prodotto scalare. Sono fatti equivalenti

1. rk(φ) = n con n = dim(V ).

2. φ e non degenere

Dimostrazione. Sia B una base di V . A = mB(φ).(1 ⇒ 2) : Per ipotesi detA 6= 0. Sia v ∈ V tale che φ(v, w) = 0,∀w. Se denoto x = [v]B ey = [w]B allora φ(v, w) = t xAy = 0, ∀y. Dunque txA e una riga che moltiplicata per unacolonna fa 0 , ovvero puo essere solo la riga nulla : txA = 0 ⇒ t ( txA) = t Ax = Ax = 0.Poiche A e invertibile deduco che x = 0 , ovvero v = 0 e φ e non degenere.(2 ⇒ 1) : Supponiamo per assurdo che detA = 0. Allora ∃x 6= 0 tale che Ax = 0 , ossiatxA = 0. Ma allora txAy = 0,∀y che e assurdo perche troverei un vettore diverso da 0 che

rende nullo questo prodotto.

Definizione 10.9 (vettori ortogonali). φ prodotto scalare. I vettori u, v ∈ V si diconoortogonali rispetto a φ se φ(u, v) = 0.

Definizione 10.10 (sottoinsieme ortogonale). S sottoinsieme di V . Denotiamo con

S⊥ = {v ∈ V : φ(v, s) = 0, ∀s ∈ S}

il sottoinsieme ortogonale di V .

Proposizione 10.2.3. Presentiamo alcune proprieta del sottoinsieme ortogonale.

1. S⊥ e un ssv. di V , detto ortogonale di S.

Page 75: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.2. PRODOTTI SCALARI 75

2. S ⊂ T ⇒ T⊥ ⊂ S⊥. Infatti se prendo t ∈ T⊥ allora t e ortogonale a tutti i vettori di T .Ma dato che S ⊂ T sara ortogonale anche a tutti i vettori di S, dunque T⊥ ⊂ S⊥.

3. S⊥ = (SpanS)⊥

4. S ⊂ S⊥⊥

Definizione 10.11 (radicale). In particolare V ⊥ = {v ∈ V : φ(v, w) = 0,∀w ∈ V }. V ⊥ edetto il radicale di V rispetto a φ. Abbiamo provato che φ e non degenere ⇔ V ⊥ = {0}.

Proposizione 10.2.4.

dimV ⊥ = n− rk(φ)

Dimostrazione. v ∈ V ⊥ ⇔ φ(v, w) = 0,∀w ∈ V . Se B e una base di V , A = mB(φ) , x =[v]B, y = [w]B allora v ∈ V ⊥ ⇔ φ(v, w) = 0 ⇔ t xAy = 0, ∀y ∈ Kn ⇔ t xA = 0 ⇒ Ax = 0.Quindi le coordinate dei vettori che stanno nel radicale soddisfano il sistema lineare Ax = 0.Dunque

v ∈ V ⊥ ⇔ x = [v]B ∈ { Soluzioni Ax = 0} = S0

. Poiche il passaggio in coordinate e un isomorfismo si ha

dimV ⊥ = dimS0 = n− rk(A) = n− rk(φ)

Osservazione 117. Osserviamo che le le proposizioni φ non degenere e φ∣∣W

non degenere

non sono collegate tra di loro. Infatti prendiamo ad esempio

(0 11 0

)e non degenere. Ma

φ∣∣Span(e1)

= 0 che e degenere. Per l’implicazione inversa basta prendere

(1 00 0

). Ma φ

∣∣Span(e1)

e non degenere mentre φ e degenere perche detmB(φ) = 0

Proposizione 10.2.5. φ prodotto scalare su V , dimV = n. W sottospazio vettoriale di V .Allora

1. dimW⊥ ≥ n− dimW

2. Se φ e non degenere, allora dimW⊥ = n− dimW ma in generale V 6= W ⊕W⊥.

3. Se φ∣∣W

e non degenere , allora V = W ⊕W⊥ e quindi in particolare dimW⊥ = n −dimW .

Dimostrazione. .

1. Sia {w1, . . . , wp} una base diW , cioe dimW = p. Completiamo a base B = {w1, . . . , wp, vp+1, . . . , vn}di V . Sia ora mB(φ) = A. Si ha che

W⊥ = {v ∈ V : φ(w, v) = 0,∀w ∈W} = {v ∈ V : φ(w1, v) = φ(w2, v) = . . . = φ(wp, v) = 0}

Page 76: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

76 CAPITOLO 10. FORME BILINEARI

per la bilinearita. Quindi

φ(w1, v) = (1, 0, . . . , 0)︸ ︷︷ ︸t[w1]B

Ax

...

...

φ(wp, v) = (0, . . . , 0, 1, 0, . . . , 0)︸ ︷︷ ︸t[wp]B

Ax

(10.10)

come gia fatto nella dimostrazione del teorema (10.2.2) e della proposizione (10.2.4).Quindi gli elementi di W⊥ sono dati dalle soluzioni del sistema lineare(

Ip∣∣∣0)A︸ ︷︷ ︸B

x = 0⇒ Bx = 0 (10.11)

Devo dimostrare quindi che dim(spazio soluzioni Bx = 0) = dimW⊥ = n− rk(B). Mark(B) ≤ min{rk(Ip), rk(A)} ⇒ rk(B) ≤ p , allora dimW⊥ ≥ n− p.

2. Se φ e non degenere allora A ha rango massimo, det(A) 6= 0 , quindi rk(B) = rk(Ip) = pdato che A ha rango massimo , quindi dimW⊥ = n− p.

3. Se φ∣∣W

e non degenere A =

F G

H L

con F = mB(φ∣∣W

) ; infatti i primi p vettori di

B sono base di W . Dunque detF 6= 0 , quindi

B =(Ip∣∣∣0)

F G

H L

=(F∣∣∣G)

Ma dato che F ha rango p allora rk(B) = p e dunque dimW⊥ = n−p. In piu W ∩W⊥ ={0} perche se v ∈ W ∩W⊥ allora v sta nello spazio nullo di φ

∣∣W

che e {0}. Infatti v

dovrebbe appartenere sia a W che a W⊥ quindi, in particolare, φ(v, v) = 0 , ma questoassurdo visto che la restrizione del prodotto scalare non degenere quindi deve esserenecessariamente v = 0.

Osservazione 118.

1. Se φ e non degenere , allora W = W⊥⊥

.

2. W⊥ ∩ U⊥ = (W + U)⊥

3. (W ∩ U)⊥ ⊃W⊥ + U⊥

4. Se φ e non degenere allora (W ∩ U)⊥ = W⊥ + U⊥.

Definizione 10.12. Se V = W1 ⊕ W2 e ∀x ∈ W1, ∀y ∈ W2 : φ(x, y) = 0 si scrive anche

V = W1 ⊥W2 , oppure V = W1

⊥⊕W2

Page 77: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.2. PRODOTTI SCALARI 77

Definizione 10.13 (proiezione ortogonale). Se V = W ⊕W⊥ , la proiezione prW : V → We detta proiezione ortogonale : ∀v ∈ V , v − prW (v) ∈W⊥. Quindi

v = prW (v) + prW⊥(v)

Definizione 10.14 (vettori isotropi). v ∈ V si dice isotropo se φ(v, v) = 0.

Osservazione 119.Prendiamo la matrice (

1 00 −1

); φ(x, y) = t xAy

Quindi

vettori isotropi =

{(xy

): x2 − y2 = 0

}= bisettrici dei quadranti

In generale l’insieme dei vettori isotropi non e un sottospazio di V , come si vede da questoesempio.

Osservazione 120.Se ogni v ∈ V e isotropo allora φ = 0. Infatti

φ(u, v) =−φ(u, u)− φ(v, v) + φ(u+ v, u+ v)

2= 0

per la formula di polarizzazione

Osservazione 121.Se v non e isotropo φ

∣∣Span(v)

e non degenere , dunque V = Span(v) ⊕ (Span(v))⊥. Infatti la

matrice associata al prodotto scalare nella base B = {v, . . .} ha un elemento non nullo nelposto 11 , quindi φ

∣∣Span(v)

6= 0 ovvero e non degenere. In questo caso e quindi definita la sua

proiezione ortogonale su Span(v).

Proposizione 10.2.6. Sia v ∈ V non isotropo. ∀w ∈ V . Sia

c =φ(v, w)

φ(v, v)

detto coefficiente di Fourier di w rispetto a v. Allora w − cv ∈ (Span(v))⊥ , quindi e laproiezione ortogonale.

Dimostrazione. Basta osservare che

φ(v, w − cv) = φ(v, w)− cφ(v, v) = φ(v, w)− φ(v, w) = 0

Quindi w − cv e ortogonale a v.

Dunque ∀w ∈ V,w = cv + (w − cv) , cv ∈ Span(v), (w − cv) ∈ (Span(v))⊥ e quindi

prSpan(v)(w) =φ(v, w)

φ(v, v)v

Page 78: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

78 CAPITOLO 10. FORME BILINEARI

10.3 Diagonalizzazione di prodotti scalari

Definizione 10.15 (base ortogonale). Sia φ un prodotto scalare su V , dimV = n. Una baseB = {v1, . . . , vn} di V si dice ortogonale se φ(vi, vj) = 0,∀i 6= j.

Osservazione 122.B ortogonale ⇔ mB(φ) e diagonale.

Teorema 10.3.1. Per ogni prodotto scalare φ , esiste una base di V , ortogonale rispetto aφ.

Dimostrazione. Presentiamo due dimostrazioni alternative.

Dimostrazione 1 Proviamo il teorema per induzione su n = dimV . Per n = 1 e sicuramentevero perche una matrice 1× 1 e sempre diagonale. Supponiamola vera quindi per n− 1e proviamo la tesi per n. Sia dimV = n > 1. Distinguiamo due casi

� ∀v ∈ V, φ(v, v) = 0. Dunque il prodotto scalare e quello nullo. Quindi ogni base eortogonale.

� ∃v1 6= 0 tale che φ(v1, v1) 6= 0. In questo caso abbiamo provato che

V = Span(v1)⊕ (Span(v1))⊥ ⇒ dim(Span(v1))

⊥ = n− 1

Per ipotesi induttiva dunque φ∣∣Span(v1)⊥

ammette come base ortogonale {v2, . . . , vn} ⊂(Span(v1))

⊥. Si puo quindi completare a base di V aggiungendo v1 : {v1, . . . , vn}.Questi vettori sono indipendenti e sono anche ortogonali : infatti v1 ∈ Span(v1) ev2, . . . , vn ∈ (Span(v1))

⊥ dunque sono sicuramente ortogonali.

Dimostrazione 2 Sia {v1, . . . , vn} una base qualsiasi di V . Sia A = (aij) la matrice as-sociata al prodotto scalare in tale base. Si procede secondo il seguente algoritmo perortogonalizzare la base : si presentano due scelte

Trasformazioni di base Si applica se φ(v1, v1) = a11 6= 0 , ovvero se v1 e non isotropo.In questo caso consideriamo i vettori

v′1 = v1

v′2 = v2 −φ(v2, v1)

φ(v1, v1)v1

...

v′n = vn −φ(vn, v1)

φ(v1, v1)v1

(10.12)

Questa e sicuramente una base di V . Si noti infatti che si tratta di una listacomposta da n vettori in uno spazio dove si conosce gia la base {v1, . . . , vn}. Dunquela nuova lista di vettori e composta da vettori indipendenti solo se i vettori dellecoordinate rispetto ai vettori di B sono indipendenti. La matrice costruita con

Page 79: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.3. DIAGONALIZZAZIONE DI PRODOTTI SCALARI 79

queste coordinate e del tipo1 φ(v2,v1)

φ(v1,v1). . . . . . φ(vn,v1)

φ(v1,v1)

0 1 ∗ ∗ ∗0 . . . 1 ∗ . . ....

......

. . ....

0 . . . . . . . . . 1

(10.13)

quindi il rango e massimo ed i vettori sono linearmente indipendenti. Questa basee anche ortogonale , infatti ha la proprieta che

φ(v′1, v′j) = 0 , ∀j = 2, . . . , n

Quindi la matrice associata a φ diventa a11 0

0 B

(10.14)

e posso iterare il procedimento sulla matrice B.

Trasformazioni ausiliarie Si applicano nel caso che a11 = 0. Ci sono due casi

Prime trasformazioni ausiliarie : Se aii = 0 ed ∃i tale che aii 6= 0 si permutanoi vettori della base {v1, . . . , vn} per portare vi al primo posto e poi si usa latrasformazione di base.

Seconde trasformazioni ausialiarie : Si applica quando aii = 0, ∀i ma A 6= 0.Allora ∃i,∃j tali che aij 6= 0 ( e quindi aji 6= 0) . Si puo prendere quindi lacombinazione

φ(vi+vj , vi+vj) = φ(vi, vi)+φ(vj , vj)+φ(vi, vj)+φ(vj , vi) = 0+2aij+0 = 2aij 6= 0

Basta allora prendere una base di cui vi + vj e il primo vettore.

Corollario 10.3.2. Ogni matrice simmetrica e congruente ad una matrice diagonale.

Osservazione 123.Sia B = {v1, . . . , vn} una base ortogonale di V . Quindi v = α1v1 + . . . + αnvn. Se v1 non eisotropo allora φ(v, v1) = α1φ(v1, v1) per l’ipotesi di ortogonalita della base B. Quindi

α1 =φ(v, v1)

φ(v1, v1)= coeff. di Fourier di v rispetto a v1

Teorema 10.3.3 (di Sylvester complesso). Sia K = C. Sia inoltre V un C-spazio vettorialee 〈, 〉 un prodotto scalare. Allora esiste una base di V in cui la matrice associata a 〈, 〉 e

D =

Ir 0

0 0

(10.15)

dove r e il rango di 〈, 〉.

Page 80: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

80 CAPITOLO 10. FORME BILINEARI

Dimostrazione. Sappiamo che ∃ una base {v1, . . . , vn} ortogonale per 〈〉. Quindi la matriceassociata e del tipo

a11 0 . . . . . . . . . . . . 0

0. . . 0

......

. . ....

... arr...

... 0...

.... . .

...... . . . . . . . . . . . . 0

(10.16)

Per far comparire degli 1 sulla diagonale basta normalizzare i vettori di base , ovvero prenderela base {

v1√a11

, . . . ,vr√arr

, vr+1, . . . , vn

}che ha le proprieta richieste.

Corollario 10.3.4. Due matrici simmetriche complesse sono congruenti ⇔ hanno lo stessorango.

10.4 Forme quadratiche reali

Teorema 10.4.1 (di Sylvester reale). Sia V , R-spazio vettoriale , 〈〉 prodotto scalare su V .Sia r il rango di 〈〉. Allora esiste un numero intero non negativo p ≤ r , dipendente solo da〈〉, e una base di V in cui la matrice associata a 〈〉 eIp 0 0

0 −Ir−p 00 0 0

(10.17)

Dimostrazione. In una base ortogonale a {v1, . . . , vn} la matrice e uguale alla (10.16). Rior-dinando la base si puo supporre che

� aii > 0 , 1 ≤ i ≤ p.

� aii < 0 , p+ 1 ≤ i ≤ r.

Allora , rispetto alla base{v1√a11

, . . . ,vp√app

,vp+1√−ap+1,p+1

, . . . ,vr√−arr

, vr+1, . . . , vn

}= {z1, . . . , zp, zp+1, . . . , zr, . . . , zn}

la matrice e del tipo voluto. Resta da dimostrare che p non dipende dalla base scelta ma solodal prodotto scalare. Per fare cio esprimo p in modo indipendente dalla base, come quantitaintrinseca. Sia pφ = { massima dimensione di un sottospazio vettoriale W di V su cui φ

∣∣W

edefinito positivo, ossia2 ∀w ∈W,w 6= 0, φ(w,w) > 0}. Basta allora provare che p = pφ.

1. poiche su Span(

v1√a11, . . . ,

vp√app

), φ e definito positivo allora pφ ≥ p.

2Conviene considerare questa proprieta solo nei prodotti scalari definiti su campi con ordinamento.

Page 81: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.4. FORME QUADRATICHE REALI 81

2. Sia W un sottospazio vettoriale di V tale che φ∣∣W

e definito positivo e dimW = pφ. Siaora

Z = Span(zp+1, . . . , zr, . . . zn)

Dico che W ∩ Z = {0} , infatti se per assurdo esistesse v 6= 0, v ∈ W ∩ Z allorav ∈ W ⇒ φ(v, v) > 0 visto che il prodotto scalare e definito positivo. Ma se v ∈ Zallora v = cp+1zp+1 + . . . + cnzn ⇒ φ(v, v) = c2p+1φ(zp+1, zp+1) + . . . + c2nφ(zn, zn) ≤ 0visto che φ(zi, zj) ≤ 0,∀i, j. Ma questo e assurdo , quindi deve valere necessariamenteW ∩ Z = {0} dunque W ⊕ Z ⊂ V e quindi n ≥ pφ + n− p da cui p ≥ pφ.

Facciamo un riassunto delle nozioni scoperte fino ad ora.

Riassunto

Sia V,K-spazio vettoriale ; φ prodotto scalare su V .

1. ∃B base di V tale che mB(φ) e diagonale , infatti basta prendere vettori ortogonali in φ.

2. Se K = C , rk(φ) = r , ∃ B tale che mB(φ) =

(Ir 00 0

)

3. Se K = R , ∃p ∈ N , dipendente solo da φ , ∃B base tale che mB(φ) =

Ip 0 00 Ir−p 00 0 0

Versione matriciale

A ∈M(n,K) simmetrica associata al prodotto scalare (x, y)→ t xAy

1. A e congruente ad una matrice diagonale visto che si puo prendere una base ortogonalee diagonalizzare il prodotto scalare.

2. Se K = C, A e congruente alla matrice

(Ir 00 0

). Quindi nella classe di congruenza di

A c’e sempre questo rappresentante. Dunque A e B sono congruenti ⇔ rk(A) = rk(B)

visto che devono essere entrambe congruenti alla matrice

(Ir 00 0

).

3. Se K = R , A e congruente ad una matrice del tipoIp 0 00 Ir−p 00 0 0

Questo rappresentante della classe di congruenza e unico perche p dipende solo dalprodotto scalare

Page 82: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

82 CAPITOLO 10. FORME BILINEARI

10.5 Calcolo della segnatura

Definizione 10.16 (Segnatura). Denoteremo con

� i+(φ) = p = massima dimensione dei sottospazi W di V sui quali φ∣∣W

e definitapositiva=indice di positivita di φ.

� i−(φ) = r − p =indice di negativita

� i0(φ) = n− r = dimV ⊥ =indice di nullita

La terna σ(φ) = (i+, i−, i0) e detta segnatura di φ.

Osservazione 124.

� i+ + i− + i0 = n = dimV

� i+ + i− = rk(φ) = r

Osservazione 125.A e B sono congruenti ⇔ A e B hanno la stessa segnatura con A e B matrici simmetrichereali. Dunque la segnatura e un invariante completa per congruenza se K = R.

Osservazione 126.Se K = R c’e un altro invariante. Supponiamo che B = t MAM ,M ∈ GL(n). Dunque

det(B) = det(A) · det(M)2

per Binet. Quindi sgn(detB) = sgn(detA) , ovvero il segno del determinante e un invariantedi congruenza per K = R.

Osservazione 127.φ definito positivo⇒ φ non degenere. Infatti se v ∈ V ⊥ ⇒ φ(v, w) = 0,∀w ∈ V, v 6= 0. Quindiin particolare φ(v, v) = 0 che contrasta con l’ipotesi di prodotto scalare definito positivo.

Osservazione 128.Se φ e definito positivo allora ∀W sottospazio vettoriale di V φ

∣∣W

e definito positivo. Infattidovrei mostrare che ∀w ∈W,w 6= 0⇒ φ(w,w) > 0. Ma w ∈ V per la definizione di inclusionetra insiemi e quindi se φ e definito positivo su V allora φ(w,w) > 0⇒ φ

∣∣W

e definito positivo.

Osservazione 129.Vediamo un esercizio per illustrare la procedura per calcolare la segnatura di un prodotto

scalare. Prendiamo la matrice A = mB(φ) =

(a bb c

): questa rappresenta un prodotto scalare

su R2. Dato che a = φ(e1, e1) allora per avere un prodotto scalare definito positivo deve essereφ(e1, e1) > 0 . Analogamente quindi c = φ(e2, e2) > 0. Questa e una condizione necessariama non sufficiente , quindi vediamo se esistono altre proprieta interessanti. Si osservi che seil prodotto scalare fosse definito positivo allora la matrice mB(φ) sarebbe congruente ad una

del tipo

(1 00 1

)dato che la segnatura e (2,0,0). Dato che si deve conservare il segno del

determinante deve essere necessariamente ac− b2 > 0⇒ b2 < ac. Abbiamo quindi trovato lecondizioni

φ(e1, e1) > 0

b2 < ac

φ(e2, e2) > 0

⇐ φ definito positivo (10.18)

Page 83: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.6. SPAZI EUCLIDEI 83

Vediamo se vale anche il viceversa, ovvero se queste condizioni si possono considerare suf-

ficienti. Poiche ac − b2 6= 0 ⇒ i0 = 0. Inoltre a = m(φ∣∣Span(e1)

)⇒ φ

∣∣Span(e1)

e definito

positivo⇒ i+(φ) ≥ 1. Le possibilita per scegliere i+ (dopo questa scelta i− e univocamentedeterminato ) sono quindi i+(φ) = 1, 2. Se fosse i+(φ) = 1 , A sarebbe congruente ad una

matrice del tipo

(1 00 −1

)che ha determinante negativo. Se invece i+(φ) = 2, A sarebbe

congruente ad una matrice

(1 00 1

)che ha determinante positivo. Ma dato che det(A) > 0

deve valere necessariamente i+(φ) = 2 e quindi σ(φ) = (2, 0, 0).

Definizione 10.17. A ∈ M(n,R) si dice definita positiva se il prodotto scalare su Rn ,(x, y)→ t xAy e definito positivo.

Proposizione 10.5.1. Sono fatti equivalenti

1. A e definita positiva

2. ∃N ∈ GL(n,R) tale che A = t NN

3. ∀i = 1, . . . , n,Di > 0 dove Di e il determinante di Mi ed Mi sono i minori principali diA costruiti scegliendo le prime i righe e i colonne.

Dimostrazione. .(1) ⇒ (2) infatti se A e definita positiva allora i+(φ) = n, i−(φ) = i0(φ) = 0. Dunque A econgruente all’identita che e la tesi contenuta nella (2).(1) ⇒ (3) : devo dimostrare che det(Mi) > 0 ∀i. Si ha det(M1) = φ

∣∣Span(e1)

> 0 . Inoltre

det(Mn) = det(A) > 0 visto che A e definita positiva. Ma allora anche det(Mi) > 0 , infatti lematrici Mi rappresentano le restrizioni a qualsiasi sottospazio del prodotto scalare φ e questecontinuano ad essere non degeneri (vedi osservazione 127 ) , quindi Di > 0,∀i.

10.6 Spazi euclidei

Definizione 10.18. Si chiama spazio euclideo ogni sottospazio vettoriale reale dotato di unprodotto scalare definito positivo.

Definizione 10.19 (norma). Sia (V, φ) euclideo. La funzione

||.|| : V → R

v → ||v|| =√φ(v, v)

(10.19)

e detta norma.

Proposizione 10.6.1. Valgono le proprieta

1. ||v|| ≥ 0, ∀v ∈ V e ||v|| = 0⇔ v = 0

2. λ ∈ R,∀v ∈ V, ||λv|| = |λ| · ||v||

3. ∀v, w ∈ V |φ(v, w) ≤ ||v|| · ||w|| : diseguaglianza di Schwarz

4. ∀v, w ∈ V ||v + w|| ≤ ||v||+ ||w|| : diseguaglianza triangolare

Page 84: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

84 CAPITOLO 10. FORME BILINEARI

Dimostrazione. La prima e la seconda sono ovvie(3) : Se v = 0 o w = 0 vale. Se invece v 6= 0 o w 6= 0 allora

φ(tv + w, tv + w) ≥ 0⇒ t2φ(v, v) + 2tφ(v, w) + φ(w,w) ≥ 0∀t

Quindi il discriminante di questa equazione deve essere non positivo

4= φ(v, w)2 − φ(v, v)φ(w,w) ≤ 0⇒ φ(v, w)2 ≤ ||v||2 · ||w||2

che e la tesi al quadrato.(4) : segue dalla (3)

Definizione 10.20 (distanza). Sia

d : V × V → R(x, y)→ ||x− y||

(10.20)

La funzione d e detta distanza ed ha le proprieta

1. d(x, y) ≥ 0,∀x, y e d(x, y) = 0⇔ x = y

2. d(x, y) = d(y, x)

3. d(x, z) ≤ d(x, y) + d(y, z), ∀x, y, z ∈ VOsservazione 130.

1. In uno spazio euclideo non esistono vettori isotropi e non nulli.

2. prodotto scalare definito positivo implica prodotto scalare non degenere

3. Se φ e definito positivo , ∀ sottospazio W , φ∣∣W

e definito positivo. Ma allora W ⊕W⊥ed esistono le proiezioni ortogonali

prW : V →W prW⊥ : V →W⊥

Se {w1, . . . , wk} e base ortogonale di W ,{wk+1, . . . , wn} e base ortogonale di W⊥ , allora

{w1, . . . , wk, . . . , wn}

e base ortogonale di V . Dunque ∀v ∈ V si ha

v =φ(v, w1)

φ(w1, w1)w1 + . . .+

φ(v, wn)

φ(wn, wn)wn

e dunque

prW (v) =φ(v, w1)

φ(w1, w1)w1 + . . .+

φ(v, wk)

φ(wk, wk)wk

Definizione 10.21 (ortonormale). Una base {v1, . . . , vn} si dice ortonormale ( rispetto a φ )se e ortogonale e φ(vi, vi) = 1,∀i = 1, . . . , n.

Osservazione 131.Ogni spazio euclideo ammette almeno una base ortonormale (basta normalizzare i vettori diuna base ortogonale, che esiste sempre per le proprieta degli spazi euclidei).

Osservazione 132.Se B e ortonormale , allora mB(φ) = I , dunque ∀v, w ∈ V si ha

φ(v, w) = t [v]BI[w]B = xy

Page 85: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.6. SPAZI EUCLIDEI 85

10.6.1 Ricerca di basi ortonormali

Sia {v1, . . . , vn} una base di V . Presentiamo un algoritmo per trovare una base {v′1, . . . , v′n}ortonormale.

� Poniamo v′1 = v1

� Prendiamo

v′2 = v2 −φ(v2, v

′1)

φ(v′1, v′1)v′1

Questo vettore e ortogonale a v′1 e inoltre Span(v1, v2) = Span(v′1, v′2) quindi sono vettori

linearmente indipendenti : infatti v′1, v′2 ∈ Span(v1, v2).

� Cerco ora un v3 tale che

– Span(v′1, v′2, v′3) = Span(v1, v2, v3)

– {v′1, v′2, v′3} e base ortogonale di Span(v1, v2, v3)

Basta sottrarre a v3 la sua proiezione ortogonale su Span(v′1, v′2) = V ′2 . Poiche v′1, v

′2 sono

ortogonali conosciamo l’espressione analitica della proiezione ortogonale su V ′2 . Infatti

prV ′2 : V → V ′2

x→ φ(x, v′1)

φ(v′1, v′1)v′1 +

φ(x, v′2)

φ(v′2, v′2)v′2

(10.21)

Dunque basta porre

v′3 = v3 −φ(v3, v

′1)

φ(v′1, v′1)v′1 −

φ(v3, v′2)

φ(v′2, v′2)v′2

Si osserva che v′3 ∈ Span(v′1, v′2, v′3) = Span(v1, v2, v3). Inoltre la matrice che contiene le

coordinate di {v′1, v′2, v′3} rispetto alla base {v1, v2, v3} e triangolare superiore dunque ivettori sono indipendenti , ovvero {v′1, v′2, v′3} e una base ortogonale di Span(v1, v2, v3).

� Itero il procedimento ponendo , ∀j

v′j = vj −j−1∑i=1

φ(vj , v′i)

φ(v′i, v′i)v′i (10.22)

� Alla fine ottengo una base ortogonale {v′1, . . . , v′n}

� Basta normalizzare ponendo wi =v′i||v′i||

Il risultato e quindi il seguente

Teorema 10.6.2 (di ortonormalizzazione di Gram-Schmidt). Sia (V, φ) spazio euclideo. {v1, . . . , vn}base di V . Allora ∃ una base ortonormale {w1, . . . , wn} di V tale che Span(w1, . . . , wj) =Span(v1, . . . , vj),∀j = 1, . . . , n.

Page 86: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

86 CAPITOLO 10. FORME BILINEARI

10.7 Matrici ortogonali

Definizione 10.22. M ∈M(n,R) si dice ortogonale se tMM = M tM = I. Denotiamo con

O(n) = {M ∈M(n,R) : M e ortogonale}

Osservazione 133.

1. M ∈ O(n) ⇒ M ∈ GL(n) e M−1 = t M , infatti det(I) = 1 = det( tM) det(M) =det2M 6= 0

2. M ∈ O(n)⇒ le righe e le colonne di M formano una base ortonormale su Rn.

3. O(n) dotato del prodotto e un gruppo , detto gruppo ortogonale.

4. Se A ∈ O(n) , det(A) = ±1.

SO(n) = {A ∈ O(n) : detA = 1}

e un gruppo , detto gruppo ortogonale speciale.

Osservazione 134.

O(2) =

{(cosα − sinαsinα cosα

): α ∈ R

}⋃{(cosα sinαsinα − cosα

): α ∈ R

}(10.23)

Proposizione 10.7.1. (V, φ) spazio euclideo. Siano B = {v1, . . . , vn} base ortonormale eB′ = {w1, . . . , wn} base di V . Se M e la matrice del cambiamento di base da B′ a B allora B′e ortonormale ⇔M e ortogonale.

Dimostrazione. M e la matrice associata a VB′id−→ VB per la quale [wi]B = M i. Allora , dato

che I e la matrice associata nella base B si ha

φ(wi, wj) = t [wi]BI[wj ]B = t (M i)M j = ( tM)iMj = [ tMM ]ij

Quindi se B′ e ortonormale

φ(wi, wj) =

{1 , i = j

0 , i 6= j

che e la definizione della matrice identita quindi tMM = I che coincide con la definizione diortogonalita.

Definizione 10.23 (endormorfismi simmetrici). (V, φ) spazio euclideo. f ∈ End(V ) si dicesimmetrico ( o autoaggiunto) se φ(f(x), y) = φ(x, f(y))∀x, y ∈ V .

Proposizione 10.7.2. Sia B base ortonormale di V e sia A = mB(f). Allora f e simmetrica⇔ A e simmetrica.

Dimostrazione. Si ha

φ(f(x), y) = t [f(x)]BI[y]B = t (A[x]B)[y]B = t [x] tBA[y]B

D’altra parteφ(x, f(y)) = t [x]BI[f(y)]B = t [x]BA[y]B

Bisogna verificare quindi che t[x]BA[y]B = t [x] tBA[y]B, ∀x, y. Dato che l’uguaglianza devevalere ∀x, y si puo concludere che deve valere tA = A , che conclude la dimostrazione.

Page 87: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.7. MATRICI ORTOGONALI 87

10.7.1 Teorema spettrale

Risulta quindi naturale chiedersi quando esiste una base di V ortonormale per φ e di autovet-tori di f (base spettrale). Infatti in questo caso la matrice associata sarebbe diagonale e l’en-domorfismo f sarebbe simmetrico.Presentiamo prima un lemma che ci permettera di capirel’appartenenza degli autovalori al campo reale o complesso , oltre a dimostrare il teoremaspettrale.

Lemma 10.7.3. A ∈M(n,R) simmetrica. Allora tutti gli autovalori di A sono reali.

Dimostrazione. Sia A : Cn → Cn con xA−→ Ax. Sia λ ∈ C autovalore di A : allora esiste

x ∈ Cn, x 6= 0 tale che Ax = λx⇒ Ax = λx⇒ Ax = λx Calcoliamo{txAx = t x(Ax) = t xλx

( txA)x = t (Ax)x = λ txx⇒ (λ− λ) txx = 0 (10.24)

Ma txx = x1x1+. . .+xnxn = |x1|2+. . .+|xn|2 ∈ R Dunque |x1|2+. . .+|xn|2 = 0⇔ x = 0 cheno e possibile per l’ipotesi. Quindi l’unica possibilita e che sia λ−λ = 0⇒ λ = λ⇒ λ ∈ R.

Teorema 10.7.4 (spettrale). Sia (V, φ) spazio euclideo di dimensione finita , dimV = n. Siaf ∈ End(V ) simmetrico. Allora ∃ base di V ortonormale e di autovettori per f

Dimostrazione. Per induzione su dimV = n. Per n = 1 e ovvio , infatti basta prenderequalsiasi base ortonormale che e una base di autovettori per f . Supponiamo ora n ≥ 2 :dobbiamo provare che (n − 1) ⇒ (n). Sia S una base ortonormale di V ⇒ A = mS(f) esimmetrica. Per il lemma esiste λ autovalore reale di A ( e quindi di f ). Sia v1 6= 0 conv1 ∈ V (λ, f) , cioe f(v1) = λv1 ; supponiamo ||v1|| = 1. Sia V1 = Span(v1) che e ovviamenteun sottospazio f−invariante. φ

∣∣V1

e definito positivo e quindi non degenere , quindi e possibilefare lo spezzamento

V = V1⊕

V ⊥1

Sappiamo che f∣∣V1

e un endomorfismo visto che V1 e f -invariante , quindi f∣∣V1

: V1 → V1 .

Se riuscissimo a provare che anche f∣∣V ⊥1

e un endomorfismo , ovvero che V ⊥1 e f -invariante e

quindi f∣∣V ⊥1

: V ⊥1 → V ⊥1 , potremmo costruire in modo naturale una base di autovettori per f

unendo le due basi di V1 e V ⊥1 e ortonormalizzando. Voglio quindi provare che f(V ⊥1 ) ⊂ V ⊥1 ,ovvero che ∀x ∈ V ⊥1 , f(x) ∈ V ⊥1 . Per verificare questo dobbiamo mostrare che φ(f(x), v1) = 0.Calcoliamo quindi

φ(f(x), v1) = φ(x, f(v1)) = φ(x, λv1) = λφ(x, v1) = 0

Dove abbiamo usato rispettivamente la condizione di simmetria su f e il fatto che x ∈ V ⊥1nell’ultima uguaglianza. Dunque f

∣∣V ⊥1

: V ⊥1 → V ⊥1 e un endomorfismo , quindi posso applicare

l’ipotesi induttiva a V ⊥1 , φ∣∣V ⊥1, f∣∣V ⊥1

: infatti dimV ⊥1 = n− 1 , φ∣∣V ⊥1

e definito positivo perche

lo era su V e f∣∣V ⊥1

e un endomorfismo per quanto visto prima. Dunque esiste sicuramente

una base {v2, . . . , vn} di V ⊥1 ortonormale per φ e di autovettori per f∣∣V ⊥1

, e quindi anche

per f . La base di V e data quindi da {v1, . . . , vn} : si deve verificare se questa e una baseortonormale. I vettori sono linearmente indipendenti visto che appartengono a sottospazi insomma diretta , inoltre sono ortogonali perche provengono da sottospazi ortogonali. Inoltresono autovettori per f visto che , per ipotesi , f(v1) = λv1 mentre {v2, . . . , vn} sono una basedi V ⊥1 .

Page 88: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

88 CAPITOLO 10. FORME BILINEARI

Osservazione 135.Se f simmetrica e H e un sottospazio di V f -invariante allora H⊥ e f -invariante.

Dimostrazione. Provo che f(H⊥) ⊂ H⊥ , ovvero ∀x ∈ H⊥, f(x) ⊂ H⊥. Devo quindi mostrareche f(x) e ortogonale a tutti i vettori di H , ovvero che ∀x ∈ H⊥,∀y ∈ H ⇒ φ(f(x), y) = 0.Ma

φ(f(x), y) = φ(x, f(y)) = 0 visto che x ∈ H⊥, f(y) ∈ H

Osservazione 136.Sia A ∈ M(n,R) simmetrica , A : Rn → Rn. Per il teorema spettrale esiste una base Sortonormale di autovettori per A. Definiamo mC(A) = A,mS(A) = D diagonale. Sia M lamatrice del cambiamento di base da C ad S , dunque M−1AM = D . Ma M ∈ O(n) quindiM−1 = t M e dunque M−1AM = t MAM = D diagonale.

Teorema 10.7.5. ∀A ∈M(n,R) simmetrica esiste M ∈ O(n) tale che M−1AM = t MAM =D diagonale= mS(b)

Corollario 10.7.6. Si ha che

� i+(A) =numero autovalori positivi di A

� i−(A) =numero autovalori negativi di A

� i0(A) =numero autovalori nulli di A

Proposizione 10.7.7. A ∈ M(n,R) simmetrica. Siano λ, µ due autovalori di A distinti.Allora V (λ), V (µ) sono sottospazi ortogonali.

Dimostrazione. Quindi ∀x ∈ V (λ), ∀y ∈ V (µ) deve essere φ(x, y) = 0. Calcoliamo (moltipli-cando per λ)

λφ(x, y) = φ(λx, y) = φ(Ax, y) = φ(x,Ay) = φ(x, µy) = µφ(x, y)⇒ (λ− µ)φ(x, y) = 0

Ma , dato che λ e µ sono distinti λ 6= µ⇒ φ(x, y) = 0

10.8 Applicazioni ortogonali

Sia ora (V, φ) spazio euclideo.

Definizione 10.24 (applicazione ortogonale). f ∈ End(V ) si dice applicazione ortogonale (o isometria ) se φ(f(x), f(y)) = φ(x, y),∀x, y ∈ V

Osservazione 137.f ortogonale⇒ f isomorfismo. Infatti basta provare che f e iniettiva. Se per assurdo esistessex ∈ ker(f) con x 6= 0 allora 0 = φ(f(x), f(x)) = φ(x, x) per la definizione di applicazioneortogonale, il che assurdo quindi deve essere necessariamente ker(f) = {0} che e la definizionedi applicazione iniettiva, ovvero di isomorfismo.

Osservazione 138.Sia B base ortonormale e sia A = mB(f). Allora f e una applicazione ortogonale⇔ A ∈ O(n)

Page 89: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

10.8. APPLICAZIONI ORTOGONALI 89

Dimostrazione. Vale che

φ(f(x), f(y)) = t [f(x)]BI[f(y)]B = t [x] tBAA[y]B

D’altra parte

φ(x, y) = t [x]B[y]B

Quindi f e ortogonale ⇔ t [x]B[y]B = t [x] tBAA[y]B ⇔ t AA = I , ovvero ⇔ A ∈ O(n).

Osservazione 139.Se A ∈ O(n), A : Rn → Rn e una isometria.

Osservazione 140.

O(V ) = {f ∈ End(V ) : f ortogonale}

Allora f ∈ O(V )⇒ φ(f(x), f(x)) = φ(x, x)⇒ ||f(x)||2 = ||x||2 quindi ∀x ∈ V, ||f(x)|| = ||x||,ovvero le applicazioni ortogonali conservano la norma.

Proposizione 10.8.1. Sono fatti equivalenti

1. f ortogonale

2. ||f(x)|| = ||x||, ∀x ∈ V

3. Se B e una base ortonormale allora f(B) e una base ortonormale.

Dimostrazione. .(1)⇒ (2) : visto sopra.(1)⇒ (3) : Prendo B = {v1, . . . , vn} base ortonormale. {f(v1), . . . , f(vn)} e una base perche fe un isomorfismo. Questi vettori sono anche ortogonali perche φ(f(vi), f(vj)) = φ(vi, vj) = 0per ipotesi. Inoltre questi vettori si possono normalizzare quindi sono la base cercata.(2)⇒ (1) : Sappiamo che la proprieta e vera per x = y. Per provarla anche nel caso x 6= y sipuo usare la formula di polarizzazione prendendo

φ(x, y) =φ(x+ y, x+ y)− φ(x, x)− φ(y, y)

2

Per ipotesi questa e uguale a

φ(x, y) =φ(f(x+ y), f(x+ y))− φ(f(x), f(x))− φ(f(y), f(y))

2

=φ(f(x) + f(y), f(x) + f(y))− φ(f(x), f(x))− φ(f(y), f(y))

2

=φ(f(x), f(x)) + φ(f(y), f(y)) + 2φ(f(x), f(y))− φ(f(x), f(x))− φ(f(y), f(y))

2= φ(f(x), f(y))

(10.25)

(3) ⇒ (1) : Sia B = {v1, . . . , vn} base ortonormale. Voglio provare che ∀x, y : φ(x, y) =φ(f(x), f(y)). Scriviamo

x =∑i

αivi y =∑i

βivi

Page 90: Appunti di Geometria 1 - Guido Cioni · 6 CAPITOLO 1. NOZIONI INSIEMISTICHE De nizione 1.3 (Sottoinsieme proprio). L’insieme AˆB e sottoinsieme proprio se A6= B, ossia 9b2B: b=2A

90 CAPITOLO 10. FORME BILINEARI

Dunque

φ(x, y) = φ

∑i

αivi,∑j

βjvj

=∑i

αiβi

infatti φ(vi, vj) = 0⇔ i 6= j e φ(vi, vj) = 1 per i = j. D’altra parte

φ(f(x), f(y)) = φ

f (∑i

αivi

), f

∑j

βjvj

= φ

∑i

αif(vi),∑j

βjf(vj)

=∑i,j

αiβjφ(f(vi), f(vj)) =∑i

αiβi

(10.26)

infatti anche f(B) e una base ortonormale per ipotesi.

Osservazione 141.Sia f ∈ O(V ) e H un sottospazio vettoriale di V , f -invariante. Allora H⊥ e f -invariante.

Dimostrazione. Provo che f(H⊥) ⊂ H⊥ , ovvero ∀x ∈ H⊥, f(x) ∈ H⊥ , cioe ∀x ∈ H⊥,∀y ∈ Hdevo mostrare che φ(f(x), y) = 0. Ma y ∈ Imm(f) perche f e un isomorfismo. Quindi ∃z ∈ Vtale che y = f(z). Dato che f(H) ⊂ H ed f e isomorfismo allora deve essere necessariamentef(H) = H. Quindi f(z) ∈ H ⇒ z ∈ H. Dunque φ(f(x), y) = φ(f(x), f(z)) con z ∈ H.Dunque per l’ipotesi di ortogonalita su fsi ha che

φ(f(x), f(z)) = φ(x, z) = 0

visto che x ∈ H⊥, z ∈ H.