noter til lineær algebra · 1.6 skift af basis den naturlige basis for r2 er de to...
TRANSCRIPT
Noter til Lineær Algebra
– Eksamensnoter til LinAlg
Martin Sparre, www.logx.dk,
August 2007,
Version π8
9450.
INDHOLD 2
Indhold
0.1 Om disse noter . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Abstrakte vektorrum 4
1.1 Definition af et vektorrum . . . . . . . . . . . . . . . . . . . . 4
1.2 Underrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 En matrices nulrum . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Lineær uafhængighed . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Basis og dimension . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Skift af basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Rækkerum og søjlerum . . . . . . . . . . . . . . . . . . . . . . 9
2 Lineære afbildninger 11
2.1 Definition af en lineær afbildning . . . . . . . . . . . . . . . . 11
2.2 Matrixrepræsentation af lineære afbildninger . . . . . . . . . 12
2.3 Similære matricer . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Egenværdier 15
3.1 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . 15
3.2 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4 Ortogonalisering 17
4.1 Skalarproduktet i Rn . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Indre produkt rum . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3 Ortonormale systemer . . . . . . . . . . . . . . . . . . . . . . 19
4.4 Ortogonale matricer . . . . . . . . . . . . . . . . . . . . . . . 20
4.5 Gram-Schmidt ortogonalisering . . . . . . . . . . . . . . . . . 21
5 Fourieranalyse 23
5.1 Ortonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Fourierrækker . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.3 Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . 25
INDHOLD 3
0.1 Om disse noter
Disse noter indeholder en stor del af eksamensensum til LinAlg-kurset pa
Københavns Universitet (2006). Dog er emnerne lineære ligningssystemer,
Gauss-Elimination/Gauss-Jordan Elimination, matrixalgebra og determi-
nanter ikke medtaget.
Versionsnummeret er givet ved
∞∑
k=1
1
k2p, hvor p stiger med 1, nar der
udkommer en ny version.
Martin Sparre
www.logx.dk
1 ABSTRAKTE VEKTORRUM 4
1 Abstrakte vektorrum
1.1 Definition af et vektorrum
Lad mængden V være et vektorrum og lad x,y ∈ V . Da gælder
αx ∈ V, α ∈ R og x + y ∈ V.
For x,y, z ∈ V og α, β ∈ R opstilles følgende aksiomer:
(x + y) + z = x + (y + z)
y + 0 = y (0 kaldes 0-elementet)
x + (−x) = 0
x + y = y + x
α(x + y) = αx + αy
(α + β)x = αx + βx
(αβ)x = α(βx)
1x = x.
Elementerne i et vektorrum kaldes for vektorer.
Her følger nogle eksempler pa vektorrum og elementer i disse:
Eksempel 1 (Vektorrummet Rn) Talrummene R
n er vektorrum. Her er
et eksempel pa vektorer i henholdsvis R3 og R
5:
x =
4
7
42
, y =
−12
5
1
9
1
. ⊳
Eksempel 2 (Vektorrummet Rm×n) Mængden af alle m × n matricer
er et vektorrum og betegnes Rm×n. Her er et eksempel pa en vektor i R
3×2:
A =
42 13
2 4
−1 9801
. ⊳
1 ABSTRAKTE VEKTORRUM 5
Eksempel 3 (Vektorrummet Pn) Med Pn betegnes mængden af poly-
nomier af grad strengt mindre end n. Der gælder, at Pn er et vektorrum.
Her ses eksempler pa en vektor i P3:
p(x) = 2x2 − 4x − 12. ⊳
Eksempel 4 (Vektorrummet C[a, b]) Det kan vises, at mængden, som
bestar af alle kontinuerte funktioner defineret pa et interval [a; b], udgør et
vektorrum. Dette vektorrum betegnes C[a, b]. Et eksempel pa en vektor i
C[−1, 1]:
f(x) = tan(x). ⊳
Eksempel 5 (Vektorrummet Cn[a, b] ) Mængden af alle n gange konti-
nuert differentiable funktioner pa et interval [a; b] udgør et vektorrum, kaldet
Cn[a, b]. ⊳
1.2 Underrum
Lad V være et vektorrum og lad S ⊆ V . Hvis S er en ikke-tom delmængde
af V , sa kaldes S et underrum af V , hvis følgende gælder:
αx ∈ S, for alle x ∈ S og alle α ∈ R, (i)
x + y ∈ S for alle x,y ∈ S. (ii)
Betingelses (i) siger, at S er lukket under skalarmultiplikation og (ii) siger,
at S er lukket under addition af elementer i S.
I ethvert vektorrum V gælder der, at V og {0} er underrum. Disse to
vektorrum kaldes trivielle underrum.
Der gælder generelt, at alle underrum i sig selv er vektorrum.
1.3 En matrices nulrum
Lad A være en m× n matrix. Sa betegner N(A) mængden af alle løsninger
til ligningen Ax = 0. Der gælder, at
N(A) = {x ∈ Rn|Ax = 0} .
1 ABSTRAKTE VEKTORRUM 6
Til at finde nulrummet for en matrix udføres Gauss elimination eller Gauss-
Jordan elimination og herudfra bestemmes løsningsrummet N(A) til lignig-
nen Ax = 0.
Eksempel 6 (Bestemmelse af nulrum) Lad
A =
(
1 1 1 0
2 1 0 1
)
.
Efter Gauss-Jordan elimination fas:(
1 0 −1 1
0 1 2 −1
)
.
Ligningssystemet tilsvarende denne matrix er:
x1 = x3 − x4
x2 = −2x3 + x4.
Ved at sætte x3 = α og x4 = β fas, at
N(A) = span
1
−2
1
0
,
−1
1
0
1
,
hvor span angiver mængden, som udspændes af de to vektorer. ⊳
1.4 Lineær uafhængighed
Definition 1 (Lineær uafhængighed) Vektorerne v1,v2, . . . ,vn ∈ V er
lineært uafhængige hvis udsagnet,
α1v1 + α2v2 + . . . + αnvn = 0,
kun er sandt, nar α1, α2, . . . , αn er 0. ⊳
Definition 2 (Lineær afhængighed) Vektorerne v1,v2, . . . ,vn ∈ V er
lineært afhængige, hvis udsagnet er sandt,
α1v1 + α2v2 + . . . + αnvn = 0,
selvom ikke alle α1, α2, . . . , αn er 0. ⊳
1 ABSTRAKTE VEKTORRUM 7
For at afgøre om n vektorer, x1,x2, . . . ,xn i Rn er lineært afhængige kan
man opskrive matricen,
X = (x1,x2, . . . ,xn) .
Vektorerne er lineært afhængige hvis og kun hvis det (X) = 0.
En anden made at teste, hvorvidt en samling af vektorer er lineært af-
hængige, er, at opskrive en matrix med de givne vektorer som søjlevektorer.
Efter Gauss-elimination af matricen er der en nulrække, hvis og kun hvis de
givne vektorer er lineært afhængige.
Hvis man har m vektorer i Rn og m > n er de m vektorer altid lineært
afhængige.
1.5 Basis og dimension
Definition 3 (En basis for et vektorrum) Vektorerne v1,v2, . . . ,vn er
en basis for vektorrummet V , hvis og kun hvis
(i) v1,v2, . . . ,vn er lineært uafhængige,
(ii) v1,v2, . . . ,vn udspænder V. ⊳
Definition 4 (Dimensionen af et vektorrum) Lad V være et vektor-
rum. Hvis V har en basis, der bestar af n vektorer, sa har V dimension n.
Specielt defineres at underrummet {0} af V har dimension 0. ⊳
1.6 Skift af basis
Den naturlige basis for R2 er de to standardenhedsvektorer e1, e2. I stedet
for disse kunne man vælge at beskrive vektorer i R2 ud fra en anden basis;
eksempelvis vektorerne,
u1 =
(
3
2
)
, u2 =
(
1
1
)
,
som her er angivet i forhold til den naturlige basis.
Ved at bruge u1 og u2 som basisvektorer vil man ofte fa brug for at løse
følgende problemer:
1 ABSTRAKTE VEKTORRUM 8
1. Givet en vektor x = (x1, x2)T mht. e1 og e2, find dennes koordinater
mht. u1 og u2.
2. Givet en vektor c1u1 + c2u2 find dennes koordinater mht. e1 og e2.
Først løses problem 2. Det ses, at
u1 = 3e1 + 2e2,
u2 = e1 + e2.
Dvs.,
c1u1 + c2u2 = 3c1e1 + 2c1e2 + c2e1 + c2e2
= (3c1 + c2)e1 + (2c1 + c2)e2.
Ved at sætte U = (u1,u2) og c = (c1, c2)T fas:
x = U c. (1.1)
Nu er problem 2 saledes løst.
U er sammensat af lineært uafhængige basisvektorer, hvorfor U er inver-
tibel. Det følger af (1.1), at løsningen til problem 1 er
c = U−1 x.
Nu betragtes et mere generelt basisskift fra [v1,v2] til [u1,u2]. For at ga
fra [v1,v2] til [e1, e2] skal den oprindelige koordinatvektor multipliceres med
V . For at ga fra [e1, e2] til [u1,u2] skal der multpliceres med U−1 saledes,
at koordinattransformationsmatricen bliver U−1V . Koordinattransformatio-
nen illustreres her:
[v1,v2]V
//
U−1V %%K
K
K
K
K
K
K
K
K
[e1, e2]
U−1
��
[u1,u2]
.
I det netop gennemregnede eksempel optradte, der vektorer i R2. Proceduren
mht. basisskift kan dog let oversættes til ethvert andet endelig dimensionalt
vektorrum;
1 ABSTRAKTE VEKTORRUM 9
Definition 5 Lad V være et vektorrum med den tilhørende ordnede basis
E = [v1,v2, . . . ,vn]. Hvis v er et element i V , sa kan v skrives som
v = c1v1 + c2v2 + . . . + cnvn,
hvor c1, c2, . . . , cn er skalarer. Vektoren v ∈ V kan præsenteres af vektoren
c = (c1, c2, . . . , cn)T i Rn. Vektoren c kaldes koordinatvektoren af v mht. den
ordnede base E og betegnes [v]E . ci’erne er koordinaterne af v med hensyn
til E. ⊳
1.7 Rækkerum og søjlerum
I dette delafsnit præsenteres en række af de vigtigste sætninger og defini-
tioner angaende rækkerum og søjlerum. Først præsenteres definitionen af
rækkerum og søjlerum;
Definition 6 Lad A være en m × n matrix. Underrummet af R1×n som
udspændes af matricens rækkevektorer kaldes rækkerummet for A. Under-
rummet af Rm, som udspændes af søjlevektorerne i A, kaldes søjlerummet
for A. ⊳
Sætning 1 To rækkeækvivalente matricer har samme rækkerum. ⊳
Definition 7 (Rang) Rangen af en matrix A er dimensionen af rækkerum-
met for matricen A. ⊳
Eksempel 7 Lad
A =
1 −2 3
2 −5 1
1 −4 −7
.
Ved at udføre Gauss-elimination fas
U =
1 −2 3
0 1 5
0 0 0
.
Rækkerummet for matricerne A og U er saledes udspændt af de to vektorer
(1,−2, 3)T og (0, 1, 5)T . Rangen af begge matricer er 2. ⊳
1 ABSTRAKTE VEKTORRUM 10
Sætning 2 (Konsistens af lineære systemer) Et lineært system Ax =
b er konsistent, hvis og kun hvis b er indeholdt i søjlerummet for A. ⊳
I øvrigt gælder der, at summen af rangen og dimensionen af nulrummet
altid er lig antallet af søjler i en matrix.
Sætning 3 Hvis A er m×n, sa er dimensionen af rækkerummet lig dimen-
sionen af søjlerummet. ⊳
2 LINEÆRE AFBILDNINGER 11
2 Lineære afbildninger
2.1 Definition af en lineær afbildning
Definition 8 En afbildning L : V −→ W er en lineær afbildning, hvis
L(αv1 + βv2) = αL(v1) + βL(v2),
for alle v1,v2 ∈ V og for alle skalarer α og β. ⊳
Heraf følger, at en afbildning er lineær, hvis og kun hvis den opfylder
følgende:
1. L(v1 + v2) = L(v1) + L(v2).
2. L(αv) = αL(v).
Eksempel 8 Betragt operatoren L : R2 −→ R
2 defineret ved
L(x) = (−x2, x1)T .
Det kan let eftervises, at L er en lineær afbildning:
L(αx + βy) =
(
−αx2 − βy2
αx1 + βy1
)
=
(
−αx2
αx1
)
+
(
−βy2
βy1
)
= αL(x) + βL(y)
Det er hermed vist, at afbildningen er lineær. ⊳
Definition 9 (Kernen af en lineær afbildning) Lad L : V −→ W væ-
re en lineær afbildning. Kernen af L er givet ved
ker(L) = {v ∈ V |L(v) = 0W} . ⊳
2 LINEÆRE AFBILDNINGER 12
2.2 Matrixrepræsentation af lineære afbildninger
Der gælder, at enhver lineær afbildning af typen L : Rn −→ R
m kan repræ-
senteres af en m × n matrix. Dette følger af denne sætning:
Sætning 4 Hvis L er en lineær afbildning fra Rn ind i nymodens R
m, sa
eksisterer der netop en m × n matrix A sa
L(x) = Ax,
for alle x ∈ Rn.
Den j’e søjle i A er givet ved
aj = L(ej). ⊳
Eksempel 9 Lad L : R3 −→ R
2 være defineret ved
L(x) = (x1 + x2, x2 + x3)T .
Nu skal matricen tilsvarende denne lineære afbildning findes. Nar L virker
pa de tre naturlige basisvektorer i R3 fas følgende for de tre søjlevektorer i
A:
L(e1) =
(
1
0
)
L(e2) =
(
1
1
)
L(e3) =
(
0
1
)
Det følger nu af sætning 4, at
A =
(
1 1 0
0 1 1
)
. ⊳
I den følgende sætning betragtes mere generelle lineære afbildninger fra et
vektorrum V med basen E = [v1,v2, . . . ,vn] til et andet vektorrum W med
basen F = [w1,w2, . . . ,wm]:
2 LINEÆRE AFBILDNINGER 13
Sætning 5 Lad E = [v1,v2, . . . ,vn] og F = [w1,w2, . . . ,wm] være ordnede
baser for henholdsvis V og W . Til enhver lineær afbildning L : V −→ W er
der en m × n matrix A saledes, at
[L(v)]F = A[v]E
for alle v ∈ V .
A er her matricen, som repræsenterer L mht. de ordnede baser E og F .
Der gælder, at
aj = [L(vj)]F . ⊳
Eksempel 10 Lad L : R3 −→ R
2 være defineret ved
L(x) = x1b1 + (x2 + x3)b2,
hvor
b1 =
(
1
1
)
og b2 =
(
−1
1
)
Nu skal matricen A, der repræsenterer den lineære afbildning mht. de ord-
nede baser [e1, e2, e3] og [b1,b2], findes.
Der gælder, at
L(e1) = 1b1 + 0b2 =⇒ [L(e1)]F = (1, 0)T
L(e2) = 0b1 + 1b2 =⇒ [L(e2)]F = (0, 1)T
L(e3) = 0b1 + 1b2 =⇒ [L(e3)]F = (0, 1)T .
Af sætning 5 følger det nu, at
A = ([L(e1)]F , [L(e2)]F , [L(e3)]F ) =
(
1 0 0
0 1 1
)
. ⊳
Sætning 6 Lad E = [u1,u2, . . . ,un] og F = [b1,b2, . . . ,bm] være baser
for henholdsvis Rn og R
m. Hvis L : Rn −→ R
m er en lineær afbildning, sa
er den j’e søjle i matricen A, som repræsenterer L mht. E og F , givet ved
aj = B−1L(uj),
hvor B = [b1,b2, . . . ,bm]. ⊳
2 LINEÆRE AFBILDNINGER 14
Sætning 7 Hvis A repræsenterer den lineære afbildning L : Rn −→ R
m
mht. til baserne
E = [u1,u2, . . . ,un] og F = [b1,b2, . . . ,bm],
sa er den reducerede rækkeechelonform af (b1, . . . ,bm|L(u1), . . . , L(un)) gi-
vet ved (I |A) ⊳
Se eksempel 6 side 190 i Leon.
2.3 Similære matricer
Sætning 8 Lad E = [v1, . . . ,vn] og F = [w1, . . . ,wn] være ordnede baser
for et vektorrum V og lad L være en lineær operator pa V . Transformations-
matricen, der repræsenterer skiftet fra F til E, kaldes S. Hvis A repræsente-
rer den lineære afbildning mht. basen E, sa er matricen, der repræsenterer
L mht. F givet ved
B = S−1AS. ⊳
Definition 10 Lad A og B være m × n matricer. B er similær til A, hvis
der findes en invertibel matrix S saledes, at
B = S−1AS. ⊳
Det skal bemærkes, at hvis B er similær til A, sa følger det, at A er similær
til B.
3 EGENVÆRDIER 15
3 Egenværdier
3.1 Egenværdier og egenvektorer
Definition 11 Lad A være en n × n matrix. En skalar λ er en egenværdi
til A, hvis der findes en egentlig vektor x 6= 0, sa
Ax = λx. (3.1)
x er da en egenvektor, som hører til λ. ⊳
(3.1) kan omskrives til
(A − λI)x = 0.
Denne ligning har en ikke triviel løsning, hvis og kun hvis A−λI er singulær.
Dvs., hvis
det(A − λI) = 0.
Det karakterristiske polynomium defineres ved
p(λ) = det(A − λI).
Rødderne til dette polynomium er egenværdierne til n× n matricen A. Det
karakterristiske polynomium vil altid have n komplekse rødder (talt med
multiplicitet).
For en n × n matrix A er følgende udsagn ækvivalente:
1. λ er en egenværdi for A.
2. (A − λI)x = 0 har en ikke-triviel løsning.
3. N(A − λI) 6= {0}.
4. A − λI er singulær.
5. det(A − λI) = 0.
Eksempel 11 Lad
A =
(
3 2
3 −2
)
.
3 EGENVÆRDIER 16
For at finde egenværdierne til A opskrives det karakterristiske polynomium:
p(λ) =
∣
∣
∣
∣
∣
3 − λ 2
3 −2 − λ
∣
∣
∣
∣
∣
= λ2 − λ − 12.
Dette giver egenværdierne λ1 = 4 og λ2 = −3.
Enhver vektor, der er element i nulrummet N(A + 3I) er en egenvektor
tilsvarende egenværdien −3. Enhver vektor, der er et element i nulrummet
N(A − 4I) er en egenvektor tilsvarende egenværdien 4. ⊳
3.2 Diagonalisering
Definition 12 En n × n matrix A er diagonaliserbar, hvis der findes en
invertibel matrix X og en diagonalmatrix D sa
X−1AX = D.
Man siger, at X diagonaliserer A. ⊳
Sætning 9 En n × n matrix A er diagonaliserbar, hvis og kun hvis A har
n lineært uafhængige egenvektorer. ⊳
Vigtige bemærkninger:
1. Hvis A er diagonaliserbar, sa er søjlevektorerne i diagonaliseringsma-
tricen X egenvektorer for A. Diagonalelementerne af D er de til egen-
vektorerne tilsvarende egenværdier.
2. Diagonaliseringsmatricen X er ikke unik. Ved at ombytte søjler for
diagonaliseringsmatricen eller ved at multiplicere med en skalar, der
er forskellig fra 0, kan man konstruere en ny diagonaliseringsmatrix.
3. Hvis A er n×n og A har n forskellige egenværdier, sa kan A diagonali-
seres. Hvis der er flere ækvivalente egenværdier sa er A diagonaliserbar
afhængigt af om, der er n lineært uafhængige egenvektorer (Se sætning
9).
4. Hvis A er diagonaliserbar, sa kan A skrives som produktet X D X−1.
5. Ak = X DkX−1.
4 ORTOGONALISERING 17
4 Ortogonalisering
4.1 Skalarproduktet i Rn
Skalarproduktet mellem to vektorer a,b ∈ Rn defineres ved aTb. Dvs.,
a · b ≡n∑
i=1
aibi.
Normen af en vektor defineres ved
||a|| ≡√
a · a.
Projektionen af en vektor a pa en vektor b er givet ved
ab =a · b||b||2
b
og størrelsen af projektionen er
||ab|| =a · b||b|| .
To vektorer a og b er defineret til at være ortogonale, hvis a ·b = 0. Vinklen
mellem a og b er
cos θ =a · b
||a|| ||b|| .
4.2 Indre produkt rum
Definition 13 (Indre produkt) Et indre produkt pa en vektor i et ab-
strakt vektorrum V er en operator pa V , der til ethvert par af vektorer
x,y ∈ V tildeler en skalar 〈x,y〉, som opfylder
I 〈x,x〉 ≥ 0, med lighed hvis og kun hvis x = 0.
II 〈x,y〉 = 〈y,x〉.
III 〈αx + βy, z〉 = α〈x, z〉 + β〈y, z〉 for alle x,y, z ∈ V og alle skalarer
α, β. ⊳
Et vektorrum V med et indre produkt kaldes et indre produkt rum. Her
følger en række eksempler pa indre produkter:
4 ORTOGONALISERING 18
Eksempel 12 (Rn) Skalarproduktet i Rn er et indre produkt;
〈x,y〉 = xT y.
Et andet eksempel pa et indre produkt i Rn er
〈x,y〉 =
n∑
i=1
wixiyi,
hvor w1, w2, . . . , wn er skalarer. ⊳
Eksempel 13 (Rm×n) For A,B ∈ Rm×n kan man definere et indre pro-
dukt ved
〈A,B〉 =m∑
i=1
n∑
j=1
aijbij. ⊳
Eksempel 14 (C[a, b]) Et eksempel pa et indre produkt for f, g ∈ C[a, b]
er
〈f, g〉 =
∫ b
a
f(x)g(x) dx.
Hvis en funktion w(x) er kontinuert pa [a, b] kan et indre produkt ogsa
defineres som
〈f, g〉 =
∫ b
a
f(x)g(x)w(x) dx. ⊳
Eksempel 15 (Pn) Lad x1, x2, . . . , xn være forskellige skalarer. For ethvert
par af polynomier af mindre grad end n kan man definere:
〈p, q〉 =
n∑
i=0
p(xi)q(xi). ⊳
Der gælder, at normen af en vektor i et indre produkt rum kan defineres
ved:
||x|| =√
〈x, x〉.
Definition 14 (Projektion) Lad u og v være vektorer i et indre produkt
rum. Projektionen af u pa v er
uv =〈u,v〉||v||2
v. ⊳
4 ORTOGONALISERING 19
4.3 Ortonormale systemer
Definition 15 (Ortogonalt system) Lad v1,v2, . . . ,vn være vektorer for-
skellig fra nulvektoren i et indre produkt rum V . Hvis 〈vi,vj〉 = 0, nar i 6= j,
sa er basen {v1,v2, . . . ,vn} et ortogonalt system. ⊳
Definition 16 (Ortonormalt system) Et ortonormalt system af vekto-
rer er et ortogonalt sæt af enhedsvektorer. ⊳
Et system u1,u2, . . . ,un er saledes ortonormalt, hvis og kun hvis
〈ui,uj〉 =
{
1 hvis i = j
0 hvis i 6= j.
Hvis man har et ortogonalt system {v1,v2, . . . ,vn} kan man definere
ui =vi
||vi||.
Da udgør {u1,u2, . . . ,un} er ortonormalt system.
Her følger tre sætninger angaende ortonormale baser:
Sætning 10 Lad u1,u2, . . . ,un være en ortonormal basis for et indre pro-
dukt rum V . Hvis
v =n∑
i=1
ciui,
sa er
ci = 〈v,ui〉. ⊳
Af denne sætning følger det, at hvis man ønsker at skrive en vektor, som
x = c1u1 + c2u2 + . . . + cnun,
hvor u1,u2, . . . ,un er en ortonormal basis, sa er ci givet ved
ci = 〈x,ui〉.
Sætning 11 Lad u1,u2, . . . ,un være en ortonormal basis for et indre pro-
dukt rum V . Hvis u =∑n
i=1 aiui og v =∑n
i=1 biui, sa er
〈u,v〉 =
n∑
i=1
aibi. ⊳
4 ORTOGONALISERING 20
Sætning 12 (Parseval’s formel) Hvis u1,u2, . . . ,un er en ortonormal ba-
sis for et indre produkt rum V og v =∑n
i=1 ciui, sa er
||v||2 =
n∑
i=1
c2i . ⊳
Eksempel 16 Lad {u1,u2,u3} være en ortonormal basis for et indre pro-
dukt rum V . Betragt de to vektorer,
u = u1 + 2u2 + 2u3,
v = u1 + 7u3.
Ifølge sætning 11 er
〈a,b〉 = 1 · 1 + 2 · 0 + 2 · 7 = 15.
Og ifølge Parseval’s formel er
||u|| =√
12 + 22 + 22 = 3,
||v|| =√
12 + 72 = 5√
2.
Om vinklen mellem de to vektorer gælder:
cos θ =〈a,b〉
||a|| ||b|| =15
3 · 5√
2=
1√2.
Hermed er θ = π4. ⊳
4.4 Ortogonale matricer
Definition 17 (Ortogonal matrix) En reel matrix Q er en ortogonal ma-
trix, hvis søjlevektorerne i Q udgør et ortonormalt sæt i Rn. ⊳
Sætning 13 En n × n matrix Q er ortogonal, hvis og kun hvis
QT Q = I. ⊳
Af denne sætning følger umiddelbart, at QT = Q−1.
I øvrigt gælder altid, at 〈Qx, Qy〉 = 〈x,y〉. Hvis 〈x,y〉 = xTy gælder
desuden, at ||Qx|| = ||x||.
4 ORTOGONALISERING 21
Sætning 14 Hvis A er en reel symmetrisk matrix, sa findes der en ortogonal
matrix U , som diagonaliserer A. Dvs.,
D = UT AU,
hvor D er en diagonalmatrix. ⊳
En symmetrisk matrix er opfylder, at AT = A.
Hvis A er en reel n × n matrix, sa er følgende betingelser ækvivalente:
1. Der findes en orthonormal basis for Rn bestaende af egenvektorer for
A.
2. Der findes en matrix U , sa UT AU er diagonal med egenværdier for A
i diagonalen (U kan bestemmes ved at køre Gram-Schmidt pa egen-
vektorerne i A. Søjlevektorerne i U er da vektorerne i den ortonormale
basis).
3. A er symmetrisk; dvs., AT = A.
4.5 Gram-Schmidt ortogonalisering
I dette kapitel beskrives Gram-Schmidt ortogonaliseringsmetoden. Ved hjælp
af denne metode kan man ud fra enhver basis,
[x1,x2, . . . ,xn] ,
danne en ortonormal basis,
[u1,u2, . . . ,un] ,
som opfylder, at
span{[u1,u2, . . . ,un]} = span{[x1,x2, . . . ,xn]}.
Den første vektor i den ortonormale basis fas ved at normere x1:
u1 =x1
||x1||.
4 ORTOGONALISERING 22
For at konstruere den anden vektor i den ortonormale basis opskrives pro-
jektionen af x2 pa nymodens u1 (Denne vektor kaldes p1):
p1 = 〈x2,u1〉u1
Der ma af geometriske arsager gælde, at (x2 − p1) ⊥ u1. Ved at normere
x2 −p1 denne kan man saledes danne en ny vektor i den ortonormale basis:
u2 =x2 − p1
||x2 − p1||.
Den tredje vektor i den ortonormale basis kan konstrueres ved at definere
vektoren,
p2 = 〈x3,u1〉u1 + 〈x3,u2〉u2,
og sa er
u3 =x3 − p2
||x3 − p2||.
Følgende sætning beskriver Gram-Schmidt Ortogonaliseringsmetoden:
Sætning 15 (Gram-Schmidt) Lad [x1,x2, . . . ,xn] være en ortogonal ba-
sis for et indre produkt rum V . Lad
u1 =x1
||x1||
og definer u2,u3 . . . ,un rekursivt ved
uk+1 =xk+1 − pk
||xk+1 − pk||,
hvor
pk = 〈xk+1,u1〉u1 + 〈xk+1,u2〉u2 + . . . + 〈xk+1,uk〉uk
er projektionen af xk+1 pa spannet af [u1,u2, . . . ,uk].
Der gælder, at [u1,u2, . . . ,un] er en ortonormal basis for V . ⊳
Bemærk at i udledning af Gram-Schmidt-metoden anvendte vi vores
geometriske intuition om vektorer i Rn. Metoden er dog ikke begrænset til
vektorer i Rn, men kan anvendes i alle abstrakte vektorrum.
5 FOURIERANALYSE 23
5 Fourieranalyse
5.1 Ortonormal basis
I dette delafsnit forklares den teoretiske baggrund for fourierrækker.
Betragte et indre produkt rum, hvor det indre produkt mellem to funk-
tion f og g er defineret ved
〈f, g〉 ≡ 2
L
∫ L
0
f(x)g(x)dx.
Betragt funktionerne
cos
(
2πr
Lx
)
, cos
(
2πs
Lx
)
, sin
(
2πr
Lx
)
, sin
(
2πs
Lx
)
,
hvor r og s er ikke-negative heltal og L er en skalar. Ved at udregne indre
produkter fas:
⟨
cos
(
2πr
Lx
)
, sin
(
2πs
Lx
)⟩
=2
L
∫ L
0
cos
(
2πr
Lx
)
sin
(
2πs
Lx
)
dx
= 0,⟨
cos
(
2πr
Lx
)
, cos
(
2πs
Lx
)⟩
=2
L
∫ L
0
cos
(
2πr
Lx
)
cos
(
2πs
Lx
)
dx
=
2 for r = s = 0
1 for r = s > 0
0 for r 6= s⟨
sin
(
2πr
Lx
)
, sin
(
2πs
Lx
)⟩
=2
L
∫ L
0
sin
(
2πr
Lx
)
sin
(
2πs
Lx
)
dx
=
0 for r = s = 0
1 for r = s > 0
0 for r 6= s
Ud fra de netop udregnede indre produkter ses det, at enhver funktion (der
er uendeligt mange gange differentiabel) kan opskrives i en ortonormal basis
saledes
f(x) =a0
2+
∞∑
r=1
[
ar cos
(
2πr
Lx
)
+ br sin
(
2πr
Lx
)]
,
5 FOURIERANALYSE 24
hvor de r’e koefficienter er givet ved projektionen af f pa de r’e basisvektorer
saledes:
ar =
⟨
f, cos
(
2πr
Lx
)⟩
=2
L
∫ x0+L
x0
f(x) cos
(
2πr
Lx
)
dx
br =
⟨
f, sin
(
2πr
Lx
)⟩
=2
L
∫ x0+L
x0
f(x) sin
(
2πr
Lx
)
dx.
I det næste delafsnit opskrives dette resultat pa mere stringent vis.
5.2 Fourierrækker
En funktion f kan udvikles vha. fourierrækker, hvis den opfylder Dirichlets
betingeler :
i) f er periodisk,
ii) f skal være kontinuert. Dog er det tilladt med et endeligt antal disko-
ninuitetspunkter,
iii) f skal have et endeligt antal maksimum- og minimumpunkter inden for
en enkelt periode,
iv) Integralet over en periode af |f(x)| skal konvergere.
Hvis Dirichlets betingelser er opfyldt er fourierrækken for f givet ved
f(x) =a0
2+
∞∑
r=1
[
ar cos
(
2πr
Lx
)
+ br sin
(
2πr
Lx
)]
,
hvor Fourier koefficienterne er givet ved
ar =2
L
∫ x0+L
x0
f(x) cos
(
2πr
Lx
)
dx
br =2
L
∫ x0+L
x0
f(x) sin
(
2πr
Lx
)
dx.
Lige og ulige funktioner
For en funktion f gælder:
hvis f er lige er f(−x) = f(x)
hvis f er ulige er f(−x) = −f(x)
5 FOURIERANALYSE 25
Eksempelvis er f(x) = x2 en lige funktion og f(x) = x3 er en ulige funktion.
For enhver funktion gælder:
f(x) =1
2[f(x) + f(−x)] +
1
2[f(x) − f(−x)]
= flige(x) + fulige(x)
For en fourierrække repræsenterer ar de lige led (I ar indgar cosinus og
cosinus er en lige funktion) og br repræsentere de ulige led (I br indgar sinus
og sinus er en ulige funktion).
For en ulige funktion er alle a-leddene saledes 0 og tilsvarende er alle
b-leddene 0 for en lige funktion. For en maclaurin-række gælder i øvrigt det
samme.
5.3 Fouriertransformation
Den fouriertransformerede af en funktion f(t) er givet ved
f(ω) =1√2π
∫
∞
−∞
f(t)e−iωt dt.
Den inverse er:
f(t) =1√2π
∫
∞
−∞
f(ω)eiωt dω.