3486584472_mathem

532

Upload: lember10

Post on 25-Oct-2015

97 views

Category:

Documents


9 download

TRANSCRIPT

Page 1: 3486584472_Mathem
Page 2: 3486584472_Mathem
Page 3: 3486584472_Mathem
Page 4: 3486584472_Mathem

Höhere Mathematikfür Ingenieure, Physiker und MathematikervonDr. Dr. h.c. Norbert HerrmannLeibniz Universität Hannover2., überarbeitete Auflage

Oldenbourg Verlag München Wien

Page 5: 3486584472_Mathem

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.

Dr. Dr. h.c. Norbert Herrmann lehrt am Institut für Angewandte Mathematik der Leibniz Universität Hannover. Bekannt wurde Norbert Herrmann durch zahlreiche Fernsehauf-tritte, bei denen er versucht, die Alltagstauglichkeit von Mathematik unter Beweis zu stellen. Er untersucht dabei die Standfestigkeit von Bierdosen genauso wie den optimalen Einparkwinkel von Autos.

© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de

Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertungaußerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzu-lässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro-verfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen.

Lektorat: Kathrin Mönch Herstellung: Dr. Rolf Jäger Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg

ISBN 978-3-486-58447-9

Page 6: 3486584472_Mathem

Vorwort

Wieso? Weshalb? Warum?

Wer nicht fragt, bleibt dumm!

Lied der Sesamstraße

Das vorliegende Buch verbindet zwei unterschiedliche Teilgebiete der Mathematik.

• Zum einen ist es die Numerische Mathematik mit den Themen ’Lineare Glei-chungssysteme‘, ’Numerik fur Eigenwertaufgaben‘, ’Interpolation‘, ’NumerischeQuadratur‘ und ’Nichtlineare Gleichungen‘. Hinzu kommt alles, was mit demnumerischen Losen von gewohnlichen und partiellen Differentialgleichungen zutun hat.

• Das zweite Teilgebiet ist die Hohere Analysis mit den Themen ’Laplace-Transfor-mation‘, ’Fourierentwicklung‘, ’Distributionen‘ und der ganze theoretische Back-ground fur gewohnliche und partielle Differentialgleichungen. Aber gerade hieruberschneiden sich die beiden Gebiete; denn fast alle Naherungsverfahren laufenauf das Losen eines linearen Gleichungssystems hinaus, womit sich der Kreiszum ersten Kapitel wieder schließt.

• Als gewisser Exot mag das Thema ’Lineare Optimierung‘ gelten.

Das oben vorangestellt Motto aus der Sesamstraße kann und sollte man an den Anfangjeder intensiveren Betatigung mit Mathematik stellen. Denn dies ist geradezu einWesensmerkmal der Mathematik, daß alle ihre Aussagen begrundbar sind und nichtsdem Glauben, dem Zufall oder der Einbildung uberlassen bleibt. Das vorliegende Buchmochte diese Botschaft besonders an die Ingenieure und Physiker vermitteln. Deshalbhaben wir bei den meisten Ergebnissen und Aussagen auch die Beweise angefuhrt.Dazu ist es ein Herzensanliegen des Autors, dass sich gerade die Anwender nicht vondiesen Beweisen abschrecken lassen, sondern außer der Notwendigkeit eines Beweisesauch seine Schonheit entdecken.

Page 7: 3486584472_Mathem

VI

Ein herzlicher Dank gebuhrt meinen eifrigen Studierenden, die sich zur Examensvor-bereitung die Internetvorabversion dieses Buches reingezogen und mich auf mancheFehler aufmerksam gemacht haben.Ein großer Dank geht an meine Kollegen PD Dr. Matthias Maischak, ohne den diePDF-Version des gesamten Buches nicht fertig geworden ware, und an Dipl.–Math.Florian Leydecker, der an einem regennassen Novembertag das Bild auf dem Umschlaggeschossen hat.Ein ganz besonders lieber Dank aber sei meiner Frau ausgesprochen, die lange Monatehin selbst Sonntagabend den Computertisch als meinen Tatort akzeptiert hat.Nicht zuletzt mochte ich Frau Sabine Kruger, meiner Lektorin vom Oldenbourg Wis-senschaftsverlag, fur ihr stets offenes Ohr, wenn ich mit neuen Wunschen kam, danken.

Hannover N. Herrmann

Page 8: 3486584472_Mathem

Inhaltsverzeichnis

Einleitung 1

1 Numerik linearer Gleichungssysteme 91.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2 Zur Losbarkeit linearer Gleichungssysteme . . . . . . . . . . . . . . . . 101.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3.1 Symmetrische und Hermitesche Matrizen . . . . . . . . . . . . 111.3.2 Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . . . . 121.3.3 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . 161.3.4 Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . 171.3.5 Frobeniusmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.6 Diagonaldominante Matrizen . . . . . . . . . . . . . . . . . . . 211.3.7 Zerfallende Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 23

1.4 Vektor– und Matrix–Norm . . . . . . . . . . . . . . . . . . . . . . . . . 251.4.1 Vektornorm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251.4.2 Matrixnorm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1.5 Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331.5.1 Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331.5.2 Vorwartsanalyse und Fehlerabschatzungen . . . . . . . . . . . . 361.5.3 Ruckwartsanalyse: Satz von Prager und Oettli . . . . . . . . . 38

1.6 L–R–Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441.6.1 Die Grundaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . 441.6.2 Pivotisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481.6.3 L–R–Zerlegung und lineare Gleichungssysteme . . . . . . . . . 531.6.4 L–R–Zerlegung und inverse Matrix . . . . . . . . . . . . . . . . 55

1.7 Q–R–Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 571.7.1 Der Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 591.7.2 Q–R–Zerlegung und lineare Gleichungssysteme . . . . . . . . . 62

1.8 Uberbestimmte lineare Gleichungssysteme . . . . . . . . . . . . . . . . 631.8.1 Die kleinste Fehlerquadratsumme . . . . . . . . . . . . . . . . . 641.8.2 Q–R–Zerlegung und uberbestimmte lineare Gleichungssysteme 69

1.9 Gleichungssysteme mit symmetrischer Matrix . . . . . . . . . . . . . . 731.9.1 Cholesky–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 73

Page 9: 3486584472_Mathem

VIII INHALTSVERZEICHNIS

1.9.2 Cholesky–Zerlegung und lineare Gleichungssysteme . . . . . . . 771.9.3 Einige Zusatzbemerkungen . . . . . . . . . . . . . . . . . . . . 781.9.4 Verfahren der konjugierten Gradienten . . . . . . . . . . . . . . 79

1.10 Iterative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 831.10.1 Gesamt– und Einzelschrittverfahren . . . . . . . . . . . . . . . 831.10.2 SOR–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

2 Numerik fur Eigenwertaufgaben 932.1 Einleitung und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . 932.2 Grundlegende Tatsachen . . . . . . . . . . . . . . . . . . . . . . . . . . 94

2.2.1 Die allgemeine Eigenwert–Eigenvektoraufgabe . . . . . . . . . . 942.2.2 Ahnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . 97

2.3 Abschatzung nach Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 992.4 Das vollstandige Eigenwertproblem . . . . . . . . . . . . . . . . . . . . 103

2.4.1 Zuruckfuhrung einer Matrix auf Hessenberggestalt . . . . . . . 1042.4.2 Verfahren von Wilkinson . . . . . . . . . . . . . . . . . . . . . . 1042.4.3 Verfahren von Householder . . . . . . . . . . . . . . . . . . . . 1072.4.4 Das Verfahren von Hyman . . . . . . . . . . . . . . . . . . . . . 1152.4.5 Shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1172.4.6 Q–R–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 1192.4.7 Verfahren von Jacobi . . . . . . . . . . . . . . . . . . . . . . . . 128

2.5 Das partielle Eigenwertproblem . . . . . . . . . . . . . . . . . . . . . . 1332.5.1 Von Mises–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 1342.5.2 Rayleigh–Quotient fur symmetrische Matrizen . . . . . . . . . 1372.5.3 Inverse Iteration nach Wielandt . . . . . . . . . . . . . . . . . . 140

3 Lineare Optimierung 1453.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1453.2 Die Standardform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1463.3 Graphische Losung im 2D–Fall . . . . . . . . . . . . . . . . . . . . . . 1483.4 Losbarkeit des linearen Optimierungsproblems . . . . . . . . . . . . . 1523.5 Der Simplex–Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . 157

3.5.1 Der Algorithmus am Beispiel der Transportaufgabe . . . . . . . 1593.5.2 Sonderfalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

4 Interpolation 1694.1 Polynominterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

4.1.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . 1694.1.2 Lagrange–Interpolation . . . . . . . . . . . . . . . . . . . . . . 1724.1.3 Newton–Interpolation . . . . . . . . . . . . . . . . . . . . . . . 1754.1.4 Auswertung von Interpolationspolynomen . . . . . . . . . . . . 1784.1.5 Der punktweise Fehler . . . . . . . . . . . . . . . . . . . . . . . 1804.1.6 Hermite–Interpolation . . . . . . . . . . . . . . . . . . . . . . . 182

4.2 Interpolation durch Spline–Funktionen . . . . . . . . . . . . . . . . . . 185

Page 10: 3486584472_Mathem

INHALTSVERZEICHNIS IX

4.2.1 Arger mit der Polynom–Interpolation . . . . . . . . . . . . . . 1854.2.2 Lineare Spline–Funktionen . . . . . . . . . . . . . . . . . . . . 1874.2.3 Hermite–Spline–Funktionen . . . . . . . . . . . . . . . . . . . . 1934.2.4 Kubische Spline–Funktionen . . . . . . . . . . . . . . . . . . . . 201

5 Numerische Quadratur 2135.1 Allgemeine Vorbetrachtung . . . . . . . . . . . . . . . . . . . . . . . . 213

5.1.1 Begriff der Quadraturformel . . . . . . . . . . . . . . . . . . . . 2135.1.2 Der Exaktheitsgrad von Quadraturformeln . . . . . . . . . . . 2145.1.3 Einige klassische Formeln . . . . . . . . . . . . . . . . . . . . . 215

5.2 Interpolatorische Quadraturformeln . . . . . . . . . . . . . . . . . . . . 2165.2.1 Newton–Cotes–Formeln . . . . . . . . . . . . . . . . . . . . . . 2175.2.2 Formeln vom MacLaurin-Typ . . . . . . . . . . . . . . . . . . . 2195.2.3 Mehrfachanwendungen . . . . . . . . . . . . . . . . . . . . . . . 219

5.3 Quadratur nach Romberg . . . . . . . . . . . . . . . . . . . . . . . . . 2245.4 Gauß–Quadratur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

5.4.1 Normierung des Integrationsintervalls . . . . . . . . . . . . . . 2265.4.2 Konstruktion einer Gaußformel . . . . . . . . . . . . . . . . . . 2275.4.3 Legendre–Polynome . . . . . . . . . . . . . . . . . . . . . . . . 2285.4.4 Bestimmung der Stutzstellen . . . . . . . . . . . . . . . . . . . 2295.4.5 Bestimmung der Gewichte . . . . . . . . . . . . . . . . . . . . . 2295.4.6 Exaktheitsgrad und Restglied Gaußscher Quadraturformeln . 230

5.5 Vergleichendes Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 2305.6 Stutzstellen und Gewichte nach Gauß . . . . . . . . . . . . . . . . . . 236

6 Nichtlineare Gleichungen 2416.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2416.2 Fixpunktverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2426.3 Newton–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2486.4 Sekanten–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2526.5 Verfahren von Bairstow . . . . . . . . . . . . . . . . . . . . . . . . . . 2536.6 Systeme von nichtlinearen Gleichungen . . . . . . . . . . . . . . . . . . 256

6.6.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2566.6.2 Fixpunktverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 2576.6.3 Newton–Verfahren fur Systeme . . . . . . . . . . . . . . . . . . 2606.6.4 Vereinfachtes Newton–Verfahren fur Systeme . . . . . . . . . . 2616.6.5 Modifiziertes Newton–Verfahren fur Systeme . . . . . . . . . . 262

7 Laplace–Transformation 2677.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2687.2 Existenz der Laplace–Transformierten . . . . . . . . . . . . . . . . . . 2697.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2717.4 Die inverse Laplace–Transformation . . . . . . . . . . . . . . . . . . . 278

7.4.1 Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . . . . 279

Page 11: 3486584472_Mathem

X INHALTSVERZEICHNIS

7.4.2 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2807.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2827.6 Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . 2837.7 Einige Laplace–Transformierte . . . . . . . . . . . . . . . . . . . . . . 285

8 Fourierreihen 2898.1 Erklarung der Fourierreihe . . . . . . . . . . . . . . . . . . . . . . . . . 2908.2 Berechnung der Fourierkoeffizienten . . . . . . . . . . . . . . . . . . . 2918.3 Reelle F–Reihe ⇐⇒ komplexe F–Reihe . . . . . . . . . . . . . . . . . . 2938.4 Einige Satze uber Fourier–Reihen . . . . . . . . . . . . . . . . . . . . . 2958.5 Sprungstellenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 2968.6 Zum Gibbsschen Phanomen . . . . . . . . . . . . . . . . . . . . . . . . 2988.7 Schnelle Fourieranalyse (FFT) . . . . . . . . . . . . . . . . . . . . . . 300

9 Distributionen 3079.1 Einleitung und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . 3079.2 Testfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3089.3 Regulare Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . 3109.4 Singulare Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . 3129.5 Limes bei Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . 3149.6 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3159.7 Ableitung von Distributionen . . . . . . . . . . . . . . . . . . . . . . . 3189.8 Faltung von Testfunktionen . . . . . . . . . . . . . . . . . . . . . . . . 3219.9 Faltung bei Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . 3229.10 Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . 324

10 Numerik von Anfangswertaufgaben 32910.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32910.2 Warum ein Auto bei Glatte schleudert . . . . . . . . . . . . . . . . . . 329

10.2.1 Explizite Differentialgleichungen n-ter Ordnung . . . . . . . . . 33510.2.2 DGl n-ter Ordnung → DGl-System . . . . . . . . . . . . . . . . 336

10.3 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33810.4 Zur Existenz und Einzigkeit einer Losung . . . . . . . . . . . . . . . . 33910.5 Numerische Einschritt–Verfahren . . . . . . . . . . . . . . . . . . . . . 347

10.5.1 Euler–Polygonzug–Verfahren . . . . . . . . . . . . . . . . . . . 34810.5.2 Verbessertes Euler–Verfahren . . . . . . . . . . . . . . . . . . . 35010.5.3 Implizites Euler–Verfahren . . . . . . . . . . . . . . . . . . . . 35110.5.4 Trapez–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 35310.5.5 Runge–Kutta–Verfahren . . . . . . . . . . . . . . . . . . . . . . 35410.5.6 Die allgemeinen Runge–Kutta–Verfahren . . . . . . . . . . . . 355

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren . . . . . 35710.6.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35710.6.2 Stabilitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36510.6.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378

Page 12: 3486584472_Mathem

INHALTSVERZEICHNIS XI

10.7 Lineare Mehrschritt–Verfahren . . . . . . . . . . . . . . . . . . . . . . 38210.7.1 Herleitung von Mehrschritt–Verfahren . . . . . . . . . . . . . . 382

10.8 Konsistenz, Stabilitat und Konvergenz bei Mehrschrittverfahren . . . . 38410.8.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38410.8.2 Stabilitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38910.8.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391

10.9 Pradiktor–Korrektor–Verfahren . . . . . . . . . . . . . . . . . . . . . . 391

11 Numerik von Randwertaufgaben 39511.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395

11.1.1 Homogenisierung der Randbedingungen . . . . . . . . . . . . . 39611.2 Zur Existenz und Einzigkeit einer Losung . . . . . . . . . . . . . . . . 39811.3 Kollokationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 40011.4 Finite Differenzenmethode FDM . . . . . . . . . . . . . . . . . . . . . 40211.5 Verfahren von Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . 409

11.5.1 Die schwache Form . . . . . . . . . . . . . . . . . . . . . . . . . 41211.5.2 Sobolev–Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . 41311.5.3 1. Konstruktion der Sobolev–Raume . . . . . . . . . . . . . . . 41611.5.4 2. Konstruktion der Sobolev–Raume . . . . . . . . . . . . . . . 41611.5.5 Durchfuhrung des Verfahrens von Galerkin . . . . . . . . . . . 420

11.6 Methode der finiten Elemente . . . . . . . . . . . . . . . . . . . . . . . 42511.6.1 Kurzer geschichtlicher Uberblick . . . . . . . . . . . . . . . . . 42511.6.2 Algorithmus zur FEM . . . . . . . . . . . . . . . . . . . . . . . 42611.6.3 Zur Fehlerabschatzung . . . . . . . . . . . . . . . . . . . . . . . 431

11.7 Exkurs zur Variationsrechnung . . . . . . . . . . . . . . . . . . . . . . 43311.7.1 Einleitende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 43311.7.2 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43511.7.3 Eine einfache Standardaufgabe . . . . . . . . . . . . . . . . . . 43711.7.4 Verallgemeinerung . . . . . . . . . . . . . . . . . . . . . . . . . 44111.7.5 Belastete Variationsprobleme . . . . . . . . . . . . . . . . . . . 443

11.8 Verfahren von Ritz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44411.8.1 Vergleich von Galerkin– und Ritz–Verfahren . . . . . . . . . . . 446

12 Partielle Differentialgleichungen 45112.1 Einige Grundtatsachen . . . . . . . . . . . . . . . . . . . . . . . . . . . 452

12.1.1 Klassifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 45412.1.2 Anfangs– und Randbedingungen . . . . . . . . . . . . . . . . . 45712.1.3 Korrekt gestellte Probleme . . . . . . . . . . . . . . . . . . . . 460

12.2 Die Poissongleichung und die Potentialgleichung . . . . . . . . . . . . 46212.2.1 Dirichletsche Randwertaufgabe . . . . . . . . . . . . . . . . . . 46212.2.2 Neumannsche Randwertaufgabe . . . . . . . . . . . . . . . . . . 47212.2.3 Numerische Losung mit dem Differenzenverfahren . . . . . . . 475

12.3 Die Warmeleitungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . 48212.3.1 Einzigkeit und Stabilitat . . . . . . . . . . . . . . . . . . . . . . 482

Page 13: 3486584472_Mathem

XII INHALTSVERZEICHNIS

12.3.2 Zur Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48512.3.3 Numerische Losung mit dem Differenzenverfahren . . . . . . . 490

12.4 Die Wellengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49712.4.1 Die allgemeine Wellengleichung . . . . . . . . . . . . . . . . . . 49712.4.2 Das Cauchy–Problem . . . . . . . . . . . . . . . . . . . . . . . 50012.4.3 Das allgemeine Anfangs–Randwert–Problem . . . . . . . . . . . 50112.4.4 Numerische Losung mit dem Differenzenverfahren . . . . . . . 505

Literaturverzeichnis 510

Index 513

Page 14: 3486584472_Mathem

Einleitung

Wer kennt nicht die leidige Suche nach einem Parkplatz in einer uberfullten City.Und dann sieht man plotzlich eine Lucke am Straßenrand, weiß aber nicht, ob manhineinkommt.Solch ein Problem stellt eine reivolle Aufgabe fur einen Mathematiker dar. Eine phy-sikalische Alltagssituation mochte analysiert werden. Also muß man zuerst ein ma-thematisches Modell entwerfen, das die Fragestellung einigermaßen richtig wiedergibt.Das geht normalerweise nur mit erheblichen Vereinfachungen, was Physiker und Inge-nieure nicht uberrascht; denn sie treiben es seit Jahrhunderten ahnlich.Wir wollen hier zu Beginn eine Losung dieses Problems vorstellen, das im Herbst desJahres 2003 zu einem erheblichen Rauschen im Blatterwald der deutschsprachigenZeitungen gefuhrt hat; Rundfunk und Fernsehen berichteten in mehreren Sendungen.Den Autor hat es gefreut, daß sich daraufhin viele Menschen mit Mathematik befaßtund ihn mit Fragen uberhauft haben. Vielleicht erkennen ja auch Sie, liebe Leserin,lieber Leser, daß Mathematik nicht nur als Rechenhilfsmittel taugt, sondern bei vielenAlltagsproblemen Losungen bietet, die manchmal selbst Experten uberraschen. Manschaue sich das Ergebnis des Rutschproblems im Kapitel 10 ’Numerik von Anfangs-wertaufgaben’ an.

Das Ruckwartseinparken

In der Fahrschule hat man uns gequalt mit dem Ruckwartseinparken. Das konnte hierhelfen, und genau darum geht es uns in diesem Beitrag. Wie ging das noch gleich?

1. Man stellt sich direkt neben das vordere Auto A in einem Abstand p zu diesemAuto.

2. Man fahrt gerade ruckwarts, bis der Mittelpunkt unseres Autos, bezogen aufdie vier Reifen, auf gleicher Hohe mit dem Ende des Vorderautos A ist. (Wirwerden spater sehen, daß das verbessert werden kann. Man muß nur so weitzuruckfahren, bis die Hinterachse unseres Autos mit dem Ende des Nachbarautosubereinstimmt!)

3. Jetzt dreht man das Steuerrad vollstandig bis zum Anschlag, so daß man indie Lucke hineinfahrt. Dabei fahrt man einen Kreisbogen, zu dem der Winkel αgehort.

Page 15: 3486584472_Mathem

2 Einleitung

4. Dann dreht man das Vorderrad vollstandig in die entgegengesetzte Richtung,um wieder parallel zur Straße zu gelangen, und fahrt den entgegengesetztenKreisbogen mit dem selben Winkel α.

5. Schließlich fahrt man noch ein Stuckchen nach vorne, um das hintere Auto Bnicht einzuklemmen.

Die Fragen, die sich hier stellen, lauten:

• Wie breit muß die Lucke mindestens sein, damit wir dort hineinkommmen?

• In welchem Abstand p beginnt man das Spielchen?

• Welchen Kreisbogen sollte man fahren, wie groß ist also der Winkel α?

Die Formeln von Rebecca Hoyle

Mitte April 2004 ging vor allem in den Online–Versionen verschiedener Tageszeitun-gen folgende ”Formel zum Einparken“ um die Welt (aus satztechnischen Grundenschreiben wir sie in zwei Zeilen):

p = r − w/2, g) −w + 2r + b, f)− w + 2r − fg

max((r + w/2)2 + f2, (r + w/2)2 + b2)£min((2r)2, (r + w/2 + k)2)

Internetleser, die auf diese Formel stießen, waren verstort, denn die Formel machte sorecht keinen Sinn.

− Was soll gleich zu Beginn die geschlossene Klammer, wenn zuvor keine offnendeKlammer vorhanden ist?

− Was sollen die vielen Kommata mitten im Geschehen?

− Welche Bedeutung hat das englische Pfundzeichen in der zweiten Zeile?

Angeblich stammt diese Formel von der englischen Mathematikerin Rebecca Hoyle.Nun, zu ihrer Ehre sei gesagt, daß sie in der Tat eine solch unsinnige Formel nichtverofffentlich hat. Auf ihrer home-page findet man folgendes Formelsystem, das ausvier einzelnen Formeln besteht:

p = r − w

2(1)

g ≥ w + 2r + b (2)f ≤ w + 2r − fg (3)

max((

r +w

2

)2+ f2,

(r +

w

2

)2+ b2

)≤ min

(4r2,

(r +

w

2+ k

)2)

(4)

Dabei ist

Page 16: 3486584472_Mathem

Einleitung 3

• p der seitliche Abstand zum vorderen Auto A,

• r der Radius des kleinsten Kreises, den der Automittelpunkt, das ist der Mittel-punkt des Rechtecks aus den vier Reifen, beschreiben kann,

• w die Breite unseres Autos,

• g die Breite der benotigten Parklucke

• f der Abstand vom Automittelpunkt zur Front

• b der Abstand vom Automittelpunkt zum Autoende

• fg der Abstand zum Vorderauto am Ende des Einparkens,

• k der Abstand zum Bordstein am Ende des Einparkens.

Damit klart sich obige sinnlose Formel weitgehend. Jedes Komma oben trennt zweiFormeln. Dann hat irgendein Textsystem leider das mathematische Zeichen ≥ nichtverstanden und einfach aus dem Zeichen > eine Klammmer ) und aus dem halbenGleichheitszeichen eine Subtraktion gemacht. Wieso allerdings aus dem Zeichen ≤das englische Pfundzeichen £ geworden ist, bleibt mysterios.

Kritik an Rebeccas Formeln

Prinzipiell sind Rebeccas Formeln mathematisch vernunftig, und man kann aus ihnenauch Zahlenwerte, die das Einparken beschreiben, ableiten.Allerdings haben wir einige Kritikpunkte anzugeben.

1. In der Formel (3) ist einzig fg unbekannt, laßt sich also daraus berechnen.Man fragt sich aber, welche Bedeutung fur das Einparken dieser Abstand zumVorderauto hat. Die Formel scheint uberflussig.

2. Analoges gilt fur Formel (4), aus der sich zwar am Ende des Einparkens als ein-zige unbekannte Große der Abstand k zum Bordstein berechnen laßt, aber wozubraucht man ihn? Auch diese (richtige) Formel wird fur das Einparkmanovernicht gebraucht.

3. Formel (1) scheint sinnvoll zu sein, gibt sie doch der oder dem Einparker denseitlichen Abstand an, den man zu Beginn zum vorderen Nachbarauto haltensollte.

4. Formel (2) sieht nach der Hauptformel aus. Sie beschreibt, wie groß die Luckezu sein hat, um den Parkvorgang sicher zu Ende fuhren zu konnen.

Wenn wir jetzt aber obige Formeln auf einen typischen Mittelklassewagen anwenden,so sehen wir, daß sie alle nicht recht taugen.In den Wagenpapieren findet man die Angabe uber den Wendekreis, der folgenderma-ßen bestimmt wurde:

Page 17: 3486584472_Mathem

4 Einleitung

Definition 0.1 Befestigt man an der vordersten linken Ecke des Fahrzeugs einenStab, der auf dem Boden schleift und fahrt man dann den kleinstmoglichen Rechts–Kreis bei voll eingeschlagenem Steuerrad, so beschreibt dieser Stab einen Kreis, denWendekreis des Fahrzeugs. Sein Durchmesser D wird in den Wagenpapieren verzeich-net.Wir wollen mit R den Radius des Wendekreises, also den halben Durchmesser bezeich-nen. Dabei liegt der Mittelpunkt auf der Verlangerung der Hinterachse.

Bei einem gut gebauten Auto kann man naturlich auch einen Links–Kreis fahren undden Stab vorne rechts anbringen. Die Symmetrie fuhrt zum gleichen Ergebnis.Der Zusammenhang zwischen r bei Rebecca und unserem R wird nach Pythagorasermittelt:

r =√

R2 − f2 − w

2(5)

Dabei ist

• f der Abstand von der Hinterachse bis zur Fahrzeugfront

• w die Breite des Fahrzeugs

Nun zu unserem Auto. Nehmen wir an, daß es folgende Abmessungen besitzt – derUbersicht wegen nehmen wir glatte Werte:

• Wendekreis D = 12 m, also R = 6 m

• Abstand Hinterachse – Front 3m

• Abstand Hinterachse – hinten 1 m

• Wagenbreite w = 1.5 m

Damit ergibt sich

r =√

R2 − f2 − w

2=√

36− 9− 0.75 = 4.45

Wir rechnen also Rebeccas Formeln mit r = 4.45 m durch. Dann ist

p = r − w

2= 3.69 m,

g ≥ w + 2r + b = 1.5 + 2 · 4.45 + 1 = 11.40

Das heißt also, wir sollen zum Nachbarauto einen Abstand von 3.69 m halten. Aberliebe Rebecca, wenn eine Straße nur 6 m breit ist, steht man damit entweder voll imGegenverkehr oder bereits im gegenuber geparkten Auto.Wenn man eine Lucke von 11.40 m irgendwo sieht, so fahrt man vorwarts hinein, denndort ist ja Platz fur zwei Autos. Da wird unser Manover nicht benotigt.Das kann nicht gemeint sein. Hier sind Rebeccas Formeln zwar richtig, aber viel zugrob. Das ist in europaischen Stadten nicht vorstellbar.

Page 18: 3486584472_Mathem

Einleitung 5

Neue Formeln zum Parallelparken

Neue und bessere Formeln mussen her. Betrachten wir dazu folgende Skizze.

r

r

α

α

Auto AAuto B

unser Auto

unser Auto

Bordstein

Bordstein

bf

p

Zur Herleitung unserer Formeln machen wir einen Trick: Wir betrachten das Aus-parken, nicht das Einparken. Wir gehen also von innen nach außen, weil wir da vonder festen Position unseres Autos knirsch am hinteren Auto starten konnen. Da, wowir landen, ist dann unser eigentlicher Ausgangspunkt. Der ganze Vorgang ist ja vollreversibel.Betrachten wir also unsere Skizze. Wir stehen mitten im Parkplatz schon ordentlicham Bordstein. Zum Ausparken fahren wir zuerst ruckwarts, bis wir gerade eben dashintere Auto nicht beruhren. Mathematisch setzen wir diesen Abstand zu 0 mm. Alsobitte, das ist die Theorie, in der Praxis sollten es schon 5 cm sein. Dann schlagen wirdas Steuerrad vollstandig nach links ein und fahren vorsichtig los. Dabei fahren wireinen Kreisbogen, zu dem ein Winkel α gehort. Diesen Winkel lassen wir zunachst soallgemein stehen, weil wir ja eine allgemeine Formel entwickeln wollen. Spater mussenwir ihn dann genauer spezifizieren.Haben wir diesen Bogen mit Winkel α durchfahren, so bleiben wir stehen und drehendas Steuerrad vollstandig in die andere Richtung, in der wir dann einen Kreisbogenwiederum mit dem Winkel α durchfahren. Das Ende vom Lied ist dann, daß wiraußerhalb des Parkplatzes und parallel zur Bordsteinkante stehen; denn wir haben jabeide Male einen Kreisbogen mit demselben Winkel durchfahren.Jetzt kommt ein bißchen Geometrie. Aus der Skizze sieht man, daß der Abstand dunseres Autos zum Bordstein gleich 2x ist; x berechnen wir dann uber den cos desWinkels α:

Page 19: 3486584472_Mathem

6 Einleitung

d = 2x = 2 · (r − y) = 2 · (r − r · cos α)= 2r · (1− cos α) (6)

Der Abstand p zum Nachbarauto ist

p = d− w = 2r · (1− cos α)− w (7)

Als Lucke erhalten wir

g ≥ 2r · sin α + b (8)

Vergleicht man diese Lucke mit der von Rebecca (2), so ahnt man, daß Rebecca einenWinkel von 90, also einen Viertelkreis durchfahren will.

Die Formeln fur ein 45o–Manover

In manchen Fahrschulen wird gesagt, man solle jeweils einen Achtelkreisbogen fahren;dazu gehort der Winkel α = 45. Dafur sehen die Formeln hubsch einfach aus; dennes ist ja sin 45 = cos 45 = 1

2 ·√

2, also

p = 2r ·(

1− 12

√2)− w = r(2−

√2)− w (9)

g ≥ 2r · 12

√2 + b =

√2 · r + b (10)

Fur unser oben schon benutztes Standardauto (vgl. S. 4) erhalten wir folgende Werte:

p = 1.11 m, g ≥ 7.29 m

Das ist immer noch zu groß. Kein vernunftiger Autofahrer und sicher auch keine nochvernunftigere Autofahrerin stellt sich im Abstand von 1.11 m zum Nachbarauto aufdie Straße. Das Hupkonzert kann man sich ausmalen.Die optimalen Formeln

Aus der Formel (8) sehen wir, daß unsere benotigte Lucke stark vom Winkel α abhangt:Je kleiner wir diesen Winkel wahlen, desto kleiner wird die Lucke. Das beste Ergebniserhalten wir, wenn wir uns direkt neben das vordere Auto stellen. Fur p = 0, also denAbstand zum Nachbarauto = 0, erhalten wir den optimalen Winkel α, mit dem wirunser Einparkproblem losen:

Page 20: 3486584472_Mathem

Einleitung 7

α = arccos2r −w

2r(11)

Fur unser Standardauto ergibt sich dabei

α = arccos2 · 4.45 − 1.5

2 · 4.45 = 34

Unsere benotigte Lucke kann noch kleiner werden, wenn wir bedenken, daß wir beimAusparken zunachst ganz weit zurucksetzen und dann beim Vorwartsausparken nurgerade das vordere Auto nicht beruhren durfen. Dieses kann daher noch ein Stuckchennaher stehen.Als kleinstmogliche Lucke ergibt sich damit

g ≥√

2r · w + f2 + b, (12)

was fur unser Standardauto bedeutet:

g ≥ √2 · 4.45 · 1.5 + 9 + 1 = 5.73 m

Das sieht doch sehr vernunftig aus. In Vorschriften fur den Straßenbau und speziellfur Parkplatze findet man die Vorgabe, daß ein Parkplatz am Straßenrand fur einparalleles Einparken mindestens die Lange von 5.75 m haben sollte. Jetzt wird dasverstandlich, denn wir fullen ja nicht die ganze Parklucke aus, sondern brauchen Platzzum Rangieren. Das brauchen unsere Nachbarn vorne und hinten ebenfalls, so daß vonderen Platz ein bißchen fur uns ubrig bleibt. Das wird offensichtlich in der Vorschriftmit einbezogen.

Zusammenfassung

Einige Schlußbemerkungen durfen nicht fehlen. Zunachst fassen wir unser Ergebnis infolgendem Kasten zusammen.

Die neuen Formeln zum Einparken

Abstand zum Nachbarauto p = 0

Winkel des Kreisbogens α = arccos2r −w

2rbenotigte Parklucke g ≥

√2rw + f2 + b

Page 21: 3486584472_Mathem

8 Einleitung

Selbstverstandlich sind diese Formeln aus der Theorie geboren und so fur die Praxisnoch nicht tauglich.

• Einen Abstand von 0 mm zum Nachbarauto kann nur ein Theoretiker einhal-ten. Fur die Praxis mussen da realistische Werte eingesetzt werden. Genau sosind auch alle anderen Werte so gerechnet, daß man gerade eben die Nachba-rautos nicht beruhrt. Jedem Autofahrer sei geraten, hier eine gewisse Toleranzeinzuplanen.

• Wer will denn schon mit Maßband und Winkelmesser auf Parkplatzsuche gehen.Immerhin scheint es vorstellbar, daß ein Autokonstrukteur hier vielleicht Ansatzefindet, um einen Computer an Bord mit den entsprechenden Daten zu futternund das Einparkmanover vollautomatisch ablaufen zu lassen.

Werte fur einige Autos

Wir stellen hier aus den Betriebshandbuchern die Werte fur einige Autos zusammen.Allerdings sollte die geneigte Leserin oder der versierte Autofreak obige Schlußbemer-kungen im Auge behalten.

Hersteller Modell Winkel optimale LuckeVW 4er Golf 42 5.50 mBMW 3er E46 45 5.96 mMercedes C–Klasse 43 5.88 mAudi A4 / S4 Limousine 43 5.94 mOpel Astra 5-turig 43 5.42 mVW Passat 41 6.08 mVW Polo 41 5.29 mFord Focus Limousine 4-turig 42 5.87 mMercedes E–Klasse 42 6.27 mOpel Corsa Limousine 3-turig 42 5.16 mMercedes Smart 42 4.25 mMercedes A-klasse 40 5.27 mRenault Laguna 46 6.14 m

Page 22: 3486584472_Mathem

Kapitel 1

Numerik linearerGleichungssysteme

1.1 Einleitung

Schon die alten Chinesen kannten lineare Gleichungssysteme und konnten sie mit einerTechnik, die sie die Regel ”Fang ch’eng“ nannten, losen, indem sie das System mit derPlus–Minus–Regel ganz im Sinne von Gauß auf Dreiecksgestalt transformierten. Die

”Neun Bucher arithmetischer Technik“ aus dem ersten vorchristlichen Jahrhundertschildern die folgende Aufgabe:

Beispiel 1.1 Essenszuteilung im alten China:1 Vorgesetzter, 5 Beamte und 10 Gefolgsleute erhalten zum Essen 10 Huhner.10 Vorgesetzte, 1 Beamter und 5 Gefolgsleute erhalten zum Essen 8 Huhner.5 Vorgesetzte, 10 Beamte und 1 Gefolgsmann erhalten zum Essen 6 Huhner.Wieviel bekommt jeder vom Huhn zum Essen?

Offensichtlich fuhrt das auf ein lineares Gleichungssystem mit drei Gleichungen unddrei Unbekannten. Die Losung, die man leicht mit dem Gaußschen Eliminationsverfah-ren ermittelt, gibt sicher nicht die Lebensverhaltnisse im alten China wieder, wo alsoein Vorgesetzter 45/122 Huhn, ein Gefolgsmann dagegen mehr als doppelt so viel,namlich 97/122 Huhn erhalt, wahrend ein braver Beamter immerhin noch 41/122Huhn bekommt. Aber es erstaunt schon, daß in so fruher Zeit die Eliminationstechnikbekannt war, die dann ja erst Anfang des 19. Jahrhunderts von C. F. Gauß wieder-entdeckt wurde.

Gerade in neuerer Zeit sind viele Techniken entwickelt worden, um vor allem großeSysteme, die vielleicht dazu noch schwach besetzt sind, numerisch befriedigend zulosen. Wir werden im folgenden einige dieser Techniken vorstellen.

Page 23: 3486584472_Mathem

10 1 Numerik linearer Gleichungssysteme

1.2 Zur Losbarkeit linearer Gleichungssysteme

Wir wollen hier nur kurz ein paar grundlegende Fakten uber lineare Gleichungssystemeauffrischen.

Definition 1.2 Unter einem linearen Gleichungssystem verstehen wir die Aufga-be:Gegeben sei eine (m× n)–Matrix A = (aij) und ein Vektor b ∈ R

m.Gesucht ist ein Vektor x ∈ R

n, der folgendem Gleichungssystem genugt:

a11x1 + a12x2 + · · · + a1nxn = b1

a21x1 + a22x2 + · · · + a2nxn = b2

......

...am1x1 + am2x2 + · · ·+ amnxn = bm

In Kurzschreibweise lautet dieses System

Ax = b. (1.1)

Zur Frage der Losbarkeit eines solchen Systems gibt uns der Alternativsatz fur lineareGleichungssysteme trefflich und erschopfend Auskunft.

Satz 1.3 (Alternativsatz fur lineare Gleichungssysteme)Gegeben sei eine reelle (m×n)–Matrix A und ein Vektor b ∈ R

m. Sei rg (A) der Rangvon A und rg (A|b) der Rang der um eine Spalte, namlich den Vektor b erweitertenMatrix A. Dann gilt fur die Losbarkeit der Aufgabe 1.1 die folgende Alternative:

(i) Ist rg (A) < rg (A|b), so ist die Aufgabe nicht losbar.

(ii) Ist rg (A) = rg (A|b), so ist die Aufgabe losbar.

Gilt im Fall (ii) zusatzlich rg (A) = n (= Anzahl der Unbekannten), so gibt es genaueine Losung.Gilt im Fall (ii) zusatzlich rg (A) < n (= Anzahl der Unbekannten), so gibt es eineganze Losungsschar mit n− rg (A) Parametern.

Ein vor allem bei Anfangern sehr beliebter Satz fallt uns hier als leichtes Korollar inden Schoß:

Korollar 1.4 Ist die Determinante der Koeffizientenmatrix eines quadratischen Glei-chungssystems ungleich Null, so hat das System genau eine Losung.

Das ist klar, denn det A = 0 bedeutet, daß A den vollen Rang hat. Also ist n−rg (A) =n− n = 0. Wir finden also keinen freien Parameter fur die Losung.Unser Argument befaßte sich nur mit der Zahl der Unbekannten, die durch die Anzahlder Spalten festgelegt ist, und dem Rang der Matrix. Die Anzahl der Zeilen spieltekeine Rolle. Das ist auch einsichtig, denn man kann ja einfach die letzte Zeile desSystems noch 20 mal darunter schreiben. Das andert doch an der Losbarkeit uberhauptnichts.

Page 24: 3486584472_Mathem

1.3 Spezielle Matrizen 11

1.3 Spezielle Matrizen

1.3.1 Symmetrische und Hermitesche Matrizen

Definition 1.5 Eine (n× n)–Matrix A = (aij) heißt

symmetrisch ⇐⇒ A = A ⇐⇒ aij = aji (1.2)

hermitesch ⇐⇒ A = A ⇐⇒ aij = aji (1.3)

Beispiel 1.6 Welche der folgenden Matrizen sind symmetrisch, welche hermitesch?

A =

⎛⎝ 1 3 5

3 2 −45 −4 −3

⎞⎠ , B =

⎛⎝ 1 3 + 3i 5− 4i

3− 3i 2 −4 + 2i5 + 4i −4− 2i −3

⎞⎠ ,

C =

⎛⎝ 1 3 + 3i 5− 4i

3 + 3i 2 −4 + 2i5− 4i −4 + 2i −3

⎞⎠

Die Matrix A ist reell und offensichtlich symmetrisch und auch hermitesch. Allgemeinist eine reelle Matrix genau dann hermitesch, wenn sie symmetrisch ist.Bei einer Matrix mit komplexen Eintragen ist das keineswegs so. Die Matrix B istnicht symmetrisch, aber hermitesch; denn wenn wir ihre konjugierte Matrix bildenund anschließend die transponierte, gelangen wir wieder zur Matrix B zuruck.Die Matrix C ist dagegen symmetrisch, aber nicht hermitesch.Der folgende Satz wird uns lehren, daß sowohl A als auch B eine reelle Determinantehaben, nur reelle Eigenwerte besitzen und daß sie zu einer (reellen) Diagonalmatrixahnlich sind.Die Matrix C ist zwar auch zu einer Diagonalmatrix ahnlich, aber die Diagonalele-mente und damit die Eigenwerte konnten komplex sein.

Im folgenden Satz stellen wir einige Tatsachen uber hermitesche und reell–symmetrischeMatrizen zusammen.

Satz 1.7 1. Eine hermitesche Matrix hat reelle Hauptdiagonalelemente.

2. Alle Eigenwerte einer reell–symmetrischen und alle Eigenwerte einer hermite-schen Matrix sind reell.

3. Das charakteristische Polynom einer hermiteschen Matrix hat reelle Koeffizien-ten; insbesondere sind die Determinante und die Spur einer hermiteschen Matrixreell.

4. Zu jeder reell–symmetrischen und zu jeder hermiteschen Matrix gibt es eineOrthonormalbasis (ONB) aus Eigenvektoren.

5. Jede reell–symmetrische und jede hermitesche Matrix ist zu einer Diagonalma-trix ahnlich.

Page 25: 3486584472_Mathem

12 1 Numerik linearer Gleichungssysteme

Beispiel 1.8 Vervollstandigen Sie die folgende Matrix A so, daß sie hermitesch (unddamit diagonalahnlich) ist:

A =

⎛⎝ 1 3 + i −2− i

3− i 2 −10. . . . . . . . .

⎞⎠ , Losung: A =

⎛⎝ 1 3 + i −2− i

3− i 2 −10−2 + i −10 a

⎞⎠ , a ∈ R.

Wir setzen a31 = −2 + i, um damit a31 = a13 zu erreichen. a32 = −10, und a33 = akonnen wir beliebig, aber reell wahlen. Damit erhalten wir die obige Matrix.

1.3.2 Positiv definite Matrizen

Beginnen wir gleich mit der Definition.

Definition 1.9 Eine reell–symmetrische (n× n)–Matrix A heißt

positiv definit ⇐⇒ xAx > 0 ∀x ∈ Rn, x = 0. (1.4)

Matrizen mit dieser Eigenschaft treten haufig in den Anwendungen auf. So sind fastimmer die Steifigkeitsmatrizen bei Elastizitatsproblemen positiv definit. Daher sindin jungerer Zeit viele neue Verfahren entstanden, die sich die speziellen Eigenschaftenpositiv definiter Matrizen zu Nutze machen. Wir erwahnen das Verfahren der konju-gierten Gradienten und die Methode der finiten Elemente, die wir spater kennenlernenwerden.Eine Abschwachung der obigen Definition dahin, daß in (1.4) auch die Gleichheitzugelassen ist, wird mit ”semidefinit“ bezeichnet. Wir halten das in der folgendenDefinition fest.

Definition 1.10 Eine reell–symmetrische n× n–Matrix A heißt

positiv semidefinit ⇐⇒ xAx ≥ 0 ∀x ∈ Rn. (1.5)

Die Definition erweist sich fur die Praxis als außerst unbrauchbar zum Nachweis derpositiven Definitheit. Besser geeignet sind die letzten beiden Kriterien der folgendenSammlung.

Satz 1.11 Fur eine reell–symmetrische Matrix A ist jede der folgenden Bedingungennotwendig und hinreichend (also aquivalent) zur positiven Definitheit:

(a) A positiv definit ⇐⇒ alle Hauptminoren sind echt großer als Null,

(b) A positiv definit ⇐⇒ alle Eigenwerte sind echt großer als Null,

(c) A positiv definit ⇐⇒ A laßt sich durch elementare Gaußsche Zeilenumformun-gen in eine Dreiecksmatrix mit positiven Diagonalelementen uberfuhren,

(d) A positiv definit ⇐⇒ A laßt sich in R in das Produkt A = C · C mit ei-ner oberen Dreiecksmatrix C zerlegen, die nur positive Diagonalelemente besitzt(vgl. Cholesky–Zerlegung Seite 73).

Page 26: 3486584472_Mathem

1.3 Spezielle Matrizen 13

Dabei bezeichnet man die folgenden n Determinanten einer (n × n)–Matrix A alsihre Hauptminoren oder auch Hauptunterdeterminanten oder Hauptabschnittsdeter-minanten:

det

⎛⎜⎝

a11 · · · a1k...

...ak1 · · · akk

⎞⎟⎠ , k = 1, . . . , n. (1.6)

Wir deuten dies an durch folgende Matrix, in der wir von links oben nach rechts unten,der Hauptdiagonalen folgend, Untermatrizen eingezeichnet haben.

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

a11 a12 a13 · · · · · · a1n

a21 a22 a23 · · · · · · a2n

a31 a32 a33 · · · · · · a3n...

......

. . ....

......

.... . .

...a1n a2n a3n · · · · · · ann

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

(1.7)

Ihre Determinanten sind es. Der erste Hauptminor ist also die Determinante aus der(1 × 1)–Matrix, die aus dem Element a11 besteht, also schlicht die Zahl a11. Derzweite Hauptminor ist die Determinante der eingezeichneten (2× 2)–Matrix usw., bisschließlich der n–te Hauptminor die Determinante der Matrix A selbst ist.Wir wollen schon gleich hier anmerken, daß die Berechnung dieser Hauptminorensehr aufwendig ist wie stets bei Determinanten und wir daher hochstens bei einfachgebauten (3× 3)–Matrizen auf dieses Kriterium zuruckgreifen werden.Der Cholesky–Zerlegung, der fur die Anwendungen bestens geeigneten Methode, wer-den wir ein eigenes Kapitel 1.9.1 spendieren.

Beispiel 1.12 Wie lauten samtliche Hauptminoren der Matrix A =

⎛⎝ 1 2 3

2 4 53 5 6

⎞⎠?

Der erste Hauptminor ist die Determinante der folgenden einzeilige Matrix (1), unddiese ist 1.Der zweite Hauptminor ist die Determinante der folgenden zweizeiligen Matrix:

det(

1 22 4

)= 0. Der dritte Hauptminor ist die Determinante der Matrix A, wir

berechnen sie zu detA = −1.

Mochte man ausschließen, daß eine Matrix positiv definit ist, so reicht es vielleichtmanchmal schon, daß eine der folgenden Bedingungen nicht erfullt ist.

Satz 1.13 Fur eine reell–symmetrische Matrix A ist jede der folgenden Bedingungennotwendig zur positiven Definitheit:

(a) A positiv definit =⇒ A−1 existiert und ist positiv definit,

Page 27: 3486584472_Mathem

14 1 Numerik linearer Gleichungssysteme

(b) A positiv definit =⇒ alle Diagonalelemente sind großer als Null.

Der Vollstandigkeit halber erklaren wir noch den Begriff der negativen Definitheit:

Definition 1.14 Eine symmetrische Matrix A heißt

negativ definit ⇐⇒ −A positiv definit

Man hute sich vor dem Fehlschluß, daß das Gegenteil von positiv definit die Eigen-schaft negativ definit sei. Wenn eine Matrix nicht positiv definit ist, so kann sie

• positiv semidefinit,

• negativ definit,

• negativ semidefinit,

• oder nichts von alledem sein.

Definition 1.15 Eine reell–symmetrische Matrix A, die weder positiv noch negativdefinit und auch nicht semidefinit ist, heißt indefinit.

So ist z. B. die Matrix

A =(

1 00 −1

)

weder positiv noch negativ definit und auch nicht semidefinit. Da sie offensichtlich denpositiven Eigenwert 1 und den negativen Eigenwert −1 hat, ist sie indefinit.Man kann also alle reell–symmetrischen (n×n)–Matrizen in drei Klassen einteilen, diepositiv semidefiniten, die negativ semidefiniten und die indefiniten Matrizen. Die posi-tiv definiten Matrizen bilden dann eine Teilmenge der positiv semidefiniten Matrizenund ebenso die negativ definiten eine Teilmenge der negativ semidefiniten Matrizen.Wir deuten das in der Abbildung 1.1, S. 15, an.Vor einem weiteren Fehlschluß sei auch noch gewarnt.

Richtig ist, daß bei einer positiv definiten Matrix alle Eigenwerte positiv sind und beieiner negativ definiten alle Eigenwerte negativ.

Richtig ist auch, daß eine positiv semidefinite Matrix positive Eigenwerte und auchden Eigenwert 0 besitzt, entsprechend besitzt eine negativ semidefinite Matrix negativeEigenwerte und ebenfalls den Eigenwert 0.

Falsch ist aber, daß eine negativ definite Matrix nur negative Hauptminoren besitzt.Richtig dagegen ist, daß die Hauptminoren wechselndes Vorzeichen besitzen; also dererste Hauptminor ist negativ, der zweite positiv, der dritte wieder negativ usw. Dasliegt daran, daß eine Determinante bereits dann ihr Vorzeichen wechselt, wenn maneine Zeile der Matrix mit −1 multipliziert.

Page 28: 3486584472_Mathem

1.3 Spezielle Matrizen 15

Abbildung 1.1: Klasseneinteilung der reell–symmetrischen Matrizen

Beispiel 1.16 Welche der folgenden Matrizen ist positiv definit bzw. nicht positivdefinit?

A =(

2 43 2

), B =

(4 44 4

), C =

(2 33 −6

),D =

(2 33 6

), E =

(17 00 8

).

A ist nicht symmetrisch, also nach unserer Definition auch nicht positiv definit.B hat zwei identische Zeilen, die Matrix ist also singular, ihre Inverse existiert nicht.Daher ist das erste notwendige Kriterium nicht erfullt. Also ist auch B nicht positivdefinit.C hat ein negatives Diagonalelement, ist also nach dem zweiten notwendigen Kriteriumebenfalls nicht positiv definit.Bei D haben wir Gluck. Die Hauptminoren sind, wie im Kopf leicht auszurechnen,positiv. Der erste ist ja nur die Zahl d11 = 2, der zweite Hauptminor ist bei einerzweireihigen Matrix die Determinante. Die betragt 3, und das ist ebenfalls eine positiveZahl. Also ist D positiv definit.Auch bei E zeigt der Daumen nach oben. Diese Matrix hat offensichtlich die beidenEigenwerte 17 und 8. Die sind aber beide positiv, also ist auch E positiv definit.

Beispiel 1.17 Welche der folgenden Matrizen ist positiv definit?

A =(

4 −3−3 9/4

), B =

⎛⎝ 1 1 0

1 3 −10 −1 1

⎞⎠

..........

...........

............

.............

...........

............

.............

.............

.............

.............

.............

.............

.............

......................

......................................

....

.............

...........

............

............

............

............

............

.............

...........

.............

.............

..

..

...

..

..

..

..

..

...

..

...

..

..

..

..

..

...

..

..

..

...........

............

..............

............

.............

...............

............

..

........

.....

.........

....

...........

.

............

............

............ .......... ......................

..........

.............

...........

.............

.............

..............

............

............

.............

..............

............

............

..........

...........

positiv negativ

indefinit

semidefinit semidefinit

positiv

definit

negativ

definit

Page 29: 3486584472_Mathem

16 1 Numerik linearer Gleichungssysteme

Hier berechnen wir schnell det A = 0, also ist A singular, was obigem Kriteriumwiderspricht, A ist nicht positiv definit.Wir formen die Matrix B mit Gaußschen Elementarumformungen in eine obere Drei-ecksmatrix um:

B →⎛⎝ 1 1 0

0 2 −10 −1 1

⎞⎠→

⎛⎝ 1 1 0

0 2 −10 0 1/2

⎞⎠ .

Wir sehen, daß diese Umformungen zu einer Dreiecksmatrix gefuhrt haben, die nurpositive Diagonalelemente hat, also ist B positiv definit.

Beispiel 1.18 Wie muß man die reellen Zahlen a und b wahlen, damit die folgendenMatrizen positiv definit sind?

A =(

1 3a b

), B =

⎛⎝ 5 −2 1−2 3 0

1 0 a

⎞⎠ a, b ∈ R

Damit A symmetrisch wird, muß a = 3 gewahlt werden. Dann muß aber b > 9 sein,damit die Determinante positiv wird. Fur solche Werte ist also A positiv definit.Zur Untersuchung der Matrix B berechnen wir wieder die Hauptminoren. Der ersteund der zweite Hauptminor sind direkt zu berechnen und unabhangig von a. Der ersteist gleich 5, der zweite gleich 11. Fur den dritten bemuht man vielleicht die Regel vonSarrus, um zu erkennen, daß fur a > 3/11 die positive Definitheit erreicht wird.

1.3.3 Orthogonale Matrizen

Wir starten gleich mit der Definition und zeigen einige Eigenschaften in den folgendenBeispielen:

Definition 1.19 Eine (n× n)–Matrix A heißtorthogonal ⇐⇒ die Spalten sind normiert und zueinander paarweise orthogonal.

Beispiel 1.20 Uberlegen Sie sich, daß fur eine orthogonale Matrix A gilt:

A ·A = E (1.8)

Dies folgt unmittelbar aus dem Matrizenmultiplikationsschema. Denn die Spalten vonA sind ja gerade die Zeilen von A. Die im Beispiel angesprochene Multiplikation istalso das Produkt aus jeweils zwei Spalten. Orthogonal bei Vektoren bedeutet, daß dasinnere Produkt verschiedener Spalten verschwindet. In der Definition haben wir dieSpalten als normiert verlangt, also ist das Produkt einer Spalte mit sich 1. So gelangtman automatisch zur Einheitsmatrix.

Page 30: 3486584472_Mathem

1.3 Spezielle Matrizen 17

Beispiel 1.21 Zeigen Sie, daß orthogonale Matrizen regular sind.

Sei dazu A eine orthogonale Matrix, das bedeutet ja, daß A · A = E gilt, wobei Edie Einheitsmatrix ist. Eine regulare Matrix ist nun z. B. dadurch charakterisiert, daßihre Determinante nicht verschwindet. Wir uberlegen uns also, daß det A = 0 gilt. Ausdem Produktsatz fur Determinanten haben wir fur eine orthogonale Matrix

det E = 1 = det (A · A) = det A · detA = detA · detA = (detA)2

Das heißt aber gerade, daß det A = ±1 ist, also garantiert det A = 0 gilt.

Beispiel 1.22 Zeigen Sie: Falls die Spalten einer (n×n)–Matrix A paarweise ortho-gonal zueinander sind, dann sind auch die Zeilen paarweise orthogonal.

Die Spalten einer Matrix A sind die Zeilen der Matrix A, eine triviale Erkenntnis,die wir uns hier zunutze machen. Bei der Matrizenmultiplikation einer Matrix B miteiner Matrix A bildet man doch die Skalarprodukte der Zeilen von B mit den Spaltenvon A. Setzen wir jetzt an die Stelle von B die Matrix A, so werden beim ProduktA · A die Zeilen von A, also die Spalten von A mit den Spalten von A multipli-ziert. Orthogonal bedeutet also A · A = E. Diese Gleichung laßt sich aber leichtumformen zu A = A−1. Multiplikation dieser Gleichung von links mit A fuhrt zu derGleichung A · A = A · A−1 = E. Interpretieren wir diese Gleichung wieder mit demMatrizenmultiplikationsschema, so sehen wir, daß auch die Zeilen orthogonal sind.

Beispiel 1.23 Erganzen Sie in der folgenden Matrix A das Element a21 so, daß Aeine orthogonale Matrix wird, und geben Sie die inverse Matrix von A an.

A =(

1/√

2 1/√

2. . . 1/

√2

).

Nach den obigen Erklarungen konnen wir uns darauf beschranken, lediglich die Losunganzugeben.

A =(

1/√

2 1/√

2−1/

√2 1/

√2

), A−1 = A =

(1/√

2 −1/√

21/√

2 1/√

2

)

1.3.4 Permutationsmatrizen

Manipulationen an Matrizen lassen sich am bequemsten dadurch beschreiben, daßman sie durch Operationen mit anderen Matrizen erklart. Ein typischer Vertretereiner solchen Manipulation ist das Vertauschen von Zeilen oder Spalten einer Matrix.Dazu dienen die Permutationsmatrizen.

Page 31: 3486584472_Mathem

18 1 Numerik linearer Gleichungssysteme

Definition 1.24 Eine (n × n)–Matrix heißt Transpositionsmatrix , wenn sie ausder Einheitsmatrix durch Tausch zweier Zeilen hervorgeht, also die Form hat:

Pij =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 00 1

0 · · · · · · · · · 1...

. . ....

... 1...

.... . .

...1 · · · · · · · · · 0

1. . . 0

0 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

← i–te Zeile

← j–te Zeile

(1.9)

Durch einfaches Ausprobieren erkennt man folgende Eigenschaften:

Satz 1.25 Die Transpositionsmatrix Pij vertauscht, wenn man sie von links an eineandere (n×n)–Matrix A heranmultipliziert, die i–te mit der j–ten Zeile. Multipliziertman sie von rechts an A heran, so wird in A die i–te Spalte mit der j–ten Spaltevertauscht.Transpositionsmatrizen sind symmetrisch.Transpositionsmatrizen sind zu sich selbst invers; es gilt also

Pij · Pij = E und daher P−1ij = Pij . (1.10)

Die Symmetrie sieht man unmittelbar, und wenn Sam es noch einmal macht, namlichdieselben zwei Zeilen tauscht, kommt er zur Ursprungsmatrix zuruck.

Definition 1.26 Eine (n × n)–Matrix heißt Permutationsmatrix , wenn sie einProdukt von Transpositionsmatrizen ist.

Damit ist auch klar, wie sich die Linksmultiplikation mit einer Permutationsmatrix Pauf eine Matrix A auswirkt. Bei ihr werden nacheinander die Zeilen getauscht in derReihenfolge, wie P aus Transpositionsmatrizen aufgebaut ist.

Satz 1.27 Fur jede Permutationsmatrix P ∈ Rn×n gilt:

P−1 = P, (1.11)

Permutationsmatrizen sind also orthogonal.

Beispiel 1.28 Wie lautet die Transpositionsmatrix P , die bei einer (3,3)-Matrix Adie erste Zeile mit der dritten Zeile vertauscht?

Page 32: 3486584472_Mathem

1.3 Spezielle Matrizen 19

Das Verfahren zur Entwicklung dieser Matrix ist denkbar einfach. Wir nehmen unsdie zugehorige (3 × 3)–Einheitsmatrix her und vertauschen in ihr die erste mit derdritten Zeile, und schon ist es passiert. Die entstehende Matrix ist die gesuchte Trans-positionsmatrix. Somit lautet das Ergebnis

P =

⎛⎝ 0 0 1

0 1 01 0 0

⎞⎠

Beispiel 1.29 Was geschieht, wenn eine (4×4)–Matrix A von links mit der folgendenMatrix P multipliziert wird:

P =

⎛⎜⎜⎝

1 0 0 00 0 0 10 0 1 00 1 0 0

⎞⎟⎟⎠

P ist eine Transpositionsmatrix. Sie entsteht aus der Einheitsmatrix durch Tauschder zweiten mit der vierten Zeile. Die Multiplikation einer Matrix A von links mit Pbewirkt daher in A einen Zeilentausch der zweiten mit der vierten Zeile.

1.3.5 Frobeniusmatrizen

Im vorigen Unterkapitel 1.3.4 hatten wir das Vertauschen zweier Zeilen oder Spaltenals Matrizenmultiplikation beschrieben. Eine weitere Umformung bei Matrizen, diezum Beispiel bei der Rangbestimmung oder beim Losen eines linearen Gleichungssy-stems auftritt, ist die Addition des Vielfachen einer Zeile zu einer anderen Zeile. Auchdiese Manipulation laßt sich als Matrizenprodukt deuten. Dazu dienen die Frobenius-matrizen.

Definition 1.30 Unter einer Frobeniusmatrix Fi verstehen wir eine (n×n)–Matrixder Gestalt

Fi =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 0

0. . .

1bi+1,i 1

.... . .

0 bni 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

(1.12)

Die Bedeutung dieser Frobeniusmatrizen bei den oben besprochenen Manipulationenfassen wir im folgenden Satz zusammen.

Satz 1.31 Die Frobeniusmatrix Fi addiert, wenn man sie von links an eine andere(n × n)–Matrix A heranmultipliziert, das bki–fache der i–ten Zeile von A zur k–tenZeile von A fur k = i + 1 . . . , n.

Page 33: 3486584472_Mathem

20 1 Numerik linearer Gleichungssysteme

Das erlautern wir an folgendem Beispiel.

Beispiel 1.32 Wie wirkt sich die Linksmultiplikation der Matrix A mit der Frobeni-usmatrix F2 aus?

A =

⎛⎜⎜⎝

1 1 1 12 2 2 23 3 3 34 4 4 4

⎞⎟⎟⎠ , F2 =

⎛⎜⎜⎝

1 0 0 00 1 0 00 −1 1 00 2 0 1

⎞⎟⎟⎠

Einfache Ausrechnung liefert das Ergebnis, daß in der Tat die zweite Zeile von A mit−1 multipliziert und zur dritten Zeile addiert wird und daß das zweifache der zweitenZeile zugleich zur vierten Zeile addiert wird.

F2 · A =

⎛⎜⎜⎝

1 1 1 12 2 2 21 1 1 18 8 8 8

⎞⎟⎟⎠

Satz 1.33 Die Frobeniusmatrizen Fi sind regular, und ihre inverse Matrix hat wiederFrobeniusgestalt und lautet:

F−1i =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 0

0. . .

1−bi+1,i 1

.... . .

0 −bni 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

(1.13)

Das muß man auf der Zunge zergehen lassen. Was hat man sich im Leben schon geplagtmit der Bestimmung der inversen Matrix. Hier fallt uns das in den Schoß. Einfach dieVorzeichen der einen Spalte unterhalb des Diagonalelementes vertauschen, und schonist die Arbeit getan.

Beispiel 1.34 Wie lautet die zu folgender Frobenius–Matrix F3 inverse Matrix:

F3 =

⎛⎜⎜⎜⎜⎝

1 0 0 0 00 1 0 0 00 0 1 0 00 0 −3 1 00 0 4 0 1

⎞⎟⎟⎟⎟⎠ , Losung: F−1

3 =

⎛⎜⎜⎜⎜⎝

1 0 0 0 00 1 0 0 00 0 1 0 00 0 3 1 00 0 −4 0 1

⎞⎟⎟⎟⎟⎠ .

Vielleicht sollte man sich das Vergnugen gonnen und beide Matrizen miteinandermultiplizieren, um den Wahrheitsgehalt zu uberprufen.

Page 34: 3486584472_Mathem

1.3 Spezielle Matrizen 21

1.3.6 Diagonaldominante Matrizen

Die Beschreibung dieser Matrizen ist etwas diffizil, weil sich in der Literatur keineeinheitliche Benennung durchgesetzt hat. Wir wollen uns an die folgende Bezeichnunghalten.

Definition 1.35 Eine (n × n)–Matrix A heißt stark zeilendiagonaldominant ,wenn sie dem starken Zeilensummenkriterium genugt:

n∑k=1k =i

|aik| < |aii|, 1 ≤ i ≤ n (1.14)

Die Bedeutung dieser Definition ergibt sich fast von selbst. Man beachte nur, daß beidieser Definition in allen Zeilen das echte Großerzeichen verlangt wird. Ersetzt manuberall das Wort ‘Zeile’ durch ‘Spalte’ und modifiziert die Gleichung (1.14) entspre-chend, so erhalt man das starke Spaltensummenkriterium und den Begriff der starkenSpaltendiagonaldominanz. Bei symmetrischen Matrizen spricht man naturlich nur vonDiagonaldominanz.Diese Begriffsbildung ist haufig zu eng. Gerade Matrizen, die in Anwendungen z. B. beimDifferenzenverfahren auftreten, genugen dieser Bedingung nicht. Sie erfullen aber eineAbschwachung dahingehend, daß in wenigen Zeilen das echte Großerzeichen gilt, inallen anderen auch Gleichheit auftritt. Darum fuhren wir den neuen Begriff ein:

Definition 1.36 Eine Matrix A heißt schwach zeilendiagonaldominant , wennsie dem schwachen Zeilensummenkriterium genugt:

n∑k=1k =i

|aik| ≤ |aii|, 1 ≤ i ≤ n, (1.15)

wobei in mindestens einer Zeile das echte Kleinerzeichen gelten muß.

Auch hier kann eine analoge Definition fur schwache Spaltendiagonaldominanz formu-liert werden.

Beispiel 1.37 Gegeben sei die Matrix A =

⎛⎝ 1 4 −1

2 1 109 −2 3

⎞⎠ .

Formen Sie A so um, daß sie zeilen– und spalten–diagonaldominant wird.

Mit Umformen meinen wir hier die Vertauschung von Zeilen. Dabei denken wir unsdie Matrix als Systemmatrix eines linearen Gleichungssystems. Hier bedeutet ja dieVertauschung von Zeilen keine wesentliche Anderung, wenn wir Rundungsfehler außerBetracht lassen. Wenn wir die erste Zeile mit der zweiten und anschließend die neue

Page 35: 3486584472_Mathem

22 1 Numerik linearer Gleichungssysteme

erste mit der dritten vertauschen, wird die entstehende Matrix sowohl zeilen– als auchspaltendiagonaldominant:

A =

⎛⎝ 9 −2 3

1 4 −12 1 10

⎞⎠

Wir wollen hier schnell mal den Umgang mit Transpositionsmatrizen uben. Der obigeUbergang von A zu A wird erreicht durch

P12 =

⎛⎝ 0 1 0

1 0 00 0 1

⎞⎠ , P31 =

⎛⎝ 0 0 1

0 1 01 0 0

⎞⎠ ,

und zwar mussen wir in der folgenden Reihenfolge vorgehen:

A = P31 · P12 ·A.

Die folgende Aussage ist in ihrem Kern schon interessant genug, bestatigt sie dochunser Gefuhl, daß ein quadratisches Gleichungssystem mit diagonaldominanter Matrixgenau eine Losung besitzt. Spater werden wir auf sie zuruckgreifen.

Satz 1.38 Sei A eine stark zeilen– oder spaltendiagonaldominante (n × n)–Matrix.Dann ist A regular.

Beweis: Wir wollen uns den Beweis nur fur eine zeilendominante Matrix uberlegen.Das andere folgt dann allein.Nehmen wir doch mal an, unsere dominante Matrix A ware nicht regular. Dann be-trachten wir das lineare homogene Gleichungssystem

Ax = 0.

Dieses hatte dann eine nichttriviale Losung x = 0. Wir dividieren diesen Losungs-vektor komponentenweise durch seine betraglich großte Komponente und nennen denentstehenden Vektor x0. Dann gilt fur alle Komponenten von x0

|xi|0 ≤ 1, 1 ≤ i ≤ n. (1.16)

Die betraglich großte sei die k–te, und von der wissen wir

x0k = 1.

Nun schauen wir uns diese k–te Gleichung von Ax0 = 0 gesondert an.

ak1x01 + ak2x

02 + · · · + akkx

0k + · · ·+ aknx0

n = 0.

Page 36: 3486584472_Mathem

1.3 Spezielle Matrizen 23

Diese Gleichung losen wir nach akkx0k auf und beachten x0

k = 1.

akkx0k = akk = −

n∑j=1j =k

akjx0j .

Gehen wir zu den Betragen uber, benutzen wir die Dreieckungleichung und im letztenSchritt die Gleichung (1.16), so folgt

|akk| = | −n∑

j=1j =k

akjx0j | ≤

n∑j=1j =k

|akj| · |x0j | ≤

n∑j=1j =k

|akj |.

Also ware A in der k–ten Zeile nicht diagonaldominant. Da haben wir den Salat undzugleich unseren Widerspruch, und der Satz ist bewiesen.

1.3.7 Zerfallende Matrizen

Definition 1.39 Eine quadratische Matrix A heißt zerfallend oder reduzibel ,wenn man sie durch Vertauschen von Zeilen und gleichnamigen Spalten uberfuhrenkann in eine Matrix der Gestalt:

A =(

A1 A2

0 A3

), A1, A3 quadr. Teilmatrizen (1.17)

Bei der Vertauschung von Zeilen und gleichnamigen Spalten bleiben die Diagonalele-mente naturlich in der Diagonalen stehen, sie andern nur ihren Platz. Die Nullen inder linken unteren Ecke stammen aus den Nichtdiagonalelementen. Wichtig sind alsonur die Nichtdiagonalelemente, die von 0 verschieden sind.Interessanterweise gibt es eine simple graphische Methode, um diese Eigenschaft nach-zuweisen. Dazu wollen wir der Einfachheit halber voraussetzen, daß die Matrix sym-metrisch ist, obwohl die Methode mit kleinen Anderungen auch fur nichtsymmetrischeMatrizen durchfuhrbar ist.Betrachten wir eine (n× n)–Matrix A. Wir nummerieren die Spalten von 1 bis n undzeichnen diese Nummern auf ein Blatt. Dann gehen wir zeilenweise vor. Wir startenbeim Element a11, egal ob es 0 ist oder nicht, und ziehen eine Verbindungslinie vonNummer 1 zu allen Nummern 2 bis n, wenn das Element a12 bis a1n von 0 verschie-den ist, sonst ziehen wir keine Verbindung. Dann gehen wir zum Diagonalelement der2. Zeile und betrachten die Elemente a23 bis a2n. Sind sie ungleich 0, so ziehen wireine Verbindungslinie von der Nummer 2 zur jeweiligen Nummer. So geht das Spiel-chen alle Zeilen lang. Wegen der Symmetrie brauchen wir nur die Elemente oberhalbder Diagonalen zu untersuchen. Anschließend wird das entstandene Bild daraufhinbetrachtet, ob man von jedem Punkt des Graphen jeden anderen Punkt durch ei-ne Verbindungslinie erreichen kann. Ist dies moglich, so ist die Matrix unzerlegbar.Besteht aber der Graph aus mehreren Teilgraphen, die nicht miteinander verbunden

Page 37: 3486584472_Mathem

24 1 Numerik linearer Gleichungssysteme

sind, so ist die Matrix zerlegbar. Mathematisch fragt man nach der Zahl der Zusam-menhangskomponenten. Gibt es nur eine, so ist die Matrix unzerlegbar, besteht derGraph aus mehreren solchen Komponenten, so ist A reduzibel.Wir uben das Spielchen am besten an Beispielen.

Beispiel 1.40 Welche der folgenden Matrizen ist zerfallend (reduzibel)?

A =

⎛⎜⎜⎝

4 0 2 20 4 0 02 0 5 32 0 3 4

⎞⎟⎟⎠ , B =

⎛⎜⎜⎝

4 2 0 02 4 2 00 2 5 30 0 3 4

⎞⎟⎟⎠

Die Matrix A hat vier Zeilen und Spalten, also malen wir uns die Ziffern 1 bis 4 aufein Blatt in irgendeiner Anordnung. Da in der ersten Zeile von A die Elemente a13

und a14 ungleich Null sind, verbinden wir die Ziffer 1 mit den Ziffern 3 und 4. Ausder zweiten Zeile von A entnehmen wir, daß wir von 2 aus keine Verbindungslinie zuziehen haben. Die dritte Zeile liefert die Verbindung von 3 nach 4. So entsteht dieAbbildung 1.2. Fur die Matrix B geht man analog vor.

Abbildung 1.2: Zerfallen und nicht zerfallen. Offensichtlich zerfallt A, da die Ziffer 2 soerbarmlich einsam steht, wahrend bei B alle Ziffern untereinander Verbindung haben.

Beispiel 1.41 Bringen Sie die zerfallende Matrix aus Beispiel 1.40. durch Zeilen-und Spaltentausch auf die Form, die das Zerfallen sichtbar macht.

Wie wir oben gesehen haben, ist A zerfallend. Unser Bildchen zeigt uns eine ganzallein stehende 2. Wir werden also die zweite Zeile und die zweite Spalte jeweils zurersten machen durch einfachen Tausch mit der ersten Zeile und Spalte. Das fuhrt zu

A =

⎛⎜⎜⎝

4 0 0 00 4 2 20 2 5 30 2 3 4

⎞⎟⎟⎠ .

Hier sieht man, daß z. B. 4 ein Eigenwert von A ist. Die Determinante von A berechnetman als das Produkt von 4 mit der Determinante der verbleibenden (3× 3)–Matrix.Eine einfache hinreichende Bedingung dafur, daß eine Matrix nicht zerfallt, darf nichtfehlen.

1 2

3 4Matrix A

1 2

3 4Matrix B

Page 38: 3486584472_Mathem

1.4 Vektor– und Matrix–Norm 25

Satz 1.42 Eine (n × n)–Matrix A = (aij), deren Nebendiagonalelemente ai,i+1 undai+1,i fur 1 ≤ i ≤ n− 1 nicht verschwinden, ist nicht zerfallend.

Zum Abschluß geben wir noch einen Satz an, der einen interessanten Zusammenhangzwischen diagonaldominanten und positiv definiten Matrizen herstellt.

Satz 1.43 Ist A eine symmetrische (n × n)–Matrix mit positiven Diagonalelemen-ten und ist A zusatzlich stark diagonaldominant oder schwach diagonaldominant undunzerlegbar, so ist A positiv definit.

Auf der folgenden Seite stellen wir die oben eingefuhrten Definitionen zusammen. Wirgehen dabei nicht auf die verschiedenen Moglichkeiten des Nachweises der jeweiligenEigenschaften ein, dazu moge man an der entsprechenden Stelle nachlesen.

1.4 Vektor– und Matrix–Norm

1.4.1 Vektornorm

Erfahrungsgemaß bereitet der Begriff ’Norm’ Anfangern Probleme. Dabei ist etwasrecht Einsichtiges dahinter verborgen. Bei vielen Aufgaben, die uns im weiteren Ver-lauf dieses Buches beschaftigen werden, werden auf teils sehr komplizierten Wegenzu gesuchten Losungen Naherungslosungen entwickelt. Dieser Begriff ist reichlich va-ge, man muß ihn unbedingt sauberer fassen. Bei einem Gleichungssystem sucht maneinen Losungsvektor, bei einer Anfangswertaufgabe mit einer Differentialgleichungsucht man eine Funktion, die die exakte Losungsfunktion annahert. Was meint manmit Naherung?Hier bietet es sich an, die Differenz der exakten Losung zur Naherung zu betrachten.Aber wie will ich die Differenz zweier Vektoren bewerten? Oder gar die Differenz zweierFunktionen?Betrachten wir folgende Beispiele:

Beispiel 1.44 Gegeben seien die Vektoren (wir schreiben sie zur Platzersparnis alsZeilenvektoren)

a = (1, 2, 3, 4),b1 = (2, 3, 4, 5), b2 = (1, 2, 3, 8), b3 = (10, 20, 30,−50).

Welcher der Vektoren b1,b2,b3 ist die beste Annaherung an den Vektor a?

Geht man ganz naiv an die Frage heran und betrachtet die Differenzen der Vektoren,so folgt

b1 − a = (1, 1, 1, 1),b2 − a = (0, 0, 0, 4),b3 − a = (9, 18, 27,−54).

Page 39: 3486584472_Mathem

26 1 Numerik linearer Gleichungssysteme

Spezielle Matrizen

Eine (n× n)–Matrix A heißt

symmetrisch ⇐⇒ A = A ⇐⇒ aij = aji

hermitesch ⇐⇒ A = A ⇐⇒ aij = aji

regular ⇐⇒ detA = 0 ⇐⇒ rgA = n

positiv definit ⇐⇒ (i) A symmetrisch und(ii) xAx > 0 ∀x ∈ R

n, x = 0

positiv semidefinit ⇐⇒ (i) A symmetrisch und(ii) xAx ≥ 0 ∀x ∈ R

n, x = 0

negativ definit ⇐⇒ −A positiv definit

orthogonal ⇐⇒ A · A = A ·A = E

stark diagonaldominant ⇐⇒ ∑nk=1k =i

|aik| < |aii|, 1 ≤ i ≤ n

schwach diagonaldominant ⇐⇒ ∑nk=1k =i

|aik| ≤ |aii|, 1 ≤ i ≤ n,

wobei in mindestens einer Zeiledas echte Kleinerzeichen gelten muß.

zerfallend, reduzibel ⇐⇒ man kann sie durch Vertauschen vonZeilen und gleichnamigen Spaltenuberfuhren in eine Matrix:

A =(

A1 A2

0 A3

),

A1, A3 quadr. Teilmatrizen

Man mochte dazu neigen, dem Vektor b2 die besten Chancen zu geben. Summiert manaber die Fehler in den Komponenten auf, so haben b1 und b2 die gleiche Gesamtab-weichung 4. Dagegen hat der Vektor b3 eine Gesamtabweichung 0, obwohl der dochwohl wirklich nicht verwertbar ist. Die Fehler haben sich in den Komponenten gegen-seitig aufgehoben. Also wird man sich auf die Betrage der Komponenten sturzen. Wasspricht dagegen, die Betrage zu quadrieren und anschließend aus der Summe die Wur-zel zu ziehen? Hier pflegte mein alter Mathematiklehrer einzuwerfen, daß man sichauch ein Loch ins Knie bohren und einen Fernseher dort anbringen kann. Oh nein, wirwerden sehen, daß diese Idee mit den Quadraten nicht von schlechten Eltern ist.Definieren wir zuerst einmal nach diesen Uberlegungen, wie man den Abstand zweier

Page 40: 3486584472_Mathem

1.4 Vektor– und Matrix–Norm 27

Vektoren festlegen kann. Dazu beschreiben wir, wie der Abstand eines Vektors vomNullpunkt erklart wird. Diesen Abstand nennt man die Norm dieses Vektors.

Definition 1.45 Ein Vektorraum V heißt normiert, wenn jedem Vektor x einenicht–negative reelle Zahl ‖x‖, seine Norm zugeordnet ist mit den Eigenschaften:

(i) ‖x‖ = 0 ⇐⇒ x = 0 (1.18)(ii) ‖λx‖ = |λ| · ‖x‖ (1.19)

(iii) ‖x + y‖ ≤ ‖x‖+ ‖y‖ (1.20)

Die Bedingung (i) nennt man positive Definitheit oder sagt adjektivisch, daß eineNorm positiv definit ist.Die Bedingungen (ii) und (iii) beschreiben, wie sich die Norm mit den Verknupfungenim Vektorraum vertragt, also der Addition zweier Vektoren und der Skalarmultipli-kation. (ii) ist eine Einschrankung der Homogenitat. Die Norm ist bezogen auf denBetrag homogen.

(iii) nennt man die Dreiecksunglei-chung. Betrachten wir namlich im R

2

ein Dreieck, das von den Vektoren x,y und eben x + y aufgespannt wird.Die Norm dieser Vektoren ist ja ihreLange. Wie die nebenstehende Abbil-dung zeigt, ist die Lange des Summen-vektors x+y kleiner als die Summe derLangen der Vektoren x und y. Daherder Name.

x + y

x y

Abbildung 1.3: Zur Dreiecksun-gleichung

Haufig werden diese drei Eigenschaften in vier oder gar funf aufgebroselt. Wir habenz. B. im Vorspann der drei Eigenschaften schon verlangt, daß die Norm eines Vektorsgroßer oder gleich Null ist, was bei anderen Autoren als erste Bedingung (erstes Axiom,wie die Mathematiker sagen) genannt wird.Unsere Bedingung (i) zerfallt manchmal in zwei Forderungen:

‖x‖ ≥ 0 und ‖x‖ = 0 nur fur x = 0

Aber dennoch bleiben es dieselben Grundforderungen fur eine Norm, und das weltweit.Im R

n fuhren wir eine ganze Klasse von Normen durch folgende Definition ein:

Definition 1.46 Unter der p–Norm eines Vektors im Rn verstehen wir

‖x‖p :=

(n∑

i=1

|xi|p)1/p

fur p ∈ [1,∞). (1.21)

Page 41: 3486584472_Mathem

28 1 Numerik linearer Gleichungssysteme

Das muß man ein wenig erlautern. p kann irgendeine reelle Zahl > 1 sein. Man bildetalso die p–ten Potenzen der Betrage der einzelnen Komponenten und zieht aus derenSumme die p–te Wurzel. Ganz schon kompliziert. Sind denn durch diese Vorschriftunsere Normbedingungen erfullt?Offensichtlich entsteht stets eine reelle Zahl großer oder gleich 0. Allein schon wegender Betrage kann die Zahl 0 nur entstehen, wenn alle Komponenten gleich 0 sind. Dasergibt die positive Definitheit.Daß man einen konstanten Faktor vor die Summe ziehen kann, ist klar; denn es handeltsich ja nur um eine endliche Summe. Man nehme bitteschon nur den Betrag diesesFaktors.Zum Nachweis der Dreiecksungleichung erinnert man sich an die Dreiecksungleichungfur die Betrage von Zahlen und fur ihre Potenzen.Wir betrachten die folgenden Spezialfalle.Fur p = 1 erhalt man aus (1.21) die Summe aus den Betragen der Komponenten, unddas ist einfach die 1–Norm

‖x‖1 :=n∑

i=1

|xi| (1.22)

Komplizierter wird es fur großere p.In der 2–Norm stecken die oben als alberne Idee betrachteten Quadrate. Jetzt er-innern wir uns auch sicher an die euklidische Norm eines Vektors, die ja genau mitHilfe des Satzes von Pythagoras auf die Wurzeln aus der Summe der Quadrate derKomponenten fuhrt, also unsere 2–Norm.

‖x‖2 :=

(n∑

i=1

|xi|2)1/2

. (1.23)

Interessant wird es, wenn wir p →∞ betrachten. Hier ist einsichtig, daß bei der p–tenPotenz nur noch die betragsmaßig großte Komponente eine Rolle spielen wird, wennp erst hinreichend groß wird. Dann wird durch die anschließende p–te Wurzel diePotenz wieder aufgehoben. Wir konnen damit also eine sehr einfache Norm definieren,namlich die Maximumnorm

‖x‖∞ := max1≤i≤n

|xi|. (1.24)

Wenden wir diese Normen auf unsere Vektoren von oben an, so erhalten wir:

‖a‖1 = 1 + 2 + 3 + 4 = 10, ‖a‖2 =√

1 + 4 + 9 + 16 = 5.477, ‖a‖∞ = 4

Fur die Differenzen ergibt sich:

1–Norm 2–Norm max–Norm‖b1 − a‖ 4 2 1‖b2 − a‖ 4 4 4‖b3 − a‖ 108

√4050 = 63.639 54

Page 42: 3486584472_Mathem

1.4 Vektor– und Matrix–Norm 29

Das sind ganz schone Unterschiede. Oftmals sitzt man in der Bredouille, daß mandie Qual der Wahl hat mit den Normen. Der folgende Satz sagt uns aber, daß dasalles nicht so dramatisch ist; im Prinzip ist es egal, fur welche Norm sich unser Herzerwarmt.

Satz 1.47 In endlich dimensionalen Raumen sind samtliche Normen zueinander aqui-valent, das heißt, zu zwei Normen ‖.‖V1 und ‖.‖V2 gibt es stets zwei positive Zahlen c1

und c2, so daß gilt

c1‖x‖V1 ≤ ‖x‖V2 ≤ c2‖x‖V1 . (1.25)

Diese Zahlen konnen wir fur unsere oben eingefuhrten Normen sogar explizit angeben.

Satz 1.48 Im Vektorraum Rn gelten die folgenden Ungleichungen

‖x‖∞ ≤ ‖x‖2 ≤√

n ‖x‖∞, (1.26)

1n‖x‖1 ≤ ‖x‖∞ ≤ ‖x‖1, (1.27)

1√n‖x‖1 ≤ ‖x‖2 ≤ ‖x‖1. (1.28)

Beweis: Wir wollen nur mal schnell die Ungleichung (1.26) beweisen. Die anderenlassen sich ganz analog herleiten. Das macht dann keinen Spaß mehr.Sei ein beliebiger Vektor x = 0 gegeben. Unter seinen n Komponenten suchen wir diebetraglich großte und nennen sie xmax. Dann ist die folgende Abschatzung moglich:

‖x‖2 =√

x21 + · · ·+ x2

n

≤√

x2max + · · ·+ x2

max

= |xmax| ·√

n

=√

n ‖x‖∞womit wir die rechte Ungleichung haben. Die linke folgt genauso leicht. Wir lasseneinfach alle anderen Komponenten außer xmax fort, womit wir verkleinern.

‖x‖2 =√

x21 + · · · + x2

n ≥√

x2max = |xmax| = ‖x‖∞.

Beide Ungleichungen lassen sich ubrigens nicht mehr verbessern. Wir konnen namlichVektoren angeben, so daß jedesmal die Gleichheit gilt. Wahlen wir x = (a, 0, . . . , 0)

mit a = 0, so gilt links die Gleichheit. Fur x = (1, . . . , 1) gilt sie rechts. Wir sagen,beide Ungleichungen sind scharf.

Page 43: 3486584472_Mathem

30 1 Numerik linearer Gleichungssysteme

1.4.2 Matrixnorm

Normen fur Matrizen? Nichts einfacher als das. Wir schreiben einfach die Matrix-elemente hintereinander weg als (Spalten–) Vektor, und fur den haben wir ja geradeeben verschiedene Normen erklart. Genau auf diese Weise entsteht die Frobenius– oderSchur–Norm.

Definition 1.49 Unter der Frobenius– oder der Schur–Norm einer (n × n)–Matrix A verstehen wir die Zahl

‖A‖F :=

√√√√√⎛⎝ n∑

i=1

n∑j=1

a2ij

⎞⎠ . (1.29)

Fur Matrizen haben wir aber außer der Addition und der Skalarmultiplikation nocheine weitere Operation erklart, namlich die Multiplikation A ·B (falls Spaltenzahl vonA = Zeilenzahl von B). Den Begriff Norm werden wir daher bei der Ubertragung aufMatrizen so fassen wollen, daß er in einem gewissen Sinn mit dieser Multiplikationvertraglich ist. Die folgende Definition zeigt das in (iv).

Definition 1.50 Unter einer Matrixnorm fur eine quadratische (n × n)–Matrix Averstehen wir eine Vorschrift, die jeder Matrix A eine nichtnegative reelle Zahl ‖A‖ sozuordnet, daß fur beliebige (n× n)–Matrizen B und beliebige reelle Zahlen λ gilt:

(i) ‖A‖ = 0 ⇐⇒ A = Nullmatrix (1.30)(ii) ‖λ ·A‖ = |λ| · ‖A‖ (1.31)

(iii) ‖A + B‖ ≤ ‖A‖+ ‖B‖ (1.32)(iv) ‖A ·B‖ ≤ ‖A‖ · ‖B‖ (1.33)

Wir mußten uns eigentlich ganz schnell uberlegen, daß wir oben mit der Frobenius–Norm keinen Fauxpas begangen haben, sondern im Sinne dieser Definition eine Ma-trixnorm definiert haben. Wir verweisen interessierte Leser auf die weiterfuhrendeLiteratur. Einen gravierenden Nachteil dieser Norm aber konnen wir schnell erken-nen. Nehmen wir uns die n×n–Einheitsmatrix vor, so ist ihre Frobenius–Norm gleich√

n. Man mochte doch aber lieber fur diese Matrix eine Norm gleich 1 haben. Im fol-genden Kasten stellen wir verschiedene andere Matrixnormen vor, die diesen Mangelnicht haben.

Page 44: 3486584472_Mathem

1.4 Vektor– und Matrix–Norm 31

Matrixnormen

Zeilensummennorm : ‖A‖∞ := max1≤k≤n ∑n

i=1 |aki|Spaltensummennorm : ‖A‖1 := max1≤i≤n

∑nk=1 |aki|

Spektralnorm : ‖A‖2 :=√

(A · A)

Frobenius–Norm: ‖A‖F :=√(∑n

i=1

∑nj=1 a2

ij

)

Mit (A ·A) wird dabei der Betrag des betragsgroßten Eigenwertes der Matrix A ·Abezeichnet (vgl. Spektralradius Def. 1.52 S. 32).Falls man auf die Idee verfallt, die ∞–Norm von Vektoren ungepruft auf Matrizen zuubertragen, so lauft man in eine Falle. Dann hatte namlich die 2× 2–Matrix,

A =(

1 11 1

)

die Norm 1, ihr Produkt A ·A ist aber die Matrix

A ·A =(

2 22 2

),

hatte also die Norm 2. Und schon sieht man, daß unser Gesetz (1.33) verletzt ist.

Beispiel 1.51 Berechnen Sie die Zeilensummen–, die Spaltensummen–, die Frobenius–und die Spektralnorm der Matrix

A =(

1 40 1

).

Die Zeilensummennorm erledigt man durch Hinschauen. In jeder Zeile bildet man dieSumme der Betrage der Elemente, also 1 + 4 = 5 fur die erste Zeile und 1 fur diezweite Zeile, das Maximum beider Zahlen ist die 5, also haben wir

‖A‖∞ = 5.

Genauso schnell sieht man das Maximum uber die Summe der Spaltenelemente:

‖A‖1 = 5.

Die Frobeniusnorm bedeutet: Alle Elemente der Matrix werden einzeln quadriert undanschließend aufsummiert. Aus der Summe wird dann die Quadratwurzel gezogen.Hier erhalten wir

‖A‖F =√

1 + 16 + 1 =√

18 = 4.2426.

Page 45: 3486584472_Mathem

32 1 Numerik linearer Gleichungssysteme

Die Spektralnorm macht etwas mehr Schwierigkeiten. Zunachst bildet man das Ma-trizenprodukt A ·A.

A ·A =(

1 44 17

).

Die entstehende Matrix ist symmetrisch und hat daher nur reelle Eigenwerte. Ist Aregular, so ist A · A sogar positiv definit, und alle Eigenwerte sind positiv, was wirhier aber nicht ausnutzen, da wir von allen Eigenwerten ihre Betrage bilden. Aus demcharakteristischen Polynom

p(λ) = (1− λ)(17 − λ)− 16 = 0

erhalt man die Eigenwerte

λ1,2 = 9±√

80.

Unter den Betragen dieser beiden Eigenwerte suchen wir das Maximum und ziehendie Quadratwurzel, um ein Aquivalent zur Produktbildung A ·A zu haben:

‖A‖2 :=√

9 +√

80 =√

17.9443 = 4.2361.

Der Vollstandigkeit halber sei hier noch ein Begriff genannt, der zwar in engem Zu-sammenhang mit der Spektralnorm steht, wie der Satz 1.54 zeigen wird, aber nichtmit ihr verwechselt werden darf.

Definition 1.52 Der Spektralradius (A) einer Matrix A ist das Maximum derBetrage der Eigenwerte:

(A) := maxk=1,...,n

|λk(A)| (1.34)

Beispiel 1.53 Betrachten Sie wieder die Matrix A aus Beispiel 1.51 und bestimmenSie ihren Spektralradius.

Das ist wesentlich einfacher, als die Berechnung der Spektralnorm. Wir berechnensamtliche Eigenwerte von A und bestimmen unter diesen den betraglich großten. Beidieser Dreiecksmatrix stehen naturlich die Eigenwerte in der Hauptdiagonalen, alsoλ1 = λ2 = 1. Wir erhalten

(A) = 1.

Da haben wir nun gesehen, daß zwischen der Spektralnorm und dem Spektralradius einkleiner, aber feiner Unterschied besteht. Der folgende Satz zeigt, daß der Unterschiedim Spezialfall einer symmetrischen Matrix dahinschmilzt.

Page 46: 3486584472_Mathem

1.5 Fehleranalyse 33

Satz 1.54 Fur eine symmetrische Matrix A ist der Spektralradius gleich der Spektral-norm:

‖A‖2 = (A) (1.35)

Haufig werden Matrixnormen und Vektornormen nebeneinander gebraucht. Daher ha-ben wir uns Gedanken uber die gegenseitige Vertraglichkeit zu machen.

Definition 1.55 Wir sagen, eine Matrixnorm ‖A‖M sei mit einer Vektornorm ‖x‖V

vertraglich , wenn gilt:

‖A · x‖V ≤ ‖A‖M · ‖x‖V . (1.36)

Schon im Vorgriff auf diese Definition haben wir die Indizierung der Matrixnormen sovorgenommen, daß miteinander vertragliche Normen die gleichen Indizes haben. Dasbedeutet, daß Vektor– und Matrixnormen auf folgende Weise einander zugeordnetsind:

Miteinander vertragliche Vektor– und Matrixnormen

Matrixnorm vertraglich mit der VektornormZeilensummennorm ‖.‖∞ Maximumnorm ‖.‖∞Spaltensummennorm ‖.‖1 Betragssummennorm ‖.‖1

Spektralnorm ‖.‖2 euklidische Norm ‖.‖2

1.5 Fehleranalyse

1.5.1 Kondition

Der Begriff der Kondition einer Matrix spielt eine große Rolle in der Fehlerbetrachtungbei der Losung linearer Gleichungssysteme. Die Konditionszahl einer quadratischenregularen Matrix A ist folgendermaßen definiert:

Definition 1.56 Unter der Kondition einer regularen (n×n)–Matrix A bezgl. einerMatrixnorm ‖.‖M verstehen wir die Zahl

condM (A) := ‖A‖M · ‖A−1‖M . (1.37)

Beispiel 1.57 Berechnen Sie die Kondition cond1 (A), cond∞ (A) und cond2 (A) der(schon im Beispiel 1.51 behandelten) Matrix

A =(

1 40 1

).

Page 47: 3486584472_Mathem

34 1 Numerik linearer Gleichungssysteme

A ist eine obere Dreiecksmatrix. Wie berechnen wir ihre inverse Matrix?Weiter vorne haben wir gelernt, wie leicht die inverse Matrix einer Frobeniusmatrix zuberechnen ist. Wie man sieht, hat A Frobeniusgestalt. Den Zusammenhang zwischender Inversen der Transponierten und der Transponierten der Inversen (Ist das nichtein schoner Satz?) zeigen wir so:

(A−1) ·A = (A · A−1) = (E) = E. (1.38)

Hier haben wir weidlich ausgenutzt, wie man das Produkt zweier Matrizen transpo-niert. Wir sehen aus dieser Gleichungskette damit

(A)−1 = (A−1), (1.39)

und so folgt

A−1 = ((A)−1). (1.40)

Also sollen wir die Matrix A zunachst transponieren:

A =(

1 04 1

).

Dies ist eine Frobeniusmatrix mit der inversen

(A)−1 =(

1 0−4 1

),

wenn wir uns richtig an den Satz 1.33 erinnern. Die mussen wir nur noch transponieren,um die gesuchte inverse Matrix von A zu erhalten:

A−1 =(

1 −40 1

).

Nun beginnt das Spiel mit der Kondition. Packen wir zunachst die 1–Norm an. Wiewir oben im Beispiel 1.51 schon berechnet haben, gilt

‖A‖1 = 5, ‖A−1‖1 = 5 =⇒ cond1 (A) = 25.

Ebensowenig Probleme bereitet uns die ∞–Norm:

‖A‖∞ = 5, ‖A−1‖∞ = 5 =⇒ cond∞ (A) = 25.

Die 2–Norm ist ein bißchen rechenaufwendiger, mussen wir doch jeweils die Matrizen

A ·A und (A−1) · A−1

berechnen. Die erste haben wir oben schon bearbeitet und erhielten fur ihre Norm

‖A‖2 =√

17.9443.

Page 48: 3486584472_Mathem

1.5 Fehleranalyse 35

Fur die zweite rechnen wir

(A−1) ·A−1 =(

1 −4−4 17

).

Offensichtlich besitzt sie dasselbe charakteristische Polynom und daher dieselben Ei-genwerte und damit auch dieselbe Kondition wie A ·A.

‖A−1‖2 =√

17.9443.

Das fuhrt zu der Kondition

cond2 (A) = 17.9443.

Ein weiteres, eher negatives Beispiel sind die sog. Hilbertmatrizen. Sie sind bekanntfur ihre schlechte Kondition. Allgemein lauten sie

Hn =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 12

13

14

15 · · · 1

n

12

13

14 · · · ...

13

14 · · · ...

......

...1n

1n+1 · · · · · · 1

2n−1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (1.41)

Beispiel 1.58 Berechnen Sie die Kondition cond1 (H4) und cond∞ (H4) der Hilbert-matrix H4.

Wenn wir die inverse Matrix (mit ein klein wenig Nachhilfe durch den Rechner) auf-stellen, so erkennt man, daß sie ganzzahlige Elemente enthalt. Das gilt fur alle Hil-bertmatrizen.

H−14 =

⎛⎜⎜⎝

16 −120 240 −140−120 1200 −2700 1680

240 −2700 6480 −4200−140 1680 −4200 2800

⎞⎟⎟⎠ .

Damit erhalten wir:

‖H4‖1 = 25/12, ‖H−14 ‖ = 13620 =⇒ cond1(H4) = 28 375,

‖H4‖∞ = 25/12, ‖H−14 ‖∞ = 13620 =⇒ cond∞(H4) = 28 375.

In Buchern findet man die folgenden Angaben uber die Kondition bezuglich der Spek-tralnorm der Hilbertmatrizen :

N 3 4 5 10cond2 (HN ) 5.2 · 102 1.6 · 104 4.8 · 105 1.6 · 1013

Man sieht das starke Anwachsen der Kondition mit der Zeilenzahl. Eine (10 × 10)–Matrix ist ja wahrlich noch nichts Uberwaltigendes. Aber bei einer Kondition von 1013

zuckt man schon mal mit der Augenbraue. Die Bedeutung dieser Konditionszahlen furein lineares Gleichungssystem zeigen wir im nachsten Abschnitt auf.

Page 49: 3486584472_Mathem

36 1 Numerik linearer Gleichungssysteme

1.5.2 Vorwartsanalyse und Fehlerabschatzungen

Was heißt hier ’Vorwarts’?In diesem Abschnitt wollen wir untersuchen, wie sich ein Fehler in den gegebenenDaten eines Problems auf den Fehler in der Losung auswirkt. Wir suchen also dendirekten Weg von den vorgelegten fehlerbehafteten Großen zum Fehler der Losung.Das heißt ’Vorwarts’.

Satz 1.59 Liegt statt des Problems Ax = b das gestorte Problem

(A + ∆ A)(x + ∆ x) = b + ∆b (1.42)

vor, so gilt fur den relativen Fehler, falls ‖∆A‖ · ‖A−1‖ < 1:

‖∆x‖‖x‖ ≤ cond(A)

1− cond(A)‖∆A‖‖A‖

·(‖∆A‖‖A‖ +

‖∆b‖‖b‖

). (1.43)

Hier erkennt man schon die Bedeutung der Kondition, die im Zahler und im Nennerauftritt. Im Nenner konnte aber eine große Konditionszahl den Effekt des Zahlerswieder aufwiegen. Der folgende Spezialfall zeigt deutlicher den Einfluß der Konditi-onszahl.

Satz 1.60 Liegt statt des Problems Ax = b das gestorte Problem

A(x + ∆x) = b + ∆b (1.44)

vor, in dem also A als exakt bekannt vorausgesetzt wird, so gilt

‖∆x‖‖x‖ ≤ ‖A−1‖ · ‖A‖‖∆

b‖‖b‖

= cond(A) · ‖∆b‖

‖b‖. (1.45)

Dieser Satz sagt ganz klar, daß der relative Fehler im Ergebnis kleiner oder gleich derKondition multipliziert mit dem relativen Fehler der Daten ist.

Beispiel 1.61 Gegeben sei das Gleichungssystem Ax = b mit

A =(

1.33 −0.960.647 −0.467

), b =

(1.110.54

)

und der exakten Losung x0 = (3, 3). Betrachten Sie ferner die folgenden Naherungs-losungen

x1 = (3.001, 2.999) , x2 = (1.023, 0.261) .

(a) Berechnen Sie die Residuen (Defekte) r(x1) und r(x2), und erlautern Sie dasErgebnis.

Page 50: 3486584472_Mathem

1.5 Fehleranalyse 37

(b) Berechnen Sie cond∞(A).

(c) Sei jeweils xi, i = 1, 2 Losung des Systems mit gestorter rechter Seite

Axi = b + ∆bi, i = 1, 2.

Zeigen Sie allgemein mit ∆xi := xi − x0 die Abschatzungen

‖∆xi‖∞ ≤ ‖A−1‖∞ · ‖∆bi‖∞,‖∆xi‖∞‖x0‖∞ ≤ cond∞(A)

‖∆bi‖∞‖b‖∞

,

und bestatigen Sie die Ungleichungen fur die gegebene Naherungslosung x1.

Bei diesem Gleichungssystem handelt es sich um ein Beispiel eines schlecht gestelltenProblems. Die beiden Geraden, die durch die zwei Gleichungen dargestellt werden, sindfast parallel. So kann es passieren, daß eine kleine Anderung in einer der Koeffizienteneine große Veranderung der Losung bewirkt.Zu (a): Als erstes wollen wir aber lernen, daß bei einem kleinen Residuum nichts,aber auch noch gar nichts uber die Gute der Losung ausgesagt werden kann.Offensichtlich ist x1 die weit bessere Naherung an die exakte Losung als x2. Berechnenwir mal die Residuen:

r(x1) := A · x1 −b =(

0.00230.0011

)

r(x2) := A · x2 −b =(

0.000030−0.000006

)

Das Residuum fur x2 ist deutlich kleiner als das Residuum fur x1. Viele numerischeVerfahren beruhen auf der Auswertung der Residuen (vgl. das Kollokationsverfahren,Galerkinverfahren). Es reicht aber nicht, lediglich auf die Verkleinerung des Residuumsaus zu sein. Man muß fur ein gutes Verfahren noch mehr investieren.Zu (b): Nach der Definition 1.56 mussen wir die ∞–Norm der Systemmatrix A undauch ihrer Inversen miteinander multiplizieren. Berechnen wir zuerst mal die Deter-minante von A, so erhalten wir

det A = 0.000 01 = 10−5,

was schon ein sehr kleiner Wert ist. Es bedeutet, daß die Zeilen (oder auch die Spalten)der Matrix fast linear abhangig sind. Geometrisch liegen die durch die Zeilen (oderauch die Spalten) reprasentierten Geraden fast parallel. Hier liegt der Hund begraben.Fur die inverse Matrix folgt

A−1 = 105 ·( −0.467 0.960−0.647 1.330

).

Jetzt noch ein wenig Normrechnerei. Die ∞–Norm einer Matrix ist ja die Zeilensum-mennorm. Durch Aufsummieren der Betrage jeder Zeile erhalten wir

‖A‖∞ = 2.29, ‖A−1‖∞ = 1.977 · 105 = 197 700.

Page 51: 3486584472_Mathem

38 1 Numerik linearer Gleichungssysteme

Damit folgt fur die Kondition

cond∞(A) = ‖A‖∞ · ‖A−1‖∞ = 2.29 · 197 700 = 452 733,

fur eine solch kleine Matrix eine erstaunlich große Kondition.Zu (c): Fur diese Aufgabe denken wir uns die Naherungslosungen entstanden auskleinen Storungen b + ∆b der rechten Seite. Aus Axi = b + ∆bi i = 1, 2 folgt dann

∆bi = Axi −b = r(xi), i = 1, 2.

Die Storung ist also gerade das Residuum. Zum Nachweis der ersten Ungleichungerstellen wir die folgende Gleichungskette:

∆xi = xi − x0 = A−1(b + ∆bi)−A−1b

= A−1(b + ∆bi −b) = A−1∆bi.

Mit der Abschatzungsformel (1.36) von Seite 33 folgt damit

‖∆xi‖∞ ≤ ‖A−1‖∞‖∆bi‖∞, i = 1, 2,

und schon haben wir die erste Ungleichung. Die zweite folgt sogleich; denn aus Ax0 = b,also ‖b‖∞ ≤ ‖A‖∞‖x0‖∞ folgt

1‖x0‖∞ ≤ ‖A‖∞

‖b‖∞.

Beide Ungleichungen setzen wir zusammen und erhalten

‖∆xi‖∞‖x0‖∞ ≤ ‖A−1‖∞ · ‖∆bi‖∞ · ‖A|∞

‖b‖= cond∞(A)

‖∆bi‖∞‖b‖∞

,

1.5.3 Ruckwartsanalyse: Satz von Prager und Oettli

Und was heißt bitteschon ’Ruckwarts’?Dieser Abschnitt bringt uns eine erstaunliche Moglichkeit, ein Computerergebnis aufseine Verlaßlichkeit zu uberprufen. Wer viel mit Rechnern zu tun hat, weiß, daß dieKerle sehr fleißig und ohne zu murren Ergebnisse ausspucken. Aber wie sicher ist man,daß da auch etwas Vernunftiges dabei ist? Fur ein lineares Gleichungssystem habensich Prager und Oettli ein blitzsauberes Verfahren ausgedacht, wie man das prufenkann. Der große Vorteil ihrer Methode liegt dabei in der sehr einfachen Anwendung.Man muß wirklich nur eine simple Rechnung durchfuhren und kann dann uberprufen,ob unser Ergebnis verlaßlich ist oder nicht.Wir betrachten das lineare Gleichungssystem

Ax = b.

Wie es fur die Praxis typisch ist, nehmen wir an, daß die sogenannten Daten, alsodie Eintrage in die Matrix A und in den Vektor b der rechten Seite aus Messungen

Page 52: 3486584472_Mathem

1.5 Fehleranalyse 39

herruhren, also sind Eintrage in A und b nur naherungsweise bekannt. Wir erhaltendaher nur ein angenahertes lineares Gleichungssystem

Ax = b (1.46)

Wir nehmen nun an, daß Fehlerschranken ∆A fur die Matrix A und ∆b fur den Vektorbbekannt seien: das ist eine technisch realistische Ausnahme! Es verblufft immer wieder,wenn man den Ingenieur fragt, wie gut seine Daten sind, und die feste Antwort erhalt:Ja, meine Daten haben einen Fehler von hochstens 3 %. Das weiß man also in vielenFallen. Dieses Vorwissen nutzen wir jetzt aus, um damit die Verlaßlichkeit zu prufen.Es ist also folgende Abschatzung bekannt:

|A−A| ≤ ∆A, |b−b| ≤ ∆b (1.47)

Die Betragsstriche bedeuten hier keine Norm, sondern in der Tat nur den Betrag; derwird von den einzelnen Komponenten genommen. Es ist also uberhaupt kein Aufwand,diesen Betrag zu berechnen. Das macht die Anwendung des folgenden Satzes so leicht.Nun stellen wir uns weiter vor, daß das System (1.46) nicht exakt gelost wird, sonderndaß wir nur die Naherungslosung x erhalten. Das entspricht auch sehr dem praktischenVorgehen. Selbst beim einfachen Runden entsteht ja schon ein Fehler. Spater werdenwir weitere Verfahren kennenlernen, die von Anfang an nur darauf ausgelegt sind, eineNaherungslosung zu berechnen. Wir fragen: Wie kann man diese Naherungslosung desNaherungssystems beurteilen?

Definition 1.62 Eine Naherungslosung x des Gleichungssystems Ax = b, das in der(∆A,∆b)–Umgebung des Ausgangssystems Ax = b liegt, heißt akzeptable Losung desAusgangs–Systems Ax = b, wenn sie exakte Losung eines anderen Systems Bx = c

ist, das in der (∆A,∆b)–Umgebung des Systems Ax = b liegt, fur das also gilt

|B − A| ≤ ∆A, |c− b| ≤ ∆b, (1.48)

wobei ∆A und ∆b obige Fehlerschranken sind.

Prager und Oettli haben 1964 ein Kriterium angegeben, mit dem diese Akzeptanz miteiner einfachen Rechnung uberpruft werden kann:

Satz 1.63 (Prager–Oettli) Eine Naherungslosung x des Systems Ax = b ist genaudann eine akzeptable Losung des Ausgangssystems Ax = b, wenn fur das Residuum

r(x) := Ax− b folgende Abschatzung gilt:

|r(x)| = |Ax− b| ≤ ∆A · |x|+ ∆b =: r (1.49)

Dabei ist diese Abschatzung wie oben komponentenweise zu verstehen.

Page 53: 3486584472_Mathem

40 1 Numerik linearer Gleichungssysteme

Das Bild rechts deutet an, wie die Definition zuverstehen ist. Das Originalproblem kennen wirnicht, stattdessen liegt uns das realistische Pro-

blem Ax = b vor. Wir nehmen nun an, daß wirFehlerschranken ∆A und ∆b in Bezug auf dasOriginalproblem kennen. Wir denken uns alsoeinen Kreis mit dem Radius (∆A,∆b) um das

realistische Problem Ax = b gezeichnet. In die-sem Kreis befindet sich dann das Originalpro-blem.Gehort nun die angenaherte Losung des Nahe-rungsproblems zu einem neuen Problem Bx = c,welches in derselben (∆A,∆b)–Umgebung desNaherungssystems liegt, so wollen wir die Nahe-rung als Losung unseres Originalproblems ak-zeptieren. Andernfalls mussen wir die Naherungverbessern.

∆A,∆b

⊗Ax = b⊗Bx = c

Ax = b

Abbildung 1.4: DieNaherungslosung x istakzeptabel.

Bemerkung 1.64 Wie wird dieser Satz benutzt? Wir fassen noch einmal den Aus-gangsgedanken fur unser Vorgehen zusammen. Wenn wir uns die Praxis ansehen, soist es typisch, daß man die Daten des zu untersuchenden Problems, also die Eintragein die Matrix A und den Vektor der rechten Seite b aus Messungen erhalt. Das sinddann beileibe nicht die exakten Werte, sondern wir erhalten Naherungen, also ein Sy-

stem Ax = b. Wir wollen nun voraussetzen, daß wir den Fehler in den Daten kennen,wir kennen also eine Fehlermatrix ∆A und einen Fehlervektor ∆b. Berechnen wirzum Beispiel mit einem numerischen Verfahren eine Naherungslosung x des Systems

Ax = b, so fragen wir, ob diese Naherung ausreicht oder ob wir eine bessere Naherungausrechnen mussen. Die einfache Abschatzung (1.49) gibt uns darauf eine Antwort.

Beweis: Wir mussen zwei Richtungen beweisen.

”=⇒“ Sei x eine akzeptable Losung. Dann ist also x exakte Losung eines Systems

Bx = c, das gegenuber dem System Ax = b gestort ist, also Losung einesSystems

(A + D)︸ ︷︷ ︸B

x = b + d︸ ︷︷ ︸ec

Dieses System formen wir ein wenig um

Ax + Dx = b + d und erhalten Ax−b = d−Dx

Page 54: 3486584472_Mathem

1.5 Fehleranalyse 41

So ist links unser Residuum entstanden, das wir jetzt abschatzen konnen, indemwir zu den Betragen ubergehen und die Dreiecksungleichung beachten:

|r(x)| = |d−Dx = |Dx + (−d)|≤ |Dx|+ | − d| ≤ |D| · |x|+ |d| ≤ ∆A|x|+ ∆b

Am Schluß haben wir nur noch die uns bekannten Fehlergroßen ∆A und ∆beingetragen. Dieses war die Hinrichtung.

”⇐=“ Nun zur Ruckrichtung:

Sei also jetzt die Abschatzung erfullt:

|r(x)| ≤ ∆A|x|+ ∆b = r (1.50)

Dann mussen wir zeigen, daß x exakte Losung eines gestorten Systems ist; wirmussen also ein gestortes System

(A + D)x = b + d (1.51)

angeben, fur das x exakte Losung ist, also richtig explizit eine Matrix D undeinen Vektor d hinschreiben. Seine Bauart ist so angelegt, daß es dann automa-tisch in der ∆A,∆b–Umgebung liegt. Das ist jetzt etwas trickreich, man siehterst spater, daß alles seine Richtigkeit hat.

Wir setzen fest:

D :=

⎛⎜⎝

d11 · · · d1n...

. . ....

dn1 · · · dnn

⎞⎟⎠ mit dij :=

sign(xj) · ri

ri(∆A)ij fur ri = 0

0 fur ri = 0(1.52)

Hierin ist r der Restvektor der rechten Seite von (1.49). Der gesuchte Vektor dwerde folgendermaßen definiert:

d :=

(d1

... dn

)mit di :=

−ri

ri(∆b)i fur ri = 0

0 fur ri = 0

Wegen der Voraussetzung in der Ruckrichtung haben wir |ri|/ri ≤ 1, woraussich folgende Abschatzung ergibt:

|D| = |B − A| ≤ ∆A, |d| = |c− b| ≤ b.

Falls ri = 0 ist, ist wegen der komponentenweise zu verstehenden Ungleichung(1.50) auch die Komponente ri des Residuumvektors gleich Null, also erfulltdiese Komponente das angernaherte System (1.46) sogar exakt.

Page 55: 3486584472_Mathem

42 1 Numerik linearer Gleichungssysteme

Sei nun also ri = 0, dann konnen wir getrost durch ri dividieren. Aus der Defi-nition von r folgt

n∑j=1

(∆A)ij · |xj |+ ∆bi = ri.

Multiplikation mitri/ri gibt:∑n

j=1riri

(∆A)ij · |xj | = ri − riri

∆bi.

Mit ri = bi −∑n

j=1 aij · xj folgt

n∑j=1

aij · xj +n∑

j=1

ri

ri(∆A)ij · |xj | = bi − ri

ri∆bi.

Das ist schon fast unser gewunschtes Ergebnis, wenn wir links nur noch xj

ausklammern konnten. Das geht aber, wenn wir die triviale Gleichheit |xj | =sign(xj) · xj beachten:

n∑j=1

[aij +

ri

ri(∆A)ijsign(xj)

]· xj = bi − ri

ri∆bi

[A + D

]· x = b + d

Dieser Satz sagt also, daß man aus der Große des Residuums |r(x0)| auf die Brauch-barkeit des Vektors x0 als Losung des Gleichungssystems schließen kann. Man folgertalso ruckwarts aus der Kenntnis einer Naherung und dem zugehorigen Fehler, also demResiduum, auf die Gute der Losung. Darum heißt dieses Verfahren auch ”Ruckwarts-analyse“.

Beispiel 1.65 Gegeben sei das folgende Gleichungssystem Ax = b mit

A =

⎛⎜⎜⎝

8 2 −1 32 −6 0 −1

−1 0 3 03 −1 0 −4

⎞⎟⎟⎠ , b =

⎛⎜⎜⎝

2345

⎞⎟⎟⎠ .

Mit einem Naherungsverfahren sei uns die folgende ”Losung“ bereitgestellt worden

x(1) = (0.9, 0, 1.6,−0.6).

Wenn wir annehmen, daß alle obigen Daten in A und b mit demselben Fehler behaftetsind, wie groß muß dann dieser relative Fehler mindestens sein, damit x(1) als Losungakzeptiert werden kann?

Page 56: 3486584472_Mathem

1.5 Fehleranalyse 43

Wir halten uns streng an den Satz von Prager und Oettli und fragen uns, ob dieBedingung (1.50) erfullt ist. Als erstes bedenken wir die Vorgabe, daß alle Datendemselben Fehler unterliegen, was also bedeutet, es gibt einen Fehler ε mit

∆A = ε · |A|, ∆b = ε · |b|.

Wir versuchen, dieses ε so klein zu wahlen, daß die Ungleichung (1.50) erfullt wird

|r(x(1))| = |b−Ax(1)| ≤ ε(|A| · |x(1)|+ |b|). (1.53)

Berechnen wir das Residuum:

|r(x(1))| = |b−Ax(1)| =

∣∣∣∣∣∣∣∣

⎛⎜⎜⎝

2345

⎞⎟⎟⎠−

⎛⎜⎜⎝

8 2 −1 32 −6 0 −1

−1 0 3 03 −1 0 −4

⎞⎟⎟⎠

⎛⎜⎜⎝

0.90

1.6−0.6

⎞⎟⎟⎠

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

⎛⎜⎜⎝−1.8

0.60.10.1

⎞⎟⎟⎠

∣∣∣∣∣∣∣∣=

⎛⎜⎜⎝

1.80.60.10.1

⎞⎟⎟⎠

Man beachte hier, daß wir in der letzten Zeile in der Tat keine Norm berechnet haben,sondern komponentenweise den Betrag des Vektors gebildet haben.Nun zur rechten Seite:

|A| · |x(1)|+ |b| =

⎛⎜⎜⎝

8 2 1 32 6 0 11 0 3 03 1 0 4

⎞⎟⎟⎠⎛⎜⎜⎝

0.90

1.60.6

⎞⎟⎟⎠+

⎛⎜⎜⎝

2345

⎞⎟⎟⎠ =

⎛⎜⎜⎝

12.65.49.7

10.1

⎞⎟⎟⎠

Vergleichen wir die Ergebnisse beider Seiten, so erhalten wir vier Ungleichungen furdas gesuchte ε

1.8 ≤ ε · 12.6 ⇒ ε ≥ 0.1428750.6 ≤ ε · 5.4 ⇒ ε ≥ 0.1110.1 ≤ ε · 9.7 ⇒ ε ≥ 0.010309

0.1 ≤ ε · 10.1 ⇒ ε ≥ 0.0099009

Hier ist die erste Ungleichung die scharfste. Ist sie erfullt, so auch die anderen. Fallsalso der Fehler in den Daten mindestens 14.2875 % betragt, so ist x(1) als Losungakzeptabel. Wenn uns aber jemand versichert, daß der Fehler in den Daten geringerals diese 14% ist, so hilft es nichts, die Naherung reicht noch nicht und muß verbessertwerden.

Page 57: 3486584472_Mathem

44 1 Numerik linearer Gleichungssysteme

1.6 L–R–Zerlegung

Nun steuern wir mit großen Schritten auf das Losen linearer Gleichungssysteme zu.Eine probate Methode ist dabei das Zerlegen der vorgegebenen Systemmatrix in eineeinfachere Struktur. Wir schildern hier eine Variante des Gaußalgorithmus, bekanntals die L–R–Zerlegung.

1.6.1 Die Grundaufgabe

Die Durchfuhrung der Zerlegung lehnt sich eng an die Gaußelimination an. Im Prinzipmacht man gar nichts Neues, sondern wahlt lediglich eine andere Form. Am Ende einererfolgreichen Elimination hat man ja eine obere Dreiecksmatrix erreicht. Diese genauist schon die gesuchte Matrix R. Und L?Beim ersten Gaußschritt wird jeweils ein Vielfaches der ersten Zeile zur zweiten, zurdritten etc. addiert, um unterhalb des ersten Diagonalelementes Nullen zu erreichen.Dieser Vorgang wird aber doch, wie wir oben im Satz 1.31 (S. 19) gelernt haben,wunderbar durch Frobeniusmatrizen beschrieben. Im ersten Schritt gehen wir alsovon A uber zu einer Matrix F1 · A, wobei F1 die Frobeniusmatrix ist, die unterhalbdes ersten Diagonalelementes 1 gerade die Zahlen stehen hat, mit denen man die ersteZeile von A multiplizieren muß, um durch Addition zur zweiten usw. Zeile in derersten Spalte Nullen zu erzeugen. Der weitere Weg ist klar. Mit der FrobeniusmatrixF2 erzeugen wir anschließend in der zweiten Spalte unterhalb der Diagonalen Nullen,bis wir am Ende mit der Frobeniusmatrix Fn−1 in der letzten Zeile unterhalb desDiagonalelementes, also in der vorletzten Spalte eine Null erzeugen.

L–R–Zerlegung

Gegeben sei eine (n× n)–Matrix A.Gesucht ist eine Darstellung von A in der Form

A = L · R (1.54)

mit einer linken Dreiecksmatrix L und einer rechten Dreiecksmatrix R, wobei L nurEinsen in der Hauptdiagonalen besitzt; also ( steht fur eine beliebige Zahl)

L =

⎛⎜⎜⎜⎜⎝

1 0 · · · 0

. . . . . .

......

. . . . . . 0 · · · 1

⎞⎟⎟⎟⎟⎠ , R =

⎛⎜⎜⎜⎜⎝

· · · · · ·

0. . .

......

. . . . . ....

0 · · · 0

⎞⎟⎟⎟⎟⎠ (1.55)

Wir fassen das im folgenden Algorithmus zusammen.

Page 58: 3486584472_Mathem

1.6 L–R–Zerlegung 45

Durchfuhrung der L–R–Zerlegung

Man bestimme die zur Elimination erforderlichen Frobeniusmatrizen wie oben be-schrieben und bilde

A → F1 ·A→ F2 · F1 ·A· · ·→ Fn−1 · Fn−2 · · ·F2 · F1 ·A = R. (1.56)

Anschließend ergibt sich die gesuchte L–R–Zerlegung so

A = F−11 · F−1

2 · · ·F−1n−2 · F−1

n−1︸ ︷︷ ︸L

·R = L · R (1.57)

Hier haben wir weidlich ausgenutzt, daß sich die inverse Matrix einer Frobeniusmatrixso puppig leicht bestimmen laßt, halt nur durch Vorzeichenwechsel. Das Produkt dieserinversen Matrizen von Frobeniusgestalt ist dann die gesuchte untere DreiecksmatrixL. Beachten Sie bitte das folgende Gesetz fur regulare Matrizen A und B, das wir inFormel (1.57) ausgenutzt haben:

(A · B)−1 = B−1 ·A−1 (1.58)

Bemerkung 1.66 Eine Bemerkung uber einen leider haufig beobachteten Fehler wol-len wir anfugen. Die Matrix L, die sich aus dem Produkt der inversen Frobeniusma-trizen zusammensetzt, laßt sich sehr einfach hinschreiben, indem man die einzelnenSpalten mit ihren Eintragen unterhalb der Diagonalen mit den geanderten Vorzeichennebeneinander setzt, also ein Kinderspiel. In Matrizenschreibweise heißt das

L = F−11 · F−1

2 · · ·F−1n−2 · F−1

n−1 = F−11 + (F−1

2 −E) + · · · + (F−1n−2 − E) + (F−1

n−1 −E)

Richtig ist auch, daß gilt:

L−1 = Fn−1 · Fn−2 · · ·F2 · F1.

Falsch ist aber der Analogieschluß, daß sich auch L−1 einfach durch Nebeneinander-schreiben der einzelnen Spalteneintrage der Frobeniusmatrizen Fn−1, . . . , F1 ergibt. Esist wirklich nicht richtig, nicht nur nicht wirklich. Zur Berechnung von L−1 mußteman ernstlich arbeiten. Und das sollte man tunlichst vermeiden. Man braucht dochL−1 auch gar nicht.

Beispiel 1.67 Gegeben sei die Matrix

A =

⎛⎝ 2 3 1

0 1 33 2 a

⎞⎠ , a ∈ R.

Page 59: 3486584472_Mathem

46 1 Numerik linearer Gleichungssysteme

Berechnen Sie ihre L–R–Zerlegung, und zeigen Sie, daß A fur a = −6 regular ist.

Da a21 = 0 schon gegeben ist, muß nur a31 im 1. Schritt bearbeitet werden. Dazumuß die erste Zeile mit −3/2 multipliziert werden, um durch Addition zur letztenZeile a31 = 0 zu erreichen. Dieser Schritt wird also durch folgende Frobeniusmatrixvermittelt:

A →⎛⎝ 1 0 0

0 1 0−3

2 0 1

⎞⎠

︸ ︷︷ ︸F1

·A =

⎛⎝ 2 3 1

0 1 30 −5

2 −32 + a

⎞⎠ .

Zur Ersparnis von Schreibarbeit und beim Einsatz eines Rechners ist es empfehlens-wert, die geliebten, aber jetzt nutzlosen Nullen, die man unterhalb der Diagonalenerzeugt hat, durch die einzig relevanten Zahlen in den Frobeniusmatrizen zu ersetzen.Das paßt gerade zusammen:

A → A =

⎛⎝ 2 3 1

0 1 3−3

2 −52 −3

2 + a

⎞⎠ .

Im 2. Schritt, der auch schon der letzte ist, wird die 2. Zeile mit 5/2 multipliziert undzur 3. Zeile addiert. Mit einer Frobeniusmatrix ausgedruckt, erhalt man

A →⎛⎝ 1 0 0

0 1 00 5

2 1

⎞⎠

︸ ︷︷ ︸F2

·A =

⎛⎝ 2 3 1

0 1 3−3

252 6 + a

⎞⎠ .

Daraus lesen wir sofort die gesuchten Matrizen L und R ab.

L = F−11 · F−1

2 =

⎛⎝ 1 0 0

0 1 032 0 1

⎞⎠⎛⎝ 1 0 0

0 1 00 −5

2 1

⎞⎠ =

⎛⎝ 1 0 0

0 1 032 −5

2 1

⎞⎠ ,

R =

⎛⎝ 2 3 1

0 1 30 0 6 + a

⎞⎠ .

Um die Regularitat von A zu prufen, denken wir an den Determinantenmultiplikati-onssatz

A = L ·R ⇒ det A = det L · det R.

Offensichtlich ist L stets eine regulare Matrix, da in der Hauptdiagonalen nur Einsenstehen. Fur eine Dreiecksmatrix ist aber das Produkt der Hauptdiagonalelemente ge-rade ihre Determinante. Die Regularitat von A entscheidet sich also in R. Hier ist das

Page 60: 3486584472_Mathem

1.6 L–R–Zerlegung 47

Produkt der Hauptdiagonalelemente genau dann ungleich Null, wenn a = −6 ist. Dassollte gerade gezeigt werden.Leider ist die L–R–Zerlegung schon in einfachen Fallen nicht durchfuhrbar. Betrachtenwir z. B. die Matrix

A =(

0 11 0

). (1.59)

Offensichtlich scheitert schon der erste Eliminationsschritt, da das Element a11 = 0ist, obwohl die Matrix doch sogar regular ist, also vollen Rang besitzt. Der folgendeSatz zeigt uns, wann eine solche Zerlegung durchgefuhrt werden kann.

Satz 1.68 Sei A eine regulare (n × n)–Matrix. A besitzt dann und nur dann eineL–R–Zerlegung, wenn samtliche Hauptminoren von A ungleich Null sind.

Doch dieser Satz hilft in der Praxis uberhaupt nicht. Hauptminoren sind schließlichDeterminanten. Und die zu berechnen, erfordert einen Riesenaufwand. Der folgendeSatz hat dagegen in speziellen Fallen schon mehr Bedeutung.

Satz 1.69 Sei A eine regulare (n× n)–Matrix mit der Eigenschaft

n∑k=1k =i

|aik| ≤ |aii|, 1 ≤ i ≤ n,

dann ist die L–R–Zerlegung durchfuhrbar.

Die zusatzliche Bedingung im obigen Satz ist eine Abschwachung dessen, was wirfruher (vgl. S. 21) schwach diagonaldominant genannt haben, weil die Zusatzbedin-gung, daß in einer Zeile das echte Kleinerzeichen gelten muß, fehlt.Wenn man ein Gleichungssystem vor Augen hat mit obiger Matrix (1.59) als System-matrix, so hat man naturlich sofort die Abhilfe parat. Wir tauschen einfach die beidenZeilen, was das Gleichungssystem vollig ungeandert laßt. Das ist der Weg, den wir jetztbeschreiten werden, und der folgende Satz bestarkt uns in dieser Richtung.

Satz 1.70 Sei A eine regulare (n×n)–Matrix. Dann gibt es eine PermutationsmatrixP , so daß die folgende L–R–Zerlegung durchfuhrbar ist:

P ·A = L · R. (1.60)

Man kann also bei einer regularen Matrix stets durch Zeilentausch, was ja durch dieLinksmultiplikation mit einer Permutationsmatrix darstellbar ist, die L–R–Zerlegungzu Ende fuhren.Nun greifen wir noch tiefer in die Kiste der Numerik. Aus Grunden der Stabilitatempfiehlt sich namlich stets ein solcher Zeilentausch, wie wir im nachsten Abschnittzeigen werden.

Page 61: 3486584472_Mathem

48 1 Numerik linearer Gleichungssysteme

1.6.2 Pivotisierung

Betrachten wir das folgende Beispiel.

Beispiel 1.71 Gegeben sei das lineare Gleichungssystem⎛⎝ 0.729 0.81 0.9

1 1 11.331 1.21 1.1

⎞⎠⎛⎝ x1

x2

x3

⎞⎠ =

⎛⎝ 0.6867

0.83381

⎞⎠ .

Berechnung der exakten Losung, auf vier Stellen gerundet, liefert

x1 = 0.2245, x2 = 0.2814, x3 = 0.3279.

Stellen wir uns vor, daß wir mit einer Rechenmaschine arbeiten wollen, die nur vierStellen bei Gleitkommarechnung zulaßt. Das ist naturlich reichlich akademisch, aberdas Beispiel hat ja auch nur eine (3×3)–Matrix zur Grundlage. Naturlich konnten wireine Maschine mit 20 Nachkommastellen bemuhen, wenn wir dafur das Beispiel ent-sprechend hoher dimensionieren. Solche Beispiele liefert das Leben spater zur Genuge.Belassen wir es also bei diesem einfachen Vorgehen, um die Probleme nicht durch zuviel Rechnung zu verschleiern.Wenden wir den einfachen Gauß ohne großes Nachdenken an, so mussen wir die ersteZeile mit −1/0.729 = −1.372 multiplizieren und zur zweiten Zeile addieren, damit wirunterhalb der Diagonalen eine Null erzeugen. Zur Erzeugung der nachsten 0 mussenwir die erste Zeile mit −1.331/0.729 = −1.826 multiplizieren und zur dritten Zei-le addieren. Wir schreiben jetzt samtliche Zahlen mit vier signifikanten Stellen underhalten das System

⎛⎝ 0.7290 0.8100 0.9000 0.6867−1.372 −0.1110 −0.2350 −0.1082−1.826 −0.2690 −0.5430 −0.2540

⎞⎠ .

Um an der Stelle a32 eine Null zu erzeugen, mussen wir die zweite Zeile mit−(−0.2690/ − 0.1110) = −2.423 multiplizieren und erhalten

⎛⎝ 0.7290 0.8100 0.9000 0.6867−1.372 −0.1110 −0.2350 −0.1082−1.826 2.423 −0.026506 0.008300

⎞⎠ .

Hieraus berechnet man durch Aufrollen von unten die auf vier Stellen gerundeteLosung

x3 = 0.3132, x2 = 0.3117, x1 = 0.2089.

Zur Bewertung dieser Losung bilden wir die Differenz zur exakten Losung

|x1 − x1| = 0.0156, |x2 − x2| = 0.0303, |x3 − x3| = 0.0147.

Page 62: 3486584472_Mathem

1.6 L–R–Zerlegung 49

Hierauf nehmen wir spater Bezug.Zur Erzeugung der Nullen mußten wir zwischendurch ganze Zeilen mit Faktoren mul-tiplizieren, die großer als 1 waren. Dabei werden automatisch auch die durch Rundungunvermeidlichen Fehler mit diesen Zahlen multipliziert und dadurch vergroßert.Als Abhilfe empfiehlt sich ein Vorgehen, das man ’Pivotisierung’ nennt. Das Wort’Pivot’ kommt dabei aus dem Englischen oder dem Franzosischen. Die Aussprache istzwar verschieden, aber es bedeutet stets das gleiche: Zapfen oder Angelpunkt.

Definition 1.72 Unter Spaltenpivotisierung verstehen wir eine Zeilenvertauschungso, daß das betragsgroßte Element der Spalte in der Diagonalen steht.

Wir suchen also nur in der jeweils aktuellen Spalte nach dem betraglich großten Ele-ment. Dieses bringen wir dann durch Tausch der beiden beteiligten Zeilen in die Dia-gonale, was dem Gleichungssystem vollig wurscht ist.In unserem obigen Beispiel mussen wir also zuerst die erste mit der dritten Zeilevertauschen, weil nun mal 1.331 die betraglich großte Zahl in der ersten Spalte ist:

⎛⎝ 1.331 1.21 1.1

1 1 10.729 0.81 0.9

⎞⎠⎛⎝ x1

x2

x3

⎞⎠ =

⎛⎝ 1

0.83380.6867

⎞⎠ .

Nun kommt der Eliminationsvorgang wie fruher, allerdings multiplizieren wir immernur mit Zahlen, die kleiner als 1 sind, das war ja der Trick unserer Tauscherei:

⎛⎝ 1.331 1.2100 1.1000 1.0000−0.7513 0.09090 0.1736 0.08250−0.5477 0.1473 0.2975 0.1390

⎞⎠ .

Das Spiel wiederholt sich jetzt mit dem um die erste Zeile und erste Spalte reduzierten(2 × 2)–System, in dem wir erkennen, daß 0.1473 > 0.09090 ist. Also mussen wir diezweite mit der dritten Zeile vertauschen. Da die Faktoren links von dem senkrechtenStrich jeweils zu ihrer Zeile gehoren, werden sie naturlich mit vertauscht.

⎛⎝ 1.331 1.2100 1.1000 1.0000−0.5477 0.1473 0.2975 0.1390−0.7513 0.09090 0.1736 0.08250

⎞⎠ .

Um nun an der Stelle a32 eine Null zu erzeugen, mussen wir die zweite Zeile mit−0.0909/0.1473 = −0.6171 multiplizieren und erhalten

⎛⎝ 1.331 1.2100 1.1000 1.0000−0.7513 0.1473 0.2975 0.1390−0.5477 −0.6171 −0.01000 −0.003280

⎞⎠ .

Wiederum durch Aufrollen von unten erhalten wir die Losung

x3 = 0.3280, x2 = 0.2812, x1 = 0.2246.

Page 63: 3486584472_Mathem

50 1 Numerik linearer Gleichungssysteme

Bilden wir auch hier die Differenz zur exakten Losung

|x1 − x1| = 0.0001, |x2 − x2| = 0.0002, |x3 − x3| = 0.0001.

Dies Ergebnis ist also deutlich besser!Wo liegt das Problem? Im ersten Fall haben wir mit Zahlen großer als 1 multipliziert,dadurch wurden auch die Rundungsfehler vergroßert. Im zweiten Fall haben wir nurmit Zahlen kleiner als 1 multipliziert, was auch die Fehler nicht vergroßerte. Wirmussen also das System so umformen, daß wir nur mit kleinen Zahlen zu multiplizierenhaben. Genau das schafft die Pivotisierung, denn dann steht das betraglich großteElement in der Diagonalen, und Gauß sagt dann, daß wir nur mit einer Zahl kleineroder gleich 1 zu multiplizieren haben, um die Nullen zu erzeugen.Aus den Unterabschnitten 1.6.1 und 1.6.2 lernen wir also, daß zur Losung von linearenGleichungssystemen eine Pivotisierung aus zwei Grunden notwendig ist.

Spaltenpivotisierung ist notwendig, weil

1. selbst bei regularer Matrix Nullen in der Diagonalen auftreten konnen undGaußumformungen verhindern,

2. wegen Rundungsfehlern sonst vollig unakzeptable Losungen entstehen konnen.

Wir konnen das gesamte Vorgehen der L–R–Zerlegung einer n×n–Matrix A mit Spal-tenpivotisierung schematisch folgendermaßen darstellen. Der erste Schritt besteht inder Spaltenpivotisierung bezgl. der ersten Spalte der Matrix A an. Wir mussen evtl.zwei Zeilen tauschen. Dies geschieht matrizentechnisch durch Linksmultiplikation miteiner speziellen Transpositionsmatrix. Im Unterschied zu der insgesamt zu suchendenPermutationsmatrix P wollen wir sie mit T bezeichnen. Eine solche Matrix ist nichtnur orthogonal, wie jede anstandige Permutationsmatrix, sondern auch noch symme-trisch und zu sich selbst invers, wie wir aus (1.10) wissen. Das ist fein, denn ihreInverse benotigen wir dringend. Der erste Schritt lautet damit:

A → T1 ·A. (1.61)

Wir sollten hier der Vollstandigkeit wegen einfugen, daß man, falls das betragsgroßteElement bereits freiwillig auf der gewunschten Position steht, als Transpositionsmatrixdie Einheitsmatrix wahlt. Dies soll auch bei den weiteren Pivotisierungen gelten, wirwollen das nicht jedes Mal erwahnen.Als nachstes werden wir mit Gauß unterhalb des Pivotelementes Nullen erzeugen. Dasbedeutet, wir multiplizieren von links mit einer Frobeniusmatrix.

A → T1 ·A → F1 · T1 · A. (1.62)

Nun muß erneut pivotisiert werden.

A → T1 ·A → F1 · T1 · A → T2 · F1 · T1 ·A. (1.63)

Page 64: 3486584472_Mathem

1.6 L–R–Zerlegung 51

Wiederum multiplizieren wir von links mit einer Transpositionsmatrix T2. Jetzt abertauschen wir nicht nur in der Matrix A, sondern auch in der Frobenius–Matrix F1 dieZeilen. Wir zeigen das Ergebnis mal an einer 5× 5–Frobenius–Matrix, bei der wir diezweite mit der vierten Zeile tauschen:

F1 =

⎛⎜⎜⎜⎜⎝

1 0 0 0 0f21 1 0 0 0f31 0 1 0 0f41 0 0 1 0f51 0 0 0 1

⎞⎟⎟⎟⎟⎠→

⎛⎜⎜⎜⎜⎝

1 0 0 0 0f41 0 0 1 0f31 0 1 0 0f21 1 0 0 0f51 0 0 0 1

⎞⎟⎟⎟⎟⎠

Das ist fur die relevante Spalte in F1 nicht tragisch. Da tauschen sich halt die zwei Ele-mente, wirkt aber dramatisch auf die Hauptdiagonalelemente. Nach dem Zeilentauschstehen zwei Nullen in der Diagonale. Und zwei Einsen tummeln sich außerhalb. Das istmitnichten eine Frobeniusform. Was tun, spricht Zeus. Wir brauchen Frobenius, umdie inversen Matrizen leicht bilden zu konnen. Jetzt kommt ein hinterlistiger Trick.Wir machen diesen Tausch wieder ruckgangig dadurch, daß wir von rechts her mit derTranspositionsmatrix T2 heranmultiplizieren. Ja, wird man einwenden, das geht dochnicht so einfach. Da konnte ja jeder kommen.1 Nein, nein, wir manipulieren schonrichtig, indem wir namlich so arbeiten:

T2 · F1 · T1 ·A = T2 · F1 · T2 · T2︸ ︷︷ ︸ ·T1 · A. (1.64)

Den eingefugten Term haben wir unterklammert. Wie wir uns oben uberlegt haben,ist das die Einheitsmatrix. Jetzt klammern wir die rechte Seite so

T2 · F1 · T2︸ ︷︷ ︸ ·T2 · T1 · A (1.65)

und erkennen, daß der unterklammerte Teil wiederum eine Frobeniusmatrix ist, diewir F1 nennen wollen. Und, oh Wunder, rechts davon steht das Produkt von Trans-positionsmatrizen und A. Wenn wir einmal annehmen, daß wir schon fertig waren, soware das Ergebnis jetzt eine obere Dreiecksmatrix, also

A → F1 · T2 · T1 ·A = R. (1.66)

Hier konnen wir nun leicht auflosen, denn die Inverse einer Frobeniusmatrix ist soforthingeschrieben, und mit der Abkurzung

P := T2 · T1, (1.67)

1Dies ist bekanntlich das dritte der padagogischen Grundprinzipien, die da lauten:

1. Das war schon immer so!

2. Das ham wer noch nie gemacht!

3. Da konnte ja jeder kommen!

Page 65: 3486584472_Mathem

52 1 Numerik linearer Gleichungssysteme

wobei P als Produkt von zwei Transpositionsmatrizen eine Permutationsmatrix ist,erhalten wir

P ·A = F−11 ·R. (1.68)

Offensichtlich ist F−11 eine linke untere Dreiecksmatrix. Was wir erreichen wollten,

ist eingetreten. Wir haben zwar nicht A selbst, aber immerhin P · A, also A nachZeilentausch, L–R–zerlegt.Jetzt halt uns niemand mehr, genau so weiterzuverfahren. Wir wollen das ruhig nochmal ausfuhren, um es auch richtig genießen zu konnen.Also erzeugen wir in der zweiten Spalte unterhalb des Pivot–Elementes, das schon inder Diagonalen steht, Nullen durch Multiplikation mit einer Frobeniusmatrix F2

A → F2 · F1 · T2 · T1 · Aund mussen erneut in der nun dritten Spalte pivotisieren, also

A → T3 · F2 · F1 · T2 · T1 · A.

Diese Vertauscherei mit T3 wirkt auch wieder auf die Frobeniusmatrizen und zerstortderen von uns so geliebte Frobeniusform. Unser Trick hilft nun ein zweites Mal. Wirfugen an zwei geeigneten Stellen die Einheitsmatrix ein

A → T3 · F2 · T3 · T3︸ ︷︷ ︸ ·F1 · T3 · T3︸ ︷︷ ︸ ·T2 · T1 ·A

und klammern anders

A → T3 · F2 · T3︸ ︷︷ ︸ ·T3 · F1 · T3︸ ︷︷ ︸ ·T3 · T2 · T1 ·A.

Die beiden unterklammerten Matrizen sind wieder in Frobeniusform, die wir F2 und ˜F 1

nennen wollen. Und erneut ist das Wunderbare geschehen, daß sich namlich die Trans-positionsmatrizen alle als unmittelbare Faktoren vor A versammelt haben. Waren wirjetzt fertig, so ware hier also die obere Dreiecksmatrix R entstanden und wir konntenwieder auflosen

F2 · ˜F 1 · T3 · T2 · T1 · A = R ⇐⇒ T3 · T2 · T1 ·A = ˜F−1

1 · F−12 · R.

Setzen wir

P := T3 · T2 · T1,

so ist uns also auch hier die L–R–Zerlegung von der permutierten Matrix P ·A gelun-gen; denn P ist als Produkt von Transpositionsmatrizen eine Permutationsmatrix.Das Ende vom Lied ist schnell erzahlt. Es ist nach endlich vielen Schritten, genaunach n− 1 Schritten einer n× n–Matrix erreicht und lautet, wenn wir alle Schlangenuber den Frobeniusmatrizen der Einfachheit wegen wieder weglassen,

A → Fn−1 · Fn−2 · · ·F2 · F1 · Tn−1 · · ·T2 · T1 ·A = R. (1.69)

Page 66: 3486584472_Mathem

1.6 L–R–Zerlegung 53

Es sieht nach einem Fehlen der Matrizen Tn und Fn aus; wenn wir uns aber Gaußin Erinnerung rufen, so ist ja zum Schluß nur noch das Element an,n−1 zu Null zumachen. In dieser vorletzten Spalte ist also eine Pivotisierung mittels Tn nicht mehrerforderlich mangels Konkurrenz an Elementen. Fn wird auch nicht mehr gebraucht,weil unterhalb von ann kein Element mehr ist, das zu Null gemacht werden mochte.Die Auflosung der Gleichung (1.69) macht sich so schon einfach. Setzen wir

P := Tn−1 · Tn−2 · · ·T2 · T1, (1.70)

so erhalten wir

P ·A = F−11 · F−1

2 · · ·F−1n−1 · R. (1.71)

Die Inversen der Frobeniusmatrizen rechter Hand bleiben in Frobeniusform. Ihr Pro-dukt erhalt man einfach durch ”Ubereinanderlegen“, das Resultat ist also eine Ma-trix, die Einsen in der Hauptdiagonalen hat und unterhalb in jeder Spalte gerade diemit anderem Vorzeichen vesehenen Elemente der ursprunglichen FrobeniusmatrizenF1, . . . , Fn−1. Genau so sollte aber unsere gesuchte L–Matrix aussehen. Also habenwir die Zerlegung

P ·A = L · R. (1.72)

1.6.3 L–R–Zerlegung und lineare Gleichungssysteme

Nachdem wir schon mehrfach in kleinen didaktischen Beispielen lineare Gleichungs-systeme gelost haben, wollen wir in diesem Abschnitt eine ernsthafte Methode ken-nenlernen, mit der auch umfangreiche Aufgaben gelost werden konnen. Das wird dieAnwendung der L–R–Zerlegung leisten.Betrachten wir, damit wir keinen Arger mit der Losbarkeit haben, ein lineares Glei-chungssystem mit einer regularen (n × n)–Matrix A. Auf der nachsten Seite stellenwir den Algorithmus zusammen.Zwar hat man zur Losung eines linearen Gleichungssystems zwei Systeme zu bearbei-ten, der Vorteil der L–R–Zerlegung liegt aber darin, daß man es jeweils nur mit einemDreieckssystem zu tun hat. Einfaches Aufrollen von oben nach unten (Vorwartselimi-nation) bei (1.75) bzw. von unten nach oben (Ruckwartselimination) bei (1.76) liefertdie Losung.Wir sollten nicht unerwahnt lassen, daß man die Vorwartselimination direkt in dieBerechnung der Zerlegung einbauen kann. Dazu schreibt man die rechte Seite b desSystems als zusatzliche Spalte an die Matrix A heran und unterwirft sie den gleichenUmformungen wie die Matrix A. Dann geht b direkt uber in den oben eingefuhrtenVektor y, und wir konnen sofort mit der Ruckwartselimination beginnen.

Page 67: 3486584472_Mathem

54 1 Numerik linearer Gleichungssysteme

Gleichungssysteme und L–R–Zerlegung

Gegeben sei ein lineares Gleichungssystem mit regularer Matrix A

Ax = b.

1. Man berechne die L–R–Zerlegung von A unter Einschluß von Spaltenpivotisie-rung, bestimme also eine untere Dreiecksmatrix L, eine obere DreiecksmatrixR und eine Permutationsmatrix P mit

P · Ax = L ·R · x = Pb. (1.73)

2. Man setze

y := Rx (1.74)

und berechne y aus

Ly = Pb (Vorwartselimination) (1.75)

3. Man berechne das gesuchte x aus

Rx = y (Ruckwartselimination) (1.76)

Beispiel 1.73 Losen Sie folgendes lineare Gleichungssystem mittels L–R–Zerlegung.

2x1 + 4x2 = −1−4x1 − 11x2 = −1

.

Die zum System gehorige Matrix lautet

A =(

2 4−4 −11

).

Offensichtlich ist in der ersten Spalte das betraglich großte Element −4 nicht in derDiagonalen, also tauschen wir flugs die beiden Zeilen mit Hilfe der Transpositionsma-trix

P12 =(

0 11 0

)⇒ A = P12 ·A =

( −4 −112 4

).

Dann wenden wir auf die neue Matrix A die Eliminationstechnik an. Wir mussen dieerste Zeile mit 1/2 multiplizieren und zur zweiten Zeile addieren, um in der ersten

Page 68: 3486584472_Mathem

1.6 L–R–Zerlegung 55

Spalte unterhalb der Diagonalen eine Null zu erzeugen:

P12 ·A →( −4 −11

12 −3

2

).

Bei dieser kleinen Aufgabe sind wir schon mit der Zerlegung fertig. Die gesuchtenMatrizen L und R lauten

L =(

1 0−1

2 1

), R =

( −4 −110 −3

2

).

So, nun mussen wir zwei Gleichungssysteme losen. Zunachst berechnen wir den Hilfs-vektor y aus dem System

Ly = P12b ⇐⇒

(1 0

−12 1

)(y1

y2

)=( −1−1

).

Nun ja, aus der ersten Zeile liest man die Losung fur y1 direkt ab, und ein wenigKopfrechnen schafft schon die ganze Losung herbei

y1 = −1, y2 = −3/2.

Das nachste System enthalt den gesuchten Vektor x und lautet

Rx = y ⇐⇒( −4 −11

0 −32

)(x1

x2

)=( −1−3/2

).

Hier fangen wir unten an gemaß der Ruckwartselimination und erhalten aus der zwei-ten Zeile direkt und dann aus der ersten, wenn wir noch einmal unseren Kopf bemuhen:

x2 = 1, x1 = −5/2.

Der wahre Vorteil des Verfahrens zeigt sich, wenn man Systeme mit mehreren rechtenSeiten zu bearbeiten hat. Dann muß man einmal die Zerlegung berechnen, kann sichaber anschließend beruhigt auf das Faulbett legen; denn nun lauft die Losung fast vonselbst. Das wird z. B. benutzt beim Verfahren zur inversen Iteration nach Wielandtzur Bestimmung des kleinsten Eigenwertes einer Matrix (vgl. Kapitel ’Matrizeneigen-wertaufgaben’) oder auch schon bei der Bestimmung der inversen Matrix, wie wir esjetzt zeigen wollen.

1.6.4 L–R–Zerlegung und inverse Matrix

Inverse Matrizen zu berechnen, ist stets eine unangenehme Aufgabe. Zum Gluck wirddas in der Praxis nicht oft verlangt. Eine auch numerisch brauchbare Methode liefertwieder die oben geschilderte L–R–Zerlegung.

Page 69: 3486584472_Mathem

56 1 Numerik linearer Gleichungssysteme

Bestimmung der inversen Matrix

Gegeben sei eine regulare Matrix A.Gesucht ist die zu A inverse Matrix A−1, also eine Matrix X(= A−1) mit

A ·X = E (1.77)

Dies ist ein lineares Gleichungssystem mit einer Matrix als Unbekannter und derEinheitsmatrix E als rechter Seite.Man berechne die L–R–Zerlegung von A unter Einschluß von Spaltenpivotisierung,bestimme also eine untere Dreiecksmatrix L, eine obere Dreiecksmatrix R und einePermutationsmatrix P mit

P ·A ·X = L ·R ·X = P ·E. (1.78)

Man setze

Y := R ·X (1.79)

und berechne Y aus

L · Y = P ·E (Vorwartselimination) (1.80)

Man berechne das gesuchte X aus

R ·X = Y (Ruckwartselimination) (1.81)

Auch hier sind die beiden zu losenden Systeme (1.80) und (1.81) harmlose Dreiecks-systeme. Auf ihre Auflosung freut sich jeder Rechner.

Beispiel 1.74 Als Beispiel berechnen wir die Inverse der Matrix aus Beispiel 1.73von Seite 54. Gegeben sei also

A =(

2 4−4 −11

).

Gesucht ist eine Matrix X mit A ·X = E.

In Beispiel 1.73 haben wir bereits die L–R–Zerlegung von A mit Spaltenpivotisierungberechnet und erhielten:

A = P12 · A =( −4 −11

2 4

)= L ·R =

(1 0

−12 1

)·( −4 −11

0 −32

).

So konnen wir gleich in die Auflosung der beiden Gleichungsysteme einsteigen. Begin-nen wir mit (1.80). Aus

L · Y =(

1 0−1

2 1

)·(

y11 y12

y21 y22

)=(

0 11 0

)= P ·E

Page 70: 3486584472_Mathem

1.7 Q–R–Zerlegung 57

berechnet man fast durch Hinschauen

Y =(

0 11 1

2

).

Bleibt das System (1.81):

R ·X =( −4 −11

0 −32

)·(

x11 x12

x21 x22

)=(

0 11 1

2

)= Y,

aus dem man direkt die Werte x21 und x22 abliest. Fur die beiden anderen Werte mußman vielleicht eine Zwischenzeile hinschreiben. Als Ergebnis erhalt man

X =16

(11 4−4 −2

).

So leicht geht das, wenn man die L–R–Zerlegung erst mal hat.

1.7 Q–R–Zerlegung

Im Abschnitt 1.6 auf Seite 44 haben wir die Nutzlichkeit der Zerlegung einer Matrix Ain zwei Dreiecksmatrizen kennengelernt. Eine weitere Idee, die in die gleiche Richtungweist, verwendet orthogonale Matrizen und lauft unter dem Namen ”Q–R–Zerlegung“.Wir legen in der folgenden Definition fest, was wir darunter verstehen wollen.

Definition 1.75 Unter einer Q–R–Zerlegung einer (n × n)–Matrix A verstehen wirdie (multiplikative) Zerlegung

A = Q ·R (1.82)

in das Produkt einer orthogonalen Matrix Q mit einer oberen Dreiecksmatrix R.

Der Vorteil dieser Zerlegung gegenuber der L–R–Zerlegung offenbart sich im folgendenSatz, der uns verrat, daß wir bei der Q–R–Zerlegung nur wenig Arger mit Rundungs-fehlern bekommen, da sich die Kondition nicht andert.

Satz 1.76 Ist A eine (n×n)–Matrix und Q eine orthogonale (n×n)–Matrix, so gilt:

cond2(A) = cond2(Q · A). (1.83)

Die Kondition bezgl. der Spektralnorm bleibt also bei orthogonalen Transformationenerhalten.

Beweis: Wir mussen zeigen:

cond2(A) = ‖A‖2 · ‖A−1‖2!= ‖Q ·A‖2 · ‖(Q ·A)−1‖2 = cond2(Q ·A).

Page 71: 3486584472_Mathem

58 1 Numerik linearer Gleichungssysteme

Die folgende Gleichungskette ergibt sich sofort, wenn wir beachten, daß sich beimTransponieren und bei der Inversenbildung des Produktes zweier Matrizen die Rei-henfolge umdreht, also

(A · B) = B · A, (A · B)−1 = B−1 · A−1.

Damit folgt nun:

A ·A = A ·Q−1 ·Q · A = AQ ·Q · A = (Q · A) · (Q ·A).

Klaro, daß dann A · A und (Q · A) · (Q · A) auch dieselben Eigenwerte haben.Also haben wir schon herausgefunden, wenn wir uns die Definition der 2–Norm insGedachtnis rufen:

‖A‖2 = ‖Q ·A‖2.

Jetzt mussen wir uns noch folgende Gleichheit uberlegen:

‖A−1‖2 = ‖(Q · A)−1‖2.

Dazu zeigen wir wieder im Einklang mit der 2–Norm, daß (A−1) · A−1 und ((Q ·A)−1) · (Q · A)−1 dieselben Eigenwerte haben. Es gilt

((Q · A)−1) · (Q ·A)−1 = (A−1 ·Q−1) ·A−1 ·Q−1 = Q · (A−1) ·A−1 ·Q.

Was will uns diese Gleichung sagen? Na klar, rechts steht eine Ahnlichkeitstransfor-mation von (A−1) · A−1, also hat die rechts stehende Matrix dieselben Eigenwertewie die Matrix (A−1) ·A−1, wegen der Gleichheit also auch dieselben Eigenwerte wie((Q ·A)−1) · (Q ·A)−1, und schon ist alles bewiesen.

Nicht nur der Mathematiker, sondern auch der Anwender fragt naturlich danach,unter welchen Voraussetzungen eine solche Q–R–Zerlegung moglich ist. Dazu konnenwir den folgenden sehr allgemeinen Satz angeben.

Satz 1.77 Eine reelle (n × n)–Matrix laßt sich stets in ein Produkt der Form

A = Q ·R (1.84)

zerlegen mit einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R.

Page 72: 3486584472_Mathem

1.7 Q–R–Zerlegung 59

1.7.1 Der Algorithmus

Algorithmus zur Q–R–Zerlegung

1. Schritt: Wir bestimmen A(1) folgendermaßen:Falls a2,1 = · · · = an1 = 0, so nachster Schritt.

(i) s :=√∑n

i=1 a2i1,

(ii) Berechne den Vektor ω(1) gemaß:

ω1 =

√12·(

1 +|a11|

s

)

ωk =12

ak1

ω1 · s · σ(a11) mit σ(t) =

1 t ≥ 0−1 t < 0

fur k = 2, . . . , n

(iii) Bestimme dann die Transformationsmatrix P (1) aus:

P (1) = E − 2ω(1) · ω(1)

und berechne damit (beachte (P (1))−1 = P (1)):

A(1) = P (1) · A

Damit sind in A(1) in der ersten Spalte unterhalb a11 alle Elemente 0.

2. Schritt: Wir streichen in A(1) die erste Zeile und erste Spalte und behandelndie Restmatrix in derselben Weise, erzeugen also unterhalb a22 Nullelemente.Dem dazu berechneten Vektor ω(2) fugen wir anschließend wieder oben eine 0hinzu und stellen die neue Transformationsmatrix P (2) auf:

P (2) = E − 2ω(2) · ω(2)

Die Matrix

A(2) = P (2) · A(1) = P (2) · P (1) ·A

hat dann bereits in der ersten und zweiten Spalte unterhalb der Diagonal-elemente nur 0.

3. Schritt . . . : So geht das Spiel weiter, bis die Matrix

R = P (n−1) · · ·P (1) ·A =: Q ·A (also A = Q ·R)

die verlangte Gestalt hat.

Page 73: 3486584472_Mathem

60 1 Numerik linearer Gleichungssysteme

Etwas schwieriger wird die Uberlegung, unter welchen Umstanden genau eine einzigeQ–R–Zerlegung existiert. Das gilt selbst fur regulare Matrizen nur unter einer weiterenEinschrankung, wie wir im folgenden Satz zeigen. Diese bedeutet aber lediglich, daßdie Vorzeichen der Diagonalelemente nicht festliegen.

Satz 1.78 Die Q–R–Zerlegung einer reellen regularen (n × n)–Matrix A ist einzig,wenn die Vorzeichen der Diagonalelemente von R fest vorgeschrieben werden.

Beweis: Nehmen wir namlich an, daß wir zwei Q–R–Zerlegungen von A hatten, also

A = Q1 · R1 = Q2 ·R2, (1.85)

wobei die entsprechenden Diagonalelemente von R1 und R2 gleiches Vorzeichen haben.Aus der linearen Algebra ist bekannt, daß die regularen oberen Dreiecksmatrizen eineGruppe bezgl. der Matrizenmultiplikation bilden. Das hort sich aufregend an, meintaber einfach, daß das Produkt zweier oberen Dreiecksmatrizen wieder eine solche istund daß die inverse Matrix einer oberen Dreiecksmatrix ebenfalls obere Dreiecksgestalthat.Im Satz haben wir A als regular vorausgesetzt. Dann sind auch R1 und R2 regular,und wir konnen aus (1.85) die folgende Matrix D berechnen:

D := Q−12 ·Q1 = Q2 ·Q1 = R2 ·R−1

1 . (1.86)

Nun uberlegen wir uns, daß diese Matrix D eine Diagonalmatrix ist. Wir sehennamlich, daß Q−1

2 orthogonal, also auch Q−12 · Q1 orthogonal ist. Wegen der Grup-

peneigenschaft ist R2 · R−11 eine obere Dreiecksmatrix. So ist also D orthogonal und

zugleich obere Dreiecksmatrix. Also gilt

D−1 = D,

wobei D−1 eine obere und D eine untere Dreiecksmatrix ist. Also ist D in Wirklich-keit bereits eine Diagonalmatrix.Nun zeigen wir nur noch, daß D = E gilt. Aus (1.86) folgt:

R2 = D · R1.

Da R1 und R2 in den Diagonalelementen jeweils gleiches Vorzeichen haben, hat D des-halb nur positive Elemente als Diagonalelemente. Da D orthogonal und symmetrischist, ist

D−1 = D = D, also1dii

= dii.

Also folgt

D = E, und daher R1 = R2, Q1 = Q2,

womit wir alles bewiesen haben.

Page 74: 3486584472_Mathem

1.7 Q–R–Zerlegung 61

Beispiel 1.79 Wir betrachten die Matrix

A =(

2 31 0

)

und bilden ihre Q–R–Zerlegung.

Wir orientieren uns streng am vorgegebenen Algorithmus und berechnen s:

s =√

22 + 12 =√

5.

Damit folgt fur die erste Komponente des Vektors ω:

ω1 =

√12

(1 +

|a11|s

)=

√12

(1 +

2√5

)= 0.9732.

Und die zweite Komponente lautet:

ω2 =12

a21

ω1 · s · σ(a11) =12

10.9732 · √5

· 1 = 0.2298.

Damit berechnen wir die Matrix ω · ω:

ω · ω =(

0.97320.2298

)· (0.9732, 0.2298) =

(0.9471 0.22360.2236 0.0528

).

Als Transformationsmatrix erhalten wir:

P =(

1 00 1

)− 2ω · ω =

( −0.8944 −0.4472−0.4472 0.8944

)

Wer Spaß daran hat, mag von ihr ja mal das Quadrat bilden, um zu sehen, daß dieEinheitsmatrix E herauskommt, denn schließlich ist P ja orthogonal und symmetrisch.Damit berechnen wir die Matrix R, welche unsere gesuchte obere Dreiecksmatrix ist,aus R = P · A

P ·A =( −0.8944 −0.4472−0.4472 0.8944

)·(

2 31 0

)=( −2.2361 −2.6833

0 −1.3416

)= R.

Da P orthogonal ist, erhalten wir PR = A, also

Q = P(= P ).

Um die Bedeutung der Funktion σ(t) herauszustreichen, betrachten wir noch folgendes

Beispiel 1.80 Wir betrachten die Matrix

A =( −2 3

1 0

)

und bilden ihre Q–R–Zerlegung.

Page 75: 3486584472_Mathem

62 1 Numerik linearer Gleichungssysteme

Wir wollen den geneigten Leser nicht durch langweilige Rechnungen verprellen undgeben daher nur das Ergebnis an:

A = Q ·R =( −0.8944 0.4472

0.4472 0.8944

)·(

2.2361 −2.68330 1.3416

)

Im Ergebnis haben sich nur einige Vorzeichen geandert, aber darin lag ja auch dereinzige Unterschied zur Matrix in Beispiel 1.79.

1.7.2 Q–R–Zerlegung und lineare Gleichungssysteme

Hat man ein lineares Gleichungssystem vorliegen in der Form

Ax = b, (1.87)

so bestimmen wir die Q–R–Zerlegung von A. Dann lautet das Gleichungssystem

Ax = Q ·Rx = b. (1.88)

Wie schon bei der L–R–Zerlegung bilden wir daraus zwei Gleichungssysteme

Rx = y, Qy = b. (1.89)

Das rechte System zur Auflosung nach y ist zwar im allgemeinen voll besetzt, dafur laßtsich von der orthogonalen Matrix Q durch Transponieren leicht ihre inverse Matrixbilden. Wir erhalten also die Losung durch schlichte Multiplikation Matrix mal Vektor:

y = Qb. (1.90)

Das linke System hat dann Dreiecksgestalt, wird also durch Aufrollen von unten nachoben wie bei der L–R–Zerlegung gelost.

Q–R–Zerlegung und lineare Gleichungssysteme

Gegeben sei das lineare Gleichungssystem

Ax = b, mit A ∈ Rn×n, x ∈ R

n,b ∈ Rn.

(i) Bilde die Q–R–Zerlegung von A.

(ii) Lose mit den Matrizen Q und R das Gleichungssystem

Rx = Qb

Beispiel 1.81 Wir losen das lineare Gleichungssystem Ax = b mit der Matrix A ausBeispiel 1.79 von Seite 61 und der rechten Seite b = (2, 10) mit Hilfe der Q–R–Zerlegung.

Page 76: 3486584472_Mathem

1.8 Uberbestimmte lineare Gleichungssysteme 63

Gegeben sei also das lineare Gleichungssystem

Ax =(

2 31 0

)(x1

x2

)=(

210

).

Wir kennen von oben die Q–R–Zerlegung von A:

Q =( −0.8944 −0.4472−0.4472 0.8944

), R =

( −2.2361 −2.68330 −1.3416

).

Zu berechnen haben wir den Vektor

Q ·b =( −6.2608

8.0496

).

Nun ist nur noch das Dreieckssystem zu losen:

Rx = Qb

mit der Losung

x =(

10−6

).

1.8 Uberbestimmte lineare Gleichungssysteme

Die oben vorgestellte Q–R–Zerlegung einer Matrix hat lediglich beim Nachweis derEinzigkeit einer solchen Zerlegung ernsthaft benotigt, daß die Matrix A quadratischwar. Da kommt doch sofort der Gedanke, dieses Verfahren auch fur nichtquadratischeGleichungssysteme nutzbar zu machen. Eine typische Aufgabenstellung finden wir inder Ausgleichsrechnung. Wir wollen diesen Abschnitt lediglich als eine solche kleineAnwendung fur die Q–R–Zerlegung behandeln und durcheilen daher im Geschwind-schritt die theoretischen Grundlagen.Ausgangspunkt sei die praktische Erfahrung eines Physikers oder Ingenieurs, der auseiner Versuchsanordnung eine Meßreihe von Daten erhalt. Diese sind naturlich mitMeßfehlern behaftet. Um auch an Zwischenpunkten Werte zu erhalten, mochte maneine Kurve entwickeln, die den Verlauf dieser Punkte wenigstens ungefahr wiedergibt.Es ware aber geradezu unsinnig, diese Punkte durch Interpolation miteinander zuverbinden. Abgesehen davon, daß bei einer großeren Meßreihe der hohe Polynomgradzu einer sehr wackeligen Kurve fuhrte, sind die Daten ja auch fehlerhaft. Was sollda eine Kurve, die die Punkte verbindet? Haufig weiß der Anwender schon aus derTheorie, welche Kurve bei diesem Experiment zu erwarten ist. Wir wollen uns imfolgenden nur damit befassen, daß die gesuchte Kurve ein Polynom ist.

Page 77: 3486584472_Mathem

64 1 Numerik linearer Gleichungssysteme

×

××

×

×

1 2 3 4 5 x

1

2

3

4

5

y

×

××

×

×

1 2 3 4 5 x

1

2

3

4

5

y

Abbildung 1.5: Aus einer Messung stammende Meßpunkte, die wir mit einem (×)gekennzeichnet haben. Wir haben links versucht, eine Gerade so zwischen die Punktezu legen, daß vom Augenschein her die Punkte optimal angenahert werden. Durchzusatzliche Pfeile sind die Abstande der einzelnen Punkte von der ausgleichendenGerade dargestellt. Die Idee von Gauß war es, die 2–Norm dieses Vektors, der aus denAbstanden besteht, zu minimieren. Und rechts ist die errechnete Antwort.

1.8.1 Die kleinste Fehlerquadratsumme

Der Princeps Mathematicorum, also der Erste unter allen Mathematikern, solche oderahnliche Beinamen pflegt man Carl Friedrich Gauß zu geben, um die hohe Achtungvor seiner Leistung zu zeigen. Dieser Abschnitt geht ebenfalls auf ihn zuruck. SeinVorschlag, wie man eine große Zahl vorgegebener Punkte durch ein Polynom niedrigenGrades ausgleichen kann, ist von bestechender Einfachheit. Betrachten wir folgendesBeispiel.

Beispiel 1.82 Wir bestimmen ein Ausgleichspolynom vom Grad 1 fur folgende Punk-te:

xi 1 2 3 4 5yi 0.5 2.3 1.4 3.1 5.8

Unser Ansatz sei also eine lineare Funktion

p(x) = a0 + a1x.

Zunachst stellen wir das zugehorige Gleichungssystem auf, um deutlich zu machen,wie sehr es uberbestimmt ist. Wenn wir jeweils obige Werte einsetzen, erhalten wirfunf Gleichungen fur die zwei unbekannten Koeffizienten a0 und a1.

a0 + a1 · 1 = 0.5a0 + a1 · 2 = 2.3a0 + a1 · 3 = 1.4a0 + a1 · 4 = 3.1a0 + a1 · 5 = 5.8

Page 78: 3486584472_Mathem

1.8 Uberbestimmte lineare Gleichungssysteme 65

In Matrixform lautet es

A · a = y mit A =

⎛⎜⎜⎜⎜⎝

1 11 21 31 41 5

⎞⎟⎟⎟⎟⎠ , y =

⎛⎜⎜⎜⎜⎝

0.52.31.43.15.8

⎞⎟⎟⎟⎟⎠ .

Dieses System kann offensichtlich nicht exakt gelost werden. Schon jeweils drei der be-teiligten funf Gleichungen widersprechen einander. Damit nun keine Gleichung weinenmuß, weil wir sie vernachlassigen, werden wir sie alle berucksichtigen, aber in jedereinen Fehler zulassen. Nach Gauß versuchen wir dann, eine angenaherte Losung derartzu bestimmen, daß der Gesamtfehler in allen Gleichungen minimal wird.Als Maß fur den Fehler wahlen wir die euklidische Norm.Unsere Aufgabe lautet also:

Definition 1.83 (Ausgleich mit Polynomen) Gegeben seien N+1 (Meß–)Punkte

P0 = (x0, y0), . . . , PN = (xN , yN ). (1.91)

Dann versteht man unter dem Ausgleich mit Polynomen die Aufgabe:Gesucht wird ein Polynom p ∈ IPn mit n < N

p(x) = a0 + a1x + · · ·+ anxn, (1.92)

fur das gilt

‖r‖2 :=

√√√√ N∑i=0

r2i = min, (1.93)

wobei der Residuenvektor r definiert ist durch

ri := a0 + a1xi + · · · + anxni − yi, i = 0, . . . , N. (1.94)

Die Summe in (1.93) heißt Fehlerquadratsumme.

Der Ansatz (1.92) fuhrt auf das folgende uberbestimmte lineare Gleichungssystem:

A·a = y mit A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 x0 · · · xn0

1 x1 · · · xn1

......

......

......

......

...1 xN · · · xn

N

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

, a =

⎛⎜⎜⎜⎝

a0

a1...

an

⎞⎟⎟⎟⎠ , y =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

y0

y1.........

yN

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

(1.95)

Page 79: 3486584472_Mathem

66 1 Numerik linearer Gleichungssysteme

Die Gleichung (1.93) bedeutet, daß wir von einer Funktion mit n + 1 Veranderlicheneine Minimalstelle berechnen sollen. Selbstverstandlich konnen wir gleich das Qua-drat des Fehlers betrachten, um uns nicht mit der lastigen Wurzel abzugeben. Wirbetrachten also

S := ‖r‖22 :=

N∑i=0

r2i = min, (1.96)

Aus der Analysis ist bekannt, daß notwendig der Gradient an einer solchen Stelle zuverschwinden hat. Wegen der Quadrate ist das hier auch eine hinreichende Bedingung.

0 =∂S

∂aj=

∂aj

N∑i=0

(a0 + . . . + anxni − yi)2

=N∑

i=0

2 · (a0 + . . . + anxni − yi)x

ji (1.97)

j = 0, 1, . . . , n(1.98)

Das sind n + 1 lineare Gleichungen fur die n + 1 unbekannten Koeffizienten a0, . . .,an.

Definition 1.84 Das folgende System von linearen Gleichungen (wo die Summe stetsvon 0 bis N lauft)

a0(N + 1) + a1∑

xi + . . . + an∑

xni =

∑yi

a0∑

xi + a1∑

x2i + . . . + an

∑xn+1

i =∑

xiyi...

...a0∑

xni + a1

∑xn+1

i + . . . + an∑

x2ni =

∑xn

i yi

(1.99)

heißt System der Gaußschen Normalgleichungen. Wir bezeichnen es mit

Ga = b. (1.100)

Man muß sich dieses kompliziert erscheinende System nur mal von schrag unten an-schauen, dann fallt folgendes ins Auge:

Satz 1.85 Mit den Bezeichnungen wie in (1.95) gilt

G = A · A, b = Ay, (1.101)

und die Gaußschen Normalgleichungen schreiben sich in der Form

Ga = A ·Aa = Ay = b. (1.102)

Page 80: 3486584472_Mathem

1.8 Uberbestimmte lineare Gleichungssysteme 67

Beweis: Zum Beweis schreiben wir lediglich die Zerlegung der Matrix auf, die durcheinfaches Ausmultiplizieren verifiziert werden kann.

⎛⎜⎝

N + 1∑

xi · · · ∑xn

i...

......∑

xni

∑xn+1

i · · · ∑x2n

i

⎞⎟⎠ =

⎛⎜⎜⎜⎝

1 1 · · · 1x0 x1 · · · xN...

...xn

0 xn1 · · · xn

N

⎞⎟⎟⎟⎠·⎛⎜⎜⎜⎝

1 x0 · · · xn0

1 x1 · · · xn1

......

...1 xN · · · xn

N

⎞⎟⎟⎟⎠

Damit haben wir nun eine recht einfache Moglichkeit, mit dem Prinzip von der klein-sten Fehlerquadratsumme nach Gauß ein Ausgleichspolynom zu bestimmen. Wir konnenuns namlich leicht davon uberzeugen, unter welchen Bedingungen dieses System uber-haupt losbar ist.Offensichtlich ist die Matrix G der Gaußschen Normalgleichungen symmetrisch; dennwir haben ja

G = A · A ⇒ G = (A ·A) = G.

Außerdem ist G, falls die Spalten a0, a1, . . . , an von A linear unabhangig sind, positivdefinit; denn sei x = 0 ein beliebiger Vektor aus R

n+1. Dann gilt:

xGx = xA ·Ax = (Ax) · (Ax) = ‖Ax‖22 ≥ 0.

Wir mussen nur noch zeigen, daß hier = 0 nicht auftreten kann. Nehmen wir an, daßdoch Ax = 0 ware. Das schreiben wir etwas anders als

Ax = 0 ⇐⇒a00x0 + · · ·+ a0nxn = 0a10x0 + · · ·+ a1nxn = 0

......

aN0x0 + · · ·+ aNnxn = 0

Wenn wir das noch ein wenig umschreiben, sehen wir klar:

x0

⎛⎜⎜⎜⎝

a00

a10...

aN0

⎞⎟⎟⎟⎠+ x1

⎛⎜⎜⎜⎝

a01

a11...

aN1

⎞⎟⎟⎟⎠+ · · ·+ xn

⎛⎜⎜⎜⎝

a0n

a1n...

aNn

⎞⎟⎟⎟⎠ = 0

Dies ist doch eine Linearkombination des Nullvektors mit den nach Voraussetzunglinear unabhangigen Spaltenvektoren a0,. . . ,an von A, also ist

x0 = x1 = · · · = xn = 0,

was wir behauptet haben. Wir haben damit gezeigt:

Page 81: 3486584472_Mathem

68 1 Numerik linearer Gleichungssysteme

Satz 1.86 Sind die Spalten der Matrix A des uberbestimmten Gleichungssystems (1.95)linear unabhangig, so hat dieses System genau eine Losung, die sich aus dem Systemder Gaußschen Normalgleichungen (1.102) berechnen laßt. Wir nennen sie Kleinste–Quadrate–Losung.

Auf der nachsten Seite findet man eine Zusammenstellung des Algorithmus.Wir kommen zuruck auf unser Anfangsbeispiel mit den Punkten

xi 1 2 3 4 5yi 0.5 2.3 1.4 3.1 5.8

und suchen ein Ausgleichspolynom in der Form

p(x) = a0 + a1x.

Zur Bestimmung der beiden Koeffizienten a0 und a1 rufen wir uns das uberbestimmteSystem in Erinnerung:

A · a = y mit A =

⎛⎜⎜⎜⎜⎝

1 11 21 31 41 5

⎞⎟⎟⎟⎟⎠ , y =

⎛⎜⎜⎜⎜⎝

0.52.31.43.15.8

⎞⎟⎟⎟⎟⎠ .

Bestimmung eines Ausgleichpolynoms

1 Gegeben seien die (Meß–)Punkte

P0 = (x0, y0), . . . , PN = (xN , yN ).

2 Wahle den Polynomansatz

p(x) = a0 + a1x + · · ·+ anxn, n < N (1.103)

3 Stelle mit diesem Ansatz das uberbestimmte Gleichungssystem

Aa = y (1.104)

mit A und y wie in (1.95) auf.

4 Lose das Gleichungssystem

Ga = A · Aa = Ay = b. (1.105)

Die Losung dieses Systems ist die einzige Kleinste–Quadrate–Losung des Ausgleichs-problems mit Polynomen.

Page 82: 3486584472_Mathem

1.8 Uberbestimmte lineare Gleichungssysteme 69

Dem Algorithmus folgend bilden wir die Matrix G:

G = A · A =(

5 1515 55

)

und die rechte Seite

b = Ay =(

13.150.7

).

Als Losung der Gaußschen Normalgleichungen erhalten wir dann

a0 = −0.8, a1 = 1.14,

und damit lautet die gesuchte Augleichsgerade

p(x) = −0.8 + 1.14x.

Eine bildliche Darstellung findet man in Abbildung 1.5 auf Seite 64 rechts.Bemerkungen:

1. Da die Matrix der Gaußschen Normalgleichungen positiv definit ist, bietet es sichan, spezielle Losungsverfahren zu verwenden, z. B. das Verfahren von Cholesky.Auch das Verfahren der konjugierten Gradienten wird haufig verwendet.

2. Diesem unbestreitbaren Vorteil steht aber ein gravierender Nachteil gegenuber.Den Ubergang vom uberbestimmten System zum System der Normalgleichungenkonnen wir so beschreiben:

Aa = y ←→ A · Aa = Ay.

Aus der Systemmatrix A wird also das Produkt A · A. Wenn A quadratischware, so ließe sich leicht abschatzen, daß bei diesem Ubergang die Konditionvon A sich quadriert, schlimme Aussichten fur die Losbarkeit. Daher wollenwir im nachsten Abschnitt ein Verfahren vorstellen, das genau diesen Nachteilvermeidet

1.8.2 Q–R–Zerlegung und uberbestimmte lineare Gleichungssysteme

Die Q–R–Zerlegung haben wir im Abschnitt 1.7 ausfuhrlich betrachtet, dort uns aberauf quadratische Matrizen beschrankt. Diese Beschrankung lassen wir nun fallen undzeigen, in welcher Weise man das Vorgehen modifizieren kann, um diese Zerlegungauch fur uberbestimmte Systeme nutzbar zu machen.

Definition 1.87 Unter einer Q–R–Zerlegung nach Householder einer beliebigen, nichtnotwendig quadratischen Matrix A verstehen wir die (multiplikative) Zerlegung

A = Q ·R (1.106)

Page 83: 3486584472_Mathem

70 1 Numerik linearer Gleichungssysteme

in das Produkt einer orthogonalen Matrix Q mit einer Matrix

R =(

R0

),

wobei R eine quadratische obere Dreiecksmatrix ist.

Der Unterschied liegt also in der Matrix R. Diese ist nicht mehr quadratisch, setztsich aber aus einer quadratischen oberen Dreiecksmatrix und einem Rest zusammen.Wir konnen sogar angeben, unter welchen Bedingungen der quadratische Anteil eineregulare Marix wird, den wir dann zur Losung des Ausgleichsproblems heranziehenwerden.

Satz 1.88 Eine beliebige reelle (N×n)–Matrix (n ≤ N) laßt sich stets in ein Produktder Form

A = Q ·(

R0

)(1.107)

zerlegen mit einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R. Sinddie Spalten von A linear unabhangig, so ist R regular.

Betrachten wir nun ein uberbestimmtes lineares Gleichungssystem

Aa = y, A ∈ RN×n, n N,y ∈ R

N ,a ∈ Rn. (1.108)

Da wir es nicht exakt losen konnen, gehen wir zum Residuenvektor uber

r := Aa− y (1.109)

und bilden die Q–R–Zerlegung von A.

r = Q · Ra− y (1.110)

Wie oben werden wir denjenigen Vektor a als Losung akzeptieren, fur den die 2-Norm des Residuenvektors minimal wird. Unser Trick besteht in der nochmaligenMultiplikation mit der Matrix Q.

Q · (Q · Ra− y) = Qr. (1.111)

Da Q orthogonal ist, bleibt links nur die Matrix R ubrig.

Ra−Qy = Qr. (1.112)

Durch die spezielle Bauart der Matrix R vereinfacht sich das weiter zu

Ra−Qy = Qr. (1.113)

Page 84: 3486584472_Mathem

1.8 Uberbestimmte lineare Gleichungssysteme 71

Nennen wir rechts den Vektor

s := Qr,

so hatten wir uns im Satz 1.76 uberlegt, daß die 2–Norm bei orthogonalen Transfor-mationen invariant bleibt. Wir erhalten hier

‖s‖22 = s · s = rQ ·Qr = r · r = ‖r‖2

2

Ob wir also den Residuenvektor r oder den transformierten Vektor s minimieren, bleibtJacke wie Hose. Treiben wir es also mit dem Vektor s und schreiben wir Gleichung(1.113) ausfuhrlich. Dazu nennen wir zwecks Schreibvereinfachung

z := Qy

und erhalten das System

r11a1 + r12a2 + · · · + r1nan −z1 = s1

r22a2 + · · · + r2nan −z2 = s2

. . ....

rnnan −zn = sn

−zn+1 = sn+1...

...−zN = sN

Die letzten N − n Gleichungen enthalten keine unbekannten ai mehr; wir konnen siebei der Minimumsuche daher getrost ubergehen. Der minimale Wert wird erreicht,wenn ‖r‖2 = ‖s‖2 = 0 ist, also fur

s1 = s2 = · · · = sn = 0. (1.114)

Die gesuchten Koeffizienten a1,. . . , an erhalten wir deshalb aus dem Gleichungssystem

Ra = z. (1.115)

Dies ist ein Dreieckssystem, das sich sehr leicht auflosen laßt. Damit ist die Vorge-hensweise klar. Wir halten das im Algorithmus auf Seite 72 fest.

Beispiel 1.89 Wir betrachten wiederum das Ausgleichsproblem von Seite 64

Gesucht p(x) = a0 + a1x,

das die Punkte (x1, y1), . . . , (x5, y5) mit

xi 1 2 3 4 5yi 0.5 2.3 1.4 3.1 5.8

moglichst gut (im Sinne der kleinsten Quadrate) annahert, indem wir das zugehorigeuberbestimmte Gleichungssystem mit der Q–R–Zerlegung behandeln.

Page 85: 3486584472_Mathem

72 1 Numerik linearer Gleichungssysteme

Q–R–Zerlegung und uberbestimmte lineare Gleichungssysteme

Gegeben sei das lineare uberbestimmte Gleichungssystem

Ax = b, mit A ∈ RN×n, n ≤ N,x ∈ R

n,b ∈ RN .

(i) Bilde die Q–R–Zerlegung von A:

A = Q · R mit R =(

R0

),

(ii) Lose mit den Matrizen Q und R das Gleichungssystem

Rx = Qb

Diese Losung x ist dann auch die Losung unserer Minimumaufgabe und stellt daherdie bzgl. der 2–Norm beste Losung des uberbestimmten Systems dar.

Wir wollen hier nicht mehr ausfuhrlich auf die Bestimmung der Q–R–Zerlegung ein-gehen, sondern verweisen auf den Abschnitt 1.7. Nach kurzer (oder auch langerer)Rechnung ergibt sich

Q =

⎛⎜⎜⎜⎜⎝

−0.4472 −0.6325 −0.4149 −0.3626 −0.3104−0.4472 −0.3162 0.0672 0.3996 0.7320−0.4472 0.0000 0.8377 −0.2013 −0.2403−0.4472 0.3162 −0.2174 0.6543 −0.4739−0.4472 0.6325 −0.2726 −0.4900 0.2925

⎞⎟⎟⎟⎟⎠ ,

R =

⎛⎜⎜⎜⎜⎝

−2.2361 −6.70820 3.16230 00 00 0

⎞⎟⎟⎟⎟⎠ , R =

( −2.2361 −6.70820 3.1623

),

wobei wir die fur das Gleichungssystem relevante Matrix rechts daneben gesetzt haben.Der Vektor der rechten Seite ist

Qb = (−5.8585, 3.6050, −1.1351, −0.3577, 1.4197)

Damit losen wir nun das Gleichungssystem, wobei nur die ersten beiden Koeffizientenberucksichtigt werden

Rx = Qb

Page 86: 3486584472_Mathem

1.9 Gleichungssysteme mit symmetrischer Matrix 73

und erhalten die bereits oben nach dem Gaußschen Fehlerquadratprinzip gewonneneLosung

a0 = −0.8, a1 = 1.14,

also als Ausgleichsgerade

p(x) = −0.8 + 1.14x.

1.9 Gleichungssysteme mit symmetrischer Matrix

1.9.1 Cholesky–Verfahren

Haufig treten in den Anwendungen symmetrische Prozesse auf, so daß die zu bearbei-tenden Aufgaben ebenfalls symmetrische Gestalt haben. Symmetrische Matrizen bie-ten dabei den Vorteil einer Speicherplatzreduzierung. Schließlich benotigt ein Rechnerfast nur die Halfte der Eintrage einer nichtsymmetrischen Matrix. Fur solche Ma-trizen wurden daher spezielle Verfahren entwickelt. Eines davon ist die sogenannteCholesky2–Zerlegung.

Definition 1.90 Unter der Cholesky–Zerlegung einer symmetrischen (n×n)–Ma-trix A verstehen wir die Zerlegung von A in das Produkt einer unteren Dreiecksmatrixmit ihrer Transponierten, die dann ja eine obere Dreiecksmatrix ist, also in Formeln

A = C · C, (1.116)

wenn wir hier die obere Dreiecksmatrix mit C bezeichnen.

Wenn wir diese obere Dreiecksmatrix allgemein ansetzen und das Produkt C ·C mitder Matrix A, oben links beginnend, vergleichen, so gelangen wir unmittelbar zu denfolgenden Formeln:

Cholesky–Zerlegung

A = C · C mit C = (cij) und cij = 0 fur i > j

Fur i = 1, . . . , n : cii =

√√√√aii −i−1∑k=1

c2ki

Fur j = i + 1, . . . , n cij =1cii

aij −

i−1∑k=1

ckickj

2Diese Methode geht auf einen Vorschlag des Geodaten Cholesky zuruck, veroffentlicht in ’Benoit:Note sur une methode de resolution des equations normales etc. (Procede du commandant Cholesky),Bull. geodesique 3 (1924), 66 – 77

Page 87: 3486584472_Mathem

74 1 Numerik linearer Gleichungssysteme

Hier sticht dem aufmerksamen Leser sofort das Problem ins Auge, daß Quadratwur-zeln gezogen werden mussen. Wenn nun aber der Radikand negativ ist? Richtig, dannendet das Verfahren, es sei denn, man ist bereit, eine komplexe Arithmetik bereitzu-stellen und das Verfahren im Komplexen zu Ende zu fuhren. Dies hat aber sicher furden Praktiker keine große Bedeutung. Nun, zunachst konnen wir im folgenden Satzangeben, welche Matrizen in diesem Sinne gutartig sind.

Satz 1.91 Die Cholesky–Zerlegung einer symmetrischen (n× n)–Matrix A ist genaudann im Reellen mit positiven Diagonalelementen durchfuhrbar, wenn A positiv definitist. Die gesuchte obere Dreiecksmatrix C ist dann sogar einzig bestimmt.

Bevor wir uns an den Beweis wagen, sei folgende Bemerkung angefugt. Die Bedingungmit den positiven Diagonalelementen ist zwingend erforderlich. Betrachten wir namlichdie Matrix

A =(

1 00 0

),

so wurde der Algorithmus voll bis zu Ende durchlaufen; denn offensichtlich ist dieZerlegung

A = C · C mit C = C =(

1 00 0

)

eine Cholesky–Zerlegung. Aber A ist ja nicht mal regular, also schon gar nicht positivdefinit. Bei der Berechnung des allerletzten Diagonalelementes cnn kann eine Nullauftreten, und der Algorithmus bricht nicht ab, weil er diese Null nicht weiter benotigt;er ist ja am Ende.Beweis: Wegen des ’genau dann’ haben wir zwei Richtungen zu beweisen.Teil 1: Sei zunachst A positiv definit. Wir zeigen dann die Cholesky–Zerlegung mittelsvollstandiger Induktion.Induktionsanfang: Sei n = 1, also A = (a11) und A positiv definit. Dann ist abera11 > 0 und unsere triviale Zerlegung lautet

A = C · C mit C = C = (√

a11).

Induktionsvoraussetzung: Sei A eine positiv definite (n−1)× (n−1)–Matrix, undA besitze die verlangte Zerlegung mit genau einer oberen Dreiecksmatrix Cn−1.Induktionsschluß: Wir zeigen, daß dann jede positiv definite (n × n)–Matrix Azerlegbar ist mit genau einer oberen Dreiecksmatrix Cn.Dazu betrachten wir zunachst die einfache Darstellung

A =

(An−1,n−1

bb ann

).

Nach den in Satz 1.11 angegebenen Eigenschaften ist An−1,n−1 positiv definit, da jaz. B. alle ihre Hauptminoren positiv sind. ann > 0 haben wir, weil A positiv definit

Page 88: 3486584472_Mathem

1.9 Gleichungssysteme mit symmetrischer Matrix 75

ist. Nach Induktionsvoraussetzung gibt es genau eine obere Dreiecksmatrix Cn−1 mitder Zerlegung

An−1,n−1 = Cn−1 · Cn−1 und cii > 0, i = 1, 2, . . . , n− 1.

Unser Ziel ist es zu zeigen, daß der folgende Ansatz fur Cn auf genau eine Weise erfulltwerden kann:

Cn =(

Cn−1 c0 α

).

Wir werden also zeigen, daß es genau einen Vektor c und genau eine positive Zahlα > 0 gibt, so daß A sich mit dieser Matrix Cholesky–zerlegen laßt. Dazu berechnenwir Cn · Cn = A.

A =

(Cn−1 · Cn−1

bb ann

)= Cn · Cn =

(Cn−1 0c α

)(Cn−1 c

0 α

). (1.117)

Durch blockweises Ausmultiplizieren erhalten wir daraus die folgenden zwei Gleichun-gen:

Cn−1c = b, (1.118)

c · c + α2 = ann. (1.119)

Gleichung (1.118) stellt ein lineares Gleichungssystem dar. Da Cn−1 regular ist, gibtes genau eine Losung c. Das haben wir also schon. In der zweiten Gleichung konntees uns passieren, daß α eine komplexe Zahl ist. Oder konnen wir das ausschließen?Wir mussen ja noch ausnutzen, daß die Matrix A positiv definit ist. Wir wissen alsou. a. von A, daß es eine positive Determinante besitzt. Aus (1.117) folgt dann

0 < detA = (det Cn)2 = detC2n−1 · α2.

Da aber nach Induktionsvoraussetzung det Cn−1 > 0 gilt, muß α2 ebenfalls positivund α damit reell sein. Daher ist auch α ohne wenn und aber eindeutig aus Gleichung(1.119) bestimmbar.Teil 2: Sei nun umgekehrt die Cholesky–Zerlegung gelungen, gelte also

A = C · C

mit einer oberen Dreiecksmatrix C, die außerdem noch positive Diagonalelementebesitzt. Dann weisen wir mit der folgenden trickreichen Uberlegung die positive Defi-nitheit von A uber die Definition 1.4 nach.

xAx = xCCx = (Cx)(Cx) = |Cx|2 ≥ 0 ∀x ∈ Rn.

Page 89: 3486584472_Mathem

76 1 Numerik linearer Gleichungssysteme

Daß der letzte Ausdruck großer oder gleich Null ist, folgt daher, daß dort ja schlichtdas Betragsquadrat eines Vektors steht, und der ist eben so geartet. Ist C regular, unddas wissen wir wegen der positiven Diagonalelemente, folgt aus Cx = 0 sofort x = 0.So haben wir getreu der Definition fur positiv definit nachgewiesen, daß xAx > 0fur alle Vektoren x = 0 gilt. Also ist A positiv definit.

Beispiel 1.92 Gegeben sei die folgende Matrix

A =

⎛⎜⎜⎝

a a a aa a + 1 a + 1 a + 1a a + 1 3a a + 1a a + 1 a + 1 2a

⎞⎟⎟⎠ , a ∈ R.

(a) Untersuchen Sie durch Uberfuhrung mittels Gaußscher Elementarumformungenauf eine Dreiecksmatrix, fur welche a ∈ R die Matrix A positiv definit ist.

(b) Berechnen Sie fur diese a ∈ R die Cholesky–Zerlegung von A?

In diesem Beispiel werden zwei gute Moglichkeiten, eine Matrix auf positive Definit-heit zu uberprufen, einander gegenubergestellt. Beide Ideen sind mit wenig Aufwandverbunden und daher fur die Praxis geeignet. Der Praktiker wird aber wohl den direk-ten Weg gehen und seine Aufgabe, ein Gleichungssystem zu losen, sofort mit Choleskyoder dem Verfahren der konjugierten Gradienten angehen, ohne lange die Vorausset-zungen zu prufen. Daher wird der erste Weg eher akademisch bleiben.Zu (a): Hier durfen wir nur die Original–Gauß–Umformungen anwenden, also lediglichVielfache einer Zeile zu einer anderen addieren, vielleicht mal eine Zeile mit einerpositiven Zahl multiplizieren. Diese Umformungen liefern hier nach wenigen Schritten,wenn wir die erste Zeile mit (−1) multiplizieren und zu den anderen Zeilen addierenund im zweiten Schritt die gerade entwickelte zweite Zeile mit (−1) multiplizieren undzu den Zeilen 3 und 4 addieren:

A =

⎛⎜⎜⎝

a a a aa a + 1 a + 1 a + 1a a + 1 3a a + 1a a + 1 a + 1 2a

⎞⎟⎟⎠→

⎛⎜⎜⎝

a a a a0 1 1 10 1 2a 10 1 1 a

⎞⎟⎟⎠→

⎛⎜⎜⎝

a a a a0 1 1 10 0 2a− 1 00 0 0 a− 1

⎞⎟⎟⎠

Um die Ausgangsmatrix als positiv definit zu erkennen, mussen in dieser letzten Matrixalle Diagonalelemente positiv sein. Das fuhrt zu drei Forderungen an den Parametera:Aus der ersten Zeile entnehmen wir a > 0. Das Diagonalelement der zweiten Zeile istbereits positiv. Das dritte Diagonalelement fuhrt zu der Forderung, daß a > 1/2 seinmuß. Aber die Forderung aus der vierten Zeile schlagt die anderen Forderungen glatt,indem hier a > 1 sein muß. Das ist dann auch unsere endgultige Forderung an denParameter:

A ist positiv definit ⇐⇒ a > 1.

Page 90: 3486584472_Mathem

1.9 Gleichungssysteme mit symmetrischer Matrix 77

Zu (b): Wir leisten uns hier mal den Luxus, fur den Spezialfall n = 3 die gesuchteMatrix C als (3 × 3)–Matrix allgemein anzusetzen und die Formeln direkt aus demProdukt C ·C abzulesen. Damit legt man die Furcht vor solchen Formelpaketen wieoben am schnellsten ab. Daß wir uns lediglich mit einer (3× 3)–Matrix abgeben, liegtausschließlich am Platzmangel. Das Ergebnis setzt sich aber unmittelbar auf großereMatrizen fort.

C · C =

⎛⎝ c11 0 0

c12 c22 0c13 c23 c33

⎞⎠ ·

⎛⎝ c11 c12 c13

0 c22 c23

0 0 c33

⎞⎠ (1.120)

=

⎛⎝ c2

11 c11c12 c11c13

c11c12 c212 + c2

22 c12c13 + c22c23

c11c13 c12c13 + c23c22 c213 + c2

23 + c233

⎞⎠

Die hier entstandene Produktmatrix setzen wir (elementweise) gleich der gegebenenMatrix A und losen jeweils nach dem unbekannten Matrixelement von C auf. Wegender Dreiecksgestalt von C gibt es, wenn man geschickterweise links oben startet, jeweilsgenau ein unbekanntes Element.

c11 =√

a11

c12 = a12/c11

c13 = a13/c11

c22 =√

a22 − c212

...

Das Bildungsgesetz der Cholesky–Formeln ist damit wohl klar. Wir geben jetzt gleichdas Ergebnis fur unsere obige (4× 4)–Matrix an:

C =

⎛⎜⎜⎝√

a√

a√

a√

a0 1 1 10 0

√2a− 1 0

0 0 0√

a− 1

⎞⎟⎟⎠ , C =

⎛⎜⎜⎝√

a 0 0 0√a 1 0 0√a 1

√2a− 1 0√

a 1 0√

a− 1

⎞⎟⎟⎠

1.9.2 Cholesky–Zerlegung und lineare Gleichungssysteme

So, wie wir es oben bei der L–R–Zerlegung bereits geschildert haben, mussen wir auchhier das vorgegebene Gleichungssystem in zwei Systeme mit jeweils einer Dreiecksma-trix aufspalten. Da hier aber einmal die Matrix C und beim nachsten System dietransponierte Matrix C verwendet wird, verlangt das keinen neuen Speicherbedarf.Der Vollstandigkeit wegen fassen wir das Vorgehen auf der nachsten Seite zusammen.

Auch hier kann man die Vorwartselimination wie bei der L–R–Zerlegung direkt in denArbeitsgang zur Erstellung der Zerlegung einbauen.Die Ubertragung auf das Berechnen der Inversen einer symmetrischen Matrix uber-lassen wir dem freundlichen Leser.

Page 91: 3486584472_Mathem

78 1 Numerik linearer Gleichungssysteme

Gleichungssysteme und Cholesky–Zerlegung

Gegeben sei ein lineares Gleichungssystem mit symmetrischer und positiv definiterMatrix A

Ax = b.

Man berechne die Cholesky–Zerlegung von A

Ax = C · C · x = b. (1.121)

Man setze

y := Cx (1.122)

und berechne y aus

Cy = b (Vorwartselimination) (1.123)

Man berechne das gesuchte x aus

Cx = y (Ruckwartselimination) (1.124)

1.9.3 Einige Zusatzbemerkungen

Wie wir oben schon klargestellt haben, geht das Verfahren nur bei positiv definitenMatrizen gutartig zu Ende. Im anderen Fall bricht es ab, weil der Radikand unterder Quadratwurzel negativ wird, oder falls er null wird, streikt der Rechner bei deranschließenden Division. Was dann?Einmal kann man tatsachlich den Umweg uber die komplexen Zahlen gehen. Dasbedeutet aber erheblich mehr Rechenaufwand, so daß der Vorteil der symmetrischenMatrix und der damit verbundenen Speicherplatzreduzierung wesentlich gemindertwird.Zum anderen bietet sich eine Zerlegung der Form

A = C ·D · C (1.125)

mit einer oberen Dreiecksmatrix C, die nur Einsen in der Hauptdiagonalen hat, undeiner reinen Diagonalmatrix D an. Dazu gilt der folgende Satz:

Satz 1.93 Ist A eine symmetrische (n×n)–Matrix mit nichtverschwindenden Haupt-minoren, so gibt es genau eine Zerlegung der Form (1.125).

Da positiv definit ja bedeutet, daß samtliche Hauptminoren positiv sind, haben wirmit dieser Zerlegung die Klasse der zu bearbeitenden Matrizen tatsachlich vergroßert.

Page 92: 3486584472_Mathem

1.9 Gleichungssysteme mit symmetrischer Matrix 79

Außerdem wird das Berechnen von Quadratwurzeln vermieden, was dieses Vorgehenrecht interessant macht.

1.9.4 Verfahren der konjugierten Gradienten

In guter englischer Art wird dieses Verfahren in der Literatur ’conjugate gradientmethod’ genannt und daher unter der Abkurzung ’cg–Verfahren’ auch in der deutsch-sprachigen Literatur gefuhrt.Bei diesem Verfahren greifen wir auf einen allgemeineren Orthogonalitatsbegriff zuruck,der dem Problem angepaßt ist.

Definition 1.94 Sei A eine symmetrische, positiv definite Matrix. Dann heißen zweiVektoren x und y konjugiert, wenn gilt:

xAy = 0. (1.126)

Nehmen wir als einfachstes Beispiel als Matrix A die Einheitsmatrix, so steht dorttatsachlich unser gutes altes Skalarprodukt, welches eben fur orthogonale Vektorenverschwindet. Mit der zusatzlich dazwischengeschobenen Matrix A produzieren wiralso ein etwas allgemeineres Skalarprodukt. Damit ist auch klar, warum wir eine po-sitiv definite Matrix verlangen. Dann bleiben alle Eigenschaften des Skalarprodukteserhalten.Das Verfahren der konjugierten Gradienten lauft nun folgendermaßen ab.

Verfahren der konjugierten Gradienten

Der Grundgedanke der Methode der konjugierten Gradienten besteht darin, statt dasvorgegebenen Gleichungssystem Ax = b zu losen, das folgende Funktional schritt-weise zu minimieren:

F (x) =12xAx−bx (1.127)

Der Gradient dieses Funktionals berechnet sich zu:

grad F (x) = Ax−b (1.128)

Haben wir fur das Funktional ein Minimum bei x0 errechnet, so verschwindet derGradient an dieser Stelle:

grad F (x0) = Ax0 −b = 0, (1.129)

und damit ist x0 die gesuchte Losung des Gleichungssystems.

Bei der Durchfuhrung gilt es als erstes zu beachten, daß der Vektor r = Ax−b, alsoder sog. Residuenvektor, gerade gleich dem Gradienten des Funktionals F ist.

Page 93: 3486584472_Mathem

80 1 Numerik linearer Gleichungssysteme

Wir starten mit einem beliebigen Vektor x(0). Um moglichst rasch zum Minimum zugelangen, legen wir die Richtung p(0) in Richtung des negativen Gradienten, den wirja leicht als Residuenvektor berechnen konnen; denn dort ist der starkste Abstieg zuerwarten, also

p(0) = −r(0) = −grad F (x(0)) = −(Ax(0) −b). (1.130)

Fur den damit zu erzielenden ersten Naherungsvektor x(1) machen wir den Ansatz:

x(1) = x(0) + σ0 · p(0). (1.131)

Die Bedingung, daß das Funktional F minimal werden moge, fuhrt uns zu:

σ0 =(r(0)) · r(0)

(p(0)) ·A · p(0). (1.132)

Im allgemeinen Schritt wahlt man als Richtung eine Linearkombination des aktuellenResiduenvektors, also des jeweiligen Gradienten, und der vorhergehenden Richtung:

p(k) := −r(k) + βk · p(k−1). (1.133)

Hier bestimmt sich βk aus der Forderung, daß p(k) und p(k−1) konjugiert zueinandersein mogen:

βk :=(r(k)) · r(k)

(r(k−1)) · r(k−1). (1.134)

Anschließend bestimmt man

σk :=(r(k)) · r(k)

(p(k)) ·A · p(k)(1.135)

und berechnet den neuen Naherungsvektor fur die Losung

x(k+1) := x(k) + σk · p(k). (1.136)

Das ganze fassen wir zusammen in einem Ablaufplan, der auf der Seite 81 abgedrucktist.Bemerkung:Die Richtungen sind paarweise konjugiert, und demzufolge sind die Residuenvektorenpaarweise orthogonal. In einem n–dimensionalen Raum gibt es aber nur n orthogonaleVektoren. Die Methode endet theoretisch also nach n Schritten. In der Praxis wirdaber durch das Auftreten von Rundungsfehlern doch ein iterativer Prozeß ablaufen.Der aufwendigste Punkt im obigen Ablauf ist die zweimalige Multiplikation der MatrixA mit dem Vektor p(k) bzw. mit dem Vektor x(k). Durch eine leichte Uberlegung kanndie zweite Multiplikation auf die erste zuruckgefuhrt werden. Es gilt namlich:

r(k+1) = A · x(k+1) −b

= A · (x(k) + σkp(k))−b

= r(k) + σk · A · p(k). (1.137)

Mit dieser Formel kann erheblich Speicherplatz im Rechner gespart werden.

Page 94: 3486584472_Mathem

1.9 Gleichungssysteme mit symmetrischer Matrix 81

Start

Stop

x(0) bel.

r(0) := Ax(0) −b

p(0) := −r(0)

k = 0

r(k) kleinja

nein

σk := (r(k))·r(k)

(p(k))·A·p(k)

x(k+1) := x(k) + σk · p(k)

r(k) := A · x(k) −b

βk := (r(k))·r(k)

(r(k−1))·r(k−1)

p(k) := −r(k) + βk · p(k−1)

k := k + 1

Abbildung 1.6: Ablaufplan fur das Verfahren der konjugierten Gradienten

Page 95: 3486584472_Mathem

82 1 Numerik linearer Gleichungssysteme

Beispiel 1.95 Berechnen Sie fur das folgende lineare Gleichungssystem, das wir schonmit der L–R– und mit der Cholesky–Zerlegung bearbeitet haben, die Losung mit demVerfahren der konjugierten Gradienten:

2x1 + 4x2 = −14x1 + 11x2 = 1

.

Um uns moglichst die Arbeit zu erleichtern, starten wir mit dem Nullvektor:

x(0) = (0, 0).

Als Residuenvektor erhalt man

r(0) = Ax(0) −b = (1,−1).

Die erste Richtung ist der negative Residuenvektor, also

p(0) = −r(0) = (−1, 1).

Sodann berechnen wir die Hilfszahl

σ0 =(r(0)) · r(0)

(p(0)) ·A · p(0)=

25,

wobei der aufwendigste Punkt die Berechnung des Nenners war. Hier muß man echtarbeiten bzw. den Rechner arbeiten lassen.Die neue Naherung lautet dann

x(1) = x(0) + σ0 · p(0) =(

00

)+

25

( −11

)=( −2/5

2/5

).

Um eine weitere Naherung x(2) zu berechnen, bestimmen wir den Residuenvektor

r(1) = Ax(1) −b = (9/5, 9/5) .

Dann brauchen wir eine Hilfsgroße

β1 :=(r(1)) · r(1)

(r(0)) · r(0)=

2 · (9/5)22

= 3.24.

Daraus ergibt sich die neue Richtung

p(1) := −r(1) + β1 · p(0) =( −5.04

1.44

).

Es zeigt sich, daß dieser Vektor p(1) orthogonal zu p(0) im Sinne des mit der MatrixA gebildeten Skalarproduktes ist, also

(p(1)) · A · p(0) = 0.

Page 96: 3486584472_Mathem

1.10 Iterative Verfahren 83

Das genau verstehen wir unter konjugiert.Wir benotigen ein neues σ:

σ1 =(r(1)) · r(1)

(p(1)) ·A · p(1)= 0.4167.

Damit lautet der neue Naherungsvektor

x(2) = x(1) + σ1 · p(1) =( −2/5

2/5

)+ 0.4167

( −5.041.44

)=( −2, 5

1.0

).

Der neue Residuenvektor ergibt sich zu

r(2) = (0, 0).

Wir haben also mit x(2) die Losung erreicht, und zum Gluck ist es dieselbe wie beider L–R–Zerlegung.

1.10 Iterative Verfahren

Die bisher vorgestellten Verfahren haben gerade bei großen Systemmatrizen den Nach-teil, die gesamte Matrix, bei einer symmetrischen nur die halbe, im Kernspeicher be-reithalten zu mussen. Das wird umgangen, wenn man iteratives Vorgehen einbezieht.Wir werden sehen, daß es dann ausreicht, jeweils nur eine Zeile einer Matrix und dierechte Seite des Gleichungssystems zur augenblicklichen Verfugung zu haben.

1.10.1 Gesamt– und Einzelschrittverfahren

Wir wollen das folgende lineare Gleichungssystem mit einer quadratischen Koeffizien-tenmatrix A

Ax = b

mit Hilfe des Gesamtschritt– und des Einzelschrittverfahrens losen. Zur Herleitung derIterationsvorschrift zerlegen wir die Matrix A in die Summe aus einer linken oderunteren Dreiecksmatrix L, die nur den linken Teil von A unterhalb der Diagonalenenthalt, einer Diagonalmatrix D und einer entsprechend gebauten oberen Dreiecks-matrix R. Dies ist kein Akt und bedarf nur des Abschreibens.

A = L + D + R. (1.138)

Damit lautet das Gleichungssystem

(L + D + R)x = b. (1.139)

Nun kommt der Trick. Bei der Iteration in Gesamtschritten formen wir diese Gleichungso um:

Dx = −(L + R)x +b. (1.140)

Page 97: 3486584472_Mathem

84 1 Numerik linearer Gleichungssysteme

Der schlaue Leser wird nun sagen: Was soll’n das? Jetzt steht ja das unbekannte Wesenx auch noch rechts in der Gleichung. Richtig erkannt. Solch eine Gleichung nennt maneine Fixpunktaufgabe. Wir denken uns einen beliebigen Startvektor x(0) und setzenihn auf der rechten Seite ein. Dadurch erhalten wir auf der linken Seite einen Vektor,den wir x(1) nennen. Den verwenden wir nun, um ihn wieder rechts einzusetzen unddamit einen weiteren links zu ermitteln, den wir folglich x(2) nennen. So geht es weiter,und wir gelangen zu einer Folge von Vektoren. Wenn man Gluck hat, ja wenn manGluck hat, konvergiert diese Folge, und wenn man noch mehr Gluck hat, sogar gegendie gesuchte Losung der Aufgabe. Wir werden weiter unten sehen, wie wir dem Gluckauf die Schliche kommen konnen.Bei der Iteration in Einzelschritten formen wir die Gleichung (1.139) ein wenig andersum:

(D + L)x = −Rx +b. (1.141)

Auch hier die gleiche Feststellung, daß links und rechts die gesuchte Unbekannte auf-tritt. Wir schleichen uns wieder iterativ an die Losung heran durch Vorgabe einesStartvektors x(0) und Einsetzen wie oben bei den Gesamtschritten.Die Iterationsvorschriften lauten damit:

Gesamtschrittverfahren: Dx(k+1) = −(L + R)x(k) +b (1.142)Einzelschrittverfahren: (D + L)x(k+1) = −Rx(k) +b (1.143)

Versuchen wir, den Unterschied von ’Gesamt’ zu ’Einzel’ genauer zu erlautern. Dazuschreiben wir am besten beide Verfahren in ausfuhrlicher Matrizenschreibweise unter-einander auf, zunachst dasGesamtschrittverfahren:⎛⎜⎜⎜⎜⎜⎜⎜⎝

∗ 0 · · · · · · 0

0 ∗ . . ....

.... . . . . . . . .

......

. . . ∗ 00 · · · · · · 0 ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎜⎜⎜⎝

x(k+1)1.........

x(k+1)n

⎞⎟⎟⎟⎟⎟⎟⎟⎠

= −

⎛⎜⎜⎜⎜⎜⎜⎜⎝

0 ∗ ∗ · · · ∗∗ . . . ∗ ......

. . . ∗ ......

. . . ∗∗ · · · · · · ∗ 0

⎞⎟⎟⎟⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎜⎜⎜⎝

x(k)1.........

x(k)n

⎞⎟⎟⎟⎟⎟⎟⎟⎠

+

⎛⎜⎜⎜⎜⎜⎜⎜⎝

b1.........bn

⎞⎟⎟⎟⎟⎟⎟⎟⎠

Und nun das Einzelschrittverfahren:⎛⎜⎜⎜⎜⎜⎜⎜⎝

∗ 0 · · · · · · 0

∗ ∗ . . ....

.... . . . . .

...... ∗ 0∗ · · · · · · ∗ ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎜⎜⎜⎝

x(k+1)1.........

x(k+1)n

⎞⎟⎟⎟⎟⎟⎟⎟⎠

= −

⎛⎜⎜⎜⎜⎜⎜⎜⎝

0 ∗ ∗ · · · ∗...

. . . ∗ ......

. . . ∗ ......

. . . ∗0 · · · · · · 0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎜⎜⎜⎝

x(k)1.........

x(k)n

⎞⎟⎟⎟⎟⎟⎟⎟⎠

+

⎛⎜⎜⎜⎜⎜⎜⎜⎝

b1.........

bn

⎞⎟⎟⎟⎟⎟⎟⎟⎠

Page 98: 3486584472_Mathem

1.10 Iterative Verfahren 85

Gehen wir zeilenweise vor, so wird jeweils die erste Komponente eines neuen iterier-ten Vektors beim GSV und beim ESV auf die gleiche Weise bestimmt. Erst ab derjeweiligen zweiten Komponente zeigt sich der Unterschied. Beim GSV wird zur Be-rechnung eines neuen iterierten Vektors nur der alte iterierte Vektor benutzt. Im ESVwird durch die Dreiecksgestalt der linken Matrix sofort die gerade vorher berechne-te erste Komponente verwendet, um die zweite Komponente zu bestimmen. Ebensowerden bei der Berechnung der weiteren Komponenten jeweils die gerade vorher be-stimmten Komponenten schon eingebaut. Das bringt Vorteile bei der Verbesserungder Konvergenz, wie wir das im Satz 1.100 zeigen werden.Damit die Verfahren uberhaupt durchfuhrbar sind, muß naturlichbeim GSV die Matrix D invertierbar sein,beim ESV die Matrix D + L invertierbar sein.Fur beides ist notwendig und hinreichend, daß die Diagonalelemente samtlich ungleichNull sind. Im Satz 1.70 von Seite 47 haben wir uns klargemacht, daß dieses Ziel fureine regulare Matrix durch einfachen Zeilentausch stets erreichbar ist. Das lohnt sichschon mal, als kleiner Satz festgehalten zu werden:

Satz 1.96 Damit das Gesamt– und das Einzelschrittverfahren durchfuhrbar sind, mus-sen samtliche Diagonalelemente der Matrix A verschieden von Null sein.Ist die Matrix A regular, so kann dies stets mit einer Zeilenvertauschung, also durchMultiplikation von links mit einer Permutationsmatrix P erreicht werden.

Fur die Konvergenzuntersuchung denkt man streng an Fixpunktaufgaben, die wiriterativ losen:

x(0)gegeben, x(k+1) = M · x(k) + s, k = 1, 2, . . . , (1.144)

wobei die Iterationsmatrizen folgendermaßen aussehen:

GSV : M := −D−1(L + R), s = D−1b, (1.145)ESV : M := −(L + D)−1R, s = (L + D)−1b. (1.146)

Mit Hilfe der Jordanschen Normalform erhalt man das folgende notwendige und hin-reichende Konvergenzkriterium:

Satz 1.97 (Notwendiges und hinreichendes Konvergenzkriterium) Das Itera-tionsverfahren (1.144) ist konvergent fur jeden beliebigen Startvektor x(0) genau dann,wenn der Spektralradius der Iterationsmatrix M kleiner als 1 ist:

(M) < 1. (1.147)

Dieses Kriterium ist zwar kurz, aber nicht handlich. Wer will schon die Eigenwerteder beteiligten Matrix ausrechnen. Das folgende Kriterium ist wesentlich einfacher zubenutzen.

Page 99: 3486584472_Mathem

86 1 Numerik linearer Gleichungssysteme

Satz 1.98 (Hinreichende Konvergenzkriterien) 1. A erfulle das starke Zei-lensummenkriterium (oder das starke Spaltensummenkriterium). Dann sind dasGesamtschritt– und das Einzelschrittverfahren konvergent.

2. A erfulle das schwache Zeilensummenkriterium (oder das schwache Spaltensum-menkriterium). Daruber hinaus sei A nicht zerfallend. Dann sind das Gesamt-schritt– und das Einzelschrittverfahren konvergent.

Der folgende Sonderfall macht eine Aussage fur das Einzelschrittverfahren:

Satz 1.99 Ist A symmetrisch und positiv definit, so ist das Einzelschrittverfahrenkonvergent.

Schließlich zitieren wir einen Satz, der beide Verfahren miteinander vergleicht:

Satz 1.100 (Zusammenhang GSV – ESV) Seien MGSV die Iterationsmatrix desGesamtschrittverfahrens und MESV die Iterationsmatrix des Einzelschrittverfahrens,es gelte MGSV ≥ 0, alle Elemente in MGSV seien also nicht negativ. Dann gilt:

0 ≤ (MGSV ) < 1 =⇒ 0 ≤ (MESV ) < (MGSV ) < 1 (1.148)

(MGSV ) > 1 =⇒ 1 < (MGSV ) < (MESV ) (1.149)

Dies bedeutet: Wenn das GSV konvergiert, so konvergiert auch das ESV. Wenn dasGSV nicht konvergiert, dann divergiert auch das ESV. Unter ein klein wenig mehrEinschrankung an die Matrix A kann man sogar beweisen, daß man mit dem GSV un-gefahr doppelt soviele Schritte zur Erreichung einer bestimmten Genauigkeit benotigtwie mit dem ESV.Man kann Beispiele konstruieren, in denen das GSV konvergiert, das ESV aber nicht,was nach einem Gegenbeispiel zu obiger Aussage aussieht. Man beachte aber die Vor-aussetzung MGSV ≥ 0, daß also alle Elemente der Matrix MGSV positiv sein mussen.Nur fur Matrizen mit dieser Einschrankung gilt unsere Aussage. Das ist bei angebli-chen Gegenbeispielen nicht eingehalten.Der folgende Satz sagt etwas uber den Fehler, der in jedem Iterationsschritt gegenuberdem vorhergehenden Schritt oder gegenuber dem Startvektor gemacht wird.

Satz 1.101 (Fehlerabschatzung) Gegeben sei ein lineares Gleichungssystem miteiner regularen Systemmatrix A. Die einzige Losung dieses Systems laute x(∗). Giltin einer beliebigen Matrixnorm fur die Iterationsmatrix M des Gesamt– oder desEinzelschrittverfahrens nach (1.145) oder (1.146)

L := ‖M‖ < 1, (1.150)

so genugt der Fehler folgender a–posteriori Abschatzung

‖x(k) − x(∗)‖ ≤ L

1− L‖x(k) − x(k−1)‖. (1.151)

Page 100: 3486584472_Mathem

1.10 Iterative Verfahren 87

und auch der a–priori Abschatzung

‖x(k) − x(∗)‖ ≤ Lk

1− L‖x(1) − x(0)‖. (1.152)

Fur den Fehler gilt außerdem die folgende Abschatzung nach unten:

‖x(k) − x(∗)‖ ≥ 1L + 1

‖x(k+1) − x(k)‖. (1.153)

Einige Bemerkungen zum Satz vorweg.a–priori meint ’von vorneherein’. Zu dieser Abschatzung benotigen wir nur die erstenbeiden Naherungen.a–posteriori meint dagegen ’im nachhinein’. Dort brauchen wir die Kenntnis der k–tenNaherung, um auf den Fehler der (k+1)–ten gegenuber der k–ten zu schließen. Daskann also erst nach erfolgreicher Rechnung geschehen.Man kann die Abschatzungen auch dazu verwenden, eine Fehlerschranke vorzugebenund dann auszurechnen, wieviele Iterationsschritte benotigt werden, um diese Genau-igkeit einzuhalten. Dabei uberschatzt man die Anzahl aber in der Regel gewaltig, sodaß dieses Vorgehen wohl kaum praktische Bedeutung hat.

Beweis: Der Satz bezieht sich zugleich auf das GSV und das ESV, beide in der Form(1.144) als Fixpunktgleichung geschrieben. Die im folgenden auftretende Matrix M istalso wahlweise die Iterationsmatrix fur das GSV oder das ESV, wie wir sie in (1.145)und (1.146) angegeben haben.Wir beweisen als erstes die a–posteriori Abschatzung (1.151). Die einzige Losung x(∗)

des Gleichungssystems ist zugleich Fixpunkt der Gleichung (1.144) und genugt deshalbder Gleichung

x(∗) = Mx(∗) + s.

Subtrahieren wir diese Gleichung von der Gleichung (1.144), so erhalten wir:

x(k+1) − x(∗) = M(x(k) − x(∗))

Nun erinnern wir uns an das Gesetz (1.33) fur Matrixnormen und erhalten mit der imSatz eingefuhrten Abkurzung (1.150)

‖x(k+1) − x(∗)‖ ≤ ‖M‖ · ‖x(k) − x(∗)‖ = L · ‖x(k) − x(∗)‖.

Schreiben wir die Gleichung (1.144) fur den Index k auf

x(k) = M · x(k−1) + s,

so konnen wir mit demselben Vorgehen die folgende Gleichung herleiten:

‖x(k+1) − x(k)‖ ≤ L‖x(k) − x(k−1)‖.

Page 101: 3486584472_Mathem

88 1 Numerik linearer Gleichungssysteme

Ein klein wenig mussen wir jetzt tricksen, indem wir schreiben

x(k) − x(∗) = x(k) − x(k+1) − (x(∗) − x(k+1)).

Ist doch klaro, oder? Daraus gewinnen wir mit der Dreiecksungleichung und den obigenUngleichungen die Abschatzung

‖x(k) − x(∗)‖ ≤ ‖x(k) − x(k+1)‖+ ‖x(∗) − x(k+1)‖= ‖x(k+1) − x(k)‖+ ‖x(k+1) − x(∗)‖≤ L · ‖x(k) − x(k−1)‖+ L · ‖x(k) − x(∗)‖

Durch Zusammenfassen des zweiten Terms rechts mit dem linken und Division durch(1− L) folgt die a–posteriori Abschatzung (1.151).Mit den gleichen Ideen schafft man schnell die Abschatzung (1.152).

x(k) − x(k−1) = Mx(k−1) + s− (Mx(k−2) + s)= M(x(k−1) − x(k−2)) = · · · = Mk−1(x(1) − x(0)).

Daraus folgt wieder mit (1.33)

‖x(k) − x(k−1)‖ ≤ L‖x(k−1) − x(k−2)‖ ≤ · · · ≤ Lk−1‖x(1) − x(0)‖Setzen wir das in die rechte Ungleichung von (1.151) ein, so folgt direkt (1.152), undwir sind fertig.Mit ahnlichem Vorgehen konnen wir den Fehler in der a–posteriori Abschatzung auchnach unten abschatzen. Wegen

x(k+1) − x(k) = x(k+1) − x(∗) − (x(k) − x(∗))

erhalten wir

‖x(k+1) − x(k)‖ ≤ ‖x(k+1) − x(∗)‖+ ‖x(k) − x(∗)‖≤ L‖x(k) − x(∗)‖+ ‖x(k) − x(∗)‖≤ (L + 1)‖x(k) − x(∗)‖,

und daraus folgt

|x(k) − x(∗)‖ ≥ 1L + 1

‖x(k+1) − x(k)‖.

Beispiel 1.102 Gegeben sei das folgende lineare Gleichungssystem Ax = b mit

A =

⎛⎜⎜⎝

8 2 −1 32 −6 0 −1

−1 0 3 03 −1 0 −4

⎞⎟⎟⎠ , b =

⎛⎜⎜⎝

2345

⎞⎟⎟⎠ .

(a) Untersuchen Sie, ob das Gesamt– und das Einzelschrittverfahren konvergieren.

Page 102: 3486584472_Mathem

1.10 Iterative Verfahren 89

(b) Ausgehend vom Startvektor x(0) = (1, 0, 2,−1), berechne man mit dem Gesamt–und dem Einzelschrittverfahren x(1), x(2) und x(3).

Zu (a) A ist offensichtlich diagonaldominant, aber nicht stark diagonaldominant, wiewir an der vierten Zeile erkennen. Wir mussen also sicher sein, daß A nicht zerfallt,um auf Konvergenz schließen zu konnen.

Dazu erinnern wir uns an den Abschnitt 1.3.7.Nach demselben Schema, wie wir es dort vor-gestellt haben, entwickeln wir die nebenstehen-de Abbildung. Offensichtlich ist der Graph zu-sammenhangend, und damit zerfallt die Ma-trix nicht. Wir schließen daraus, daß sowohl dasGesamtschritt– wie auch das Einzelschrittver-fahren konvergieren.Zu (b) So konnen wir denn iterieren. Wir geben in den folgenden Tabellen die miteinem Rechner erzielten Ergebnisse der Iteration in Gesamtschritten und in Einzel-schritten auszugsweise wieder.Gesamtschrittverfahren:

x(0) 1000000 0.000000 2.000000 −1.000000x(1) 0.875000 0.000000 1.666666 −0.500000x(2) 0.645833 −0.125000 1.625000 −0.593750x(3) 0.707030 −0.185764 1.548611 −0.734375x(4) 0.765408 −0.141927 1.569010 −0.673285x(5) 0.734090 −0.132649 1.588469 −0.640462x(6) 0.731894 −0.148559 1.578030 −0.666270...x(20) 0.732571 −0.145092 1.577526 −0.664294x(21) 0.732574 −0.145093 1.577524 −0.664298

Einzelschrittverfahren:

x(0) 1.000000 0.000000 2.000000 −1.000000x(1) 0.875000 −0.041666 1.625000 −0.583333x(2) 0.682292 −0.175347 1.560764 −0.694444x(3) 0.749349 −0.134476 1.583116 −0.654369x(4) 0.726897 −0.148639 1.575632 −0.667667x(5) 0.734489 −0.143892 1.578163 −0.663160x(6) 0.731928 −0.145497 1.577309 −0.664679...x(11) 0.732577 −0.145096 1.577525 −0.664294x(12) 0.732574 −0.145093 1.577524 −0.664296

Wie es im Satz 1.100 angekundigt wurde, konvergiert also das ESV erheblich schnellerals das GSV — wenn es denn konvergiert. Bereits nach zwolf Iterationen haben wir

♦ ♥

♠♣1 2

34

Page 103: 3486584472_Mathem

90 1 Numerik linearer Gleichungssysteme

mit dem ESV die Genauigkeit erreicht, die das GSV erst nach 21 Iterationen schafft.Das bei einer vierreihigen Matrix ist doch schon was.

1.10.2 SOR–Verfahren

Das SOR–Verfahren (Successive Over Relaxation) unterscheidet sich nur in einerKleinigkeit vom Einzelschrittverfahren. Zur Berechnung der jeweils folgenden Iterier-ten benutzt man die Idee des Einzelschrittverfahrens, bildet aber anschließend nocheinen gewichteten Mittelwert aus der alten und der neuen Komponente mit einemParameter ω, den wir recht frei wahlen konnen. Fur ω = 1 erhalten wir das alte ESVzuruck. Wir werden daher mit der Wahl fur ω nicht sehr weit von 1 abweichen.Wir stellen die beiden Verfahren einander gegenuber. So erkennt man am leichtestendie Unterschiede.

ESV x(k+1) = D−1[−Lx(k+1) −Rx(k) +b]SOR x(k+1) = (1− ω)x(k) + ω D−1[−Lx(k+1) −Rx(k) +b]

(1.154)

Bevor wir zu einer Konvergenzaussage kommen, uben wir das erst mal an einemBeispiel.

Beispiel 1.103 Berechnen Sie mit dem SOR–Verfahren und dem Relaxationspara-meter ω = 0.9 iterativ eine Losung des Beispiels 1.102.

Wir geben gleich das mit einem Rechner erzielte Ergebnis an.SOR–Verfahren, ω = 0.9:

x(0) 1.000000 0.000000 2.000000 −1.000000x(1) 0.887500 −0.033750 1.666250 −0.618344x(2) 0.717488 −0.145377 1.581871 −0.669820x(3) 0.733483 −0.144019 1.57823 −0.664476x(4) 0.732564 −0.144961 1.577592 −0.664350x(5) 0.732570 −0.145073 1.577530 −0.664309x(6) 0.732574 −0.145088 1.577525 −0.664298x(7) 0.732574 −0.145092 1.577524 −0.664296

Hier endet also die Iteration bereits nach sieben Schritten mit demselben Ergebnis,das wir beim ESV nach zwolf Schritten erreicht haben.Wer aber hat uns diesen Wert fur ω verraten? Das ist ein großes Problem fur dasSOR–Verfahren. In einigen Sonderfallen kann man sich etwas mehr Informationenbeschaffen, die zu einem optimalen Wert fur ω fuhren. Bei konsistent geordnetenMatrizen fuhren die folgenden Formeln zu einem optimalen Relaxationsparameterωopt, was 1950 von Young bewiesen wurde (vgl. Finck von Finckenstein). Wir gebendie Formeln hier an, ohne zu sagen, was konsistent geordnete Matrizen sind, und mitdem Hinweis, daß hier nur von Uberrelaxation gesprochen wird. Der auf diese Weise

Page 104: 3486584472_Mathem

1.10 Iterative Verfahren 91

ermittelte optimale Wert fur ω ist also stets großer als 1. Fur unser Beispiel war aberω = 0.9 schon recht optimal.Naherungsweise Berechnung des optimalen Relaxationsparameters ωopt:

q = limk→∞

‖x(k+1) − x(k)‖‖x(k) − x(k−1)‖ , µ2 =

1q

(1 +

q − 1ωa

)2

, ωopt =2

1 +√

1− µ2.(1.155)

Die Formeln sind folgendermaßen zu verstehen:

(i) Starte SOR mit einem beliebigen ωa.

(ii) Berechne aus den Losungsnaherungen x(1), x(2), . . . die Quotienten:

qk =‖x(k+1) − x(k)‖‖x(k) − x(k−1)‖ , k = 1, 2, . . . (1.156)

(iii) Falls die Quotienten qk oszillieren, so war ωa zu groß. Dann neuer Start mitkleinerem ωa. Falls sich sonst die Quotienten nicht mehr andern (im Rahmender Rechengenauigkeit), so berechne man mit dem letzten qk:

µ2 =1qk

(1 +

qk − 1ωa

)2

, und damit weiter: ωopt =2

1 +√

1− µ2(1.157)

(iv) Setze SOR mit diesem ωopt fort.

Eventuell muß das Schema mehrfach durchlaufen werden.Der folgende Satz gibt eine Rechtfertigung fur das SOR–Verfahren in einigen Spezi-alfallen.

Satz 1.104 (Konvergenz des SOR–Verfahrens) Ist die Matrix A stark diagonal-dominant, so konvergiert fur 0 < ω ≤ 1 das SOR–Verfahren (und damit auch dasESV).Ist die Matrix A symmetrisch und sind ihre Diagonalelemente positiv, so konvergiertdas SOR–Verfahren genau dann, wenn A positiv definit ist und

0 < ω < 2. (1.158)

Damit ist naturlich auch das ESV konvergent, das sich ja fur ω = 1 aus dem SOR–Verfahren ergibt.Ist A symmetrisch und stark diagonaldominant mit positiven Diagonalelementen, sokonvergiert das SOR–Verfahren fur 0 < ω < 2.In diesem Satz kann stets ’stark diagonaldominant’ durch ’schwach diagonaldominantund unzerlegbar’ ersetzt werden.

Page 105: 3486584472_Mathem
Page 106: 3486584472_Mathem

Kapitel 2

Numerik fur Eigenwertaufgaben

2.1 Einleitung und Motivation

Zur Motivation greifen wir auf ein Beispiel aus der Elementargeometrie zuruck.

Beispiel 2.1 Welche Vektoren werden bei der elementaren Spiegelung in der Ebeneauf ein Vielfaches von sich abgebildet?

Um uns nicht mit viel Ballast abzuschlep-pen und dabei das wesentliche aus denAugen zu verlieren, wahlen wir eine Spie-gelung, bei der die Spiegelachse in der(x, y)–Ebene die y–Achse ist. Wir fragennach einem Vektor, der bei der Spiege-lung wieder auf sich abgebildet wird; esreicht uns schon ein Vektor, der auf einVielfaches von sich ubergeht. Das Vielfa-che mag sogar negativ sein. Die nebenste-hende Abbildung verdeutlicht, daß ein be-liebiger Punkt (x, y), den wir mit seinemOrtsvektor x = (x, y) identifizieren, aufden Punkt x∗ = (−x, y) abgebildet wird.

x

y

x = (x, y)x ∗ = (−x, y)Spiegelachse

Abbildung 2.1: Spiegelung ander y–Achse

Zur Gewinnung der Abbildungsvorschrift nehmen wir uns die beiden Einheitsvektorene1, e2 vor und bilden sie ab.

e1 = (1, 0) → (−1, 0), e2 = (0, 1) → (0, 1).

Die Bildvektoren schreiben wir als Spalten in eine (2× 2)–Matrix.

A =( −1 0

0 1

).

Page 107: 3486584472_Mathem

94 2 Numerik fur Eigenwertaufgaben

Damit lautet die Abbildung in Matrixschreibweise

x → x ∗ =( −1 0

0 1

)· x.

Unsere obige Frage ist naturlich kinderleicht zu beantworten.

• Jeder Vektor auf der x–Achse geht in seinen negativen Vektor uber:

x = (a, 0) → x ∗ = (−a, 0),

• Jeder Vektor auf der y–Achse wird direkt auf sich abgebildet, bleibt also fix:

x = (0, a) → x ∗ = (0, a),

Man kann versuchen, die Anzahl solcher linear unabhangigen Vektoren zur Charak-terisierung von Abbildungen heranzuziehen. Dies geschieht in der affinen Geometrieunter Einbeziehung von Fixpunkten fur die affinen Abbildungen.Wir werden spater bei der Numerik von Differentialgleichungen andere Aufgaben ken-nenlernen, wo solche Vektoren eine erhebliche praktische Bedeutung gewinnen. Zuvor-derst begnugen wir uns mit einer Namensgebung und anschließend mit der numeri-schen Berechnung.

2.2 Grundlegende Tatsachen

2.2.1 Die allgemeine Eigenwert–Eigenvektoraufgabe

Wir beschreiben allgemein die oben gestellte Aufgabe.

Eigenvektor–Eigenwert–Aufgabe

Gegeben sei eine quadratische (n× n)–Matrix A.Gesucht werden ein Vektor x = 0 und eine (reelle oder komplexe) Zahl λ mit derEigenschaft:

Ax = λx. (2.1)

Dies druckt genau aus, was wir oben im Beispiel 2.1 als Frage formuliert haben, wennwir den Trivialfall, daß bei einer linearen Abbildung der Nullvektor stets auf sichabgebildet wird, ausschließen.

Definition 2.2 Ein solcher Vektor x = 0 heißt Eigenvektor zum Eigenwert λ

Page 108: 3486584472_Mathem

2.2 Grundlegende Tatsachen 95

Die Berechnung von Eigenvektoren und zugehorigen Eigenwerten verlauft nach einerrecht simplen Idee. Wir schreiben die Gleichung (2.1) um.

Ax = λx ⇐⇒ (A− λE)x = 0.

Hier ist nun offenbar geworden, daß es sich um ein lineares homogenes Gleichungssy-stem handelt. Eine Losung davon fallt uns in den Schoß. Der Nullvektor tut’s, aberer ist verabredungsgemaß kein Eigenvektor. Wir suchen nach weiteren Losungen. Dasgeht aber nur, wenn das homogene System mehr als eine Losung hat. Dies ist nachdem Alternativsatz fur lineare Gleichungssysteme (vgl. Satz 1.3) nur moglich, wenn dieMatrix nicht den vollen Rang hat, also wenn sie singular ist. Ihre Determinante mußdeshalb verschwinden. Wir erhalten also, wenn wir mit E die (n× n)–Einheitsmatrixbezeichnen, die Bedingung

det (A− λE) = 0. (2.2)

Hier ist kein Vektor x mehr im Spiel. Die Determinante ist nur von λ abhangig, undwie man sich leicht klarmacht, ist das ein Polynom in λ.

Definition 2.3 Das Polynom

p(λ) = det (A− λE) (2.3)

heißt charakteristisches Polynom von A. Die Nullstellen von p(λ) sind die Eigen-werte von A. Die Vielfachheit als Nullstelle von p(λ) heißt Vielfachheit des Eigen-wertes λ.

Wir kommen auf unser Eingangsbeispiel 2.1 zuruck und berechnen die Eigenvektorenanalytisch, nachdem wir sie ja schon durch das Bildchen 2.1 gefunden haben.

det (A− λE) = det( −1− λ 0

0 1− λ

)= (−1− λ)(1− λ) = 0.

Wir erhalten zwei Losungen. Die Eigenwerte lauten:

λ1 = −1, λ2 = 1.

Zur Berechnung der Eigenvektoren setzen wir die gefundenen Eigenwerte einzeln indie Gleichung (2.1) ein und erhalten das Gleichungssystem

(A− λ1E)x =(

0 00 2

)(x1

x2

)=(

00

).

Das ist typisch Eigenvektorgleichung. Das System hat nicht den vollen Rang. So habenwir ja gerade die Eigenwerte bestimmt, daß die Matrix A − λE nicht mehr regularist. Sonst hatten wir ja immer nur den Nullvektor als Losung, den wir aber nun mal

Page 109: 3486584472_Mathem

96 2 Numerik fur Eigenwertaufgaben

nicht haben wollen, mag er noch so traurig sein. Als Losung wahlen wir x1 = t underhalten x2 = 0. Einen Eigenvektor bekommen wir, wenn wir z. B. t = 1 wahlen:

e1 = (1, 0).

Jede weitere Losung, die wir durch verschiedene Wahl von t (nur t = 0 lassen wiraus) erhalten, ist ein Vielfaches dieses Vektors. Das lauft darauf hinaus, daß die Ei-genvektoren zu einem Eigenwert einen Vektorraum bilden, falls wir den Nullvektordazu nehmen. Dieser Vektorraum ist dann also die x–Achse, wie wir es ja schon ander Skizze erkannt haben.Der zweite Eigenwert λ2 = 1 fuhrt auf die Eigenvektorgleichung

(A− λ1E)x =( −2 0

0 0

)(x1

x2

)=(

00

)

und damit zu einem Eigenvektor

e2 = (0, 1).

Auch diesen hatten wir in unserer Skizze schon dingfest gemacht.Fassen wir die Vorgehensweise zur Berechnung der Eigenwerte zusammen:

Berechnung der Eigenwerte

1. Berechnung des charakteristischen Polynoms p(λ).

2. Berechnung der Nullstellen von p(λ).

3. Berechnung der Eigenvektoren durch Losen des homogenen linearen Glei-chungssystems

(A− λE)x = 0.

Diese drei Punkte liefern den Grundstock. Erstaunlicherweise denkt der Anfanger da-bei, daß der zweite Punkt oder eventuell der dritte Punkt zu den großten Schwierig-keiten fuhren. Dabei haben wir dafur sehr gute Verfahren zur Verfugung. Das großteProblem besteht tatsachlich im Aufstellen des charakteristischen Polynoms. Das be-deutet ja, eine Determinante auszurechnen. Diese Operation lauft aber im wesentlichenmit n! vielen Operationen. Unser Augenmerk richten wir daher auf die Suche nacheiner einfacheren Matrix, die aber bitteschon dieselben Eigenwerte wie die vorgelegteMatrix haben mochte.Der folgende Begriff wird uns nicht zu oft begegnen. Wir fuhren ihn nur der Vollstandig-keit wegen an.

Page 110: 3486584472_Mathem

2.2 Grundlegende Tatsachen 97

Definition 2.4 Unter der Ordnung eines Eigenwertes λ der (n × n)–Matrix A ver-stehen wir die Anzahl der linear unabhangigen Eigenvektoren zu diesem Eigenwert.Das ist gleichzeitig die Zahl n− rg (A− λE).Es gilt offensichtlich die Ungleichung

Ordnung (λ) ≤ Vielfachheit (λ). (2.4)

Zur Ubung betrachten wir das folgende Beispiel.

Beispiel 2.5 Wie lauten samtliche Eigenwerte und zugehorigen Eigenvektoren der(n× n)–Nullmatrix und der (n× n)–Einheitsmatrix?

Betrachten wir zuerst die Nullmatrix. Ihr charakteristisches Polynom lautet:

p(λ) = det (0− λE) = −λn.

Dieses hat nur die eine einzige Nullstelle λ = 0, und die ist n–fach. Der Eigenwertλ = 0 ist also n–fach. Als Eigenvektorgleichung erhalt man das sehr triviale System

0x = 0,

wobei die erste 0 die Nullmatrix ist. Hier ist offenkundig jeder Vektor eine Losung,also besteht der ganze Raum (außer dem Nullvektor) nur aus Eigenvektoren. Jedebeliebige Basis des Raumes R

n ist also zugleich eine Basis aus Eigenvektoren. DerEigenwert 0 hat also auch die Ordnung n.Packen wir nun die Einheitsmatrix an. Ihr charakteristisches Polynom lautet

p(λ) = det (E − λE) = (1− λ)n.

Auch hier haben wir nur eine einzige Nullstelle λ = 1, und das ist deshalb der einzigeEigenwert mit der Vielfachheit n. Als Eigenvektorgleichung erhalten wir wieder wieoben das triviale System mit der Nullmatrix und daher auch dieselbe Losungsvielfalt:samtliche Vektoren (außer dem Nullvektor) sind Eigenvektoren. Damit gibt es auchhier zu dem einzigen Eigenwert λ = 1 n linear unabhangige Eigenvektoren; auch dieserEigenwert hat die Ordnung n.

2.2.2 Ahnlichkeit von Matrizen

Quadratische Matrizen lassen sich deuten als Abbildungsmatrizen eines Vektorraumesin sich. Da liegt es nahe, an eine geschickte Koordinatenwahl zu denken, um diezugehorige Matrix moglichst einfach zu gestalten. Eine Koordinatentransformationwird durch eine regulare Matrix vermittelt. Wir versuchen also, erst die Koordinatenzu transformieren, anschließend die Abbildung zu beschreiben und am Schluß nichtzu vergessen, die Koordinaten wieder zuruck zu transformieren. Fur die zugehorigenMatrizen hat sich der folgende Begriff eingeburgert.

Page 111: 3486584472_Mathem

98 2 Numerik fur Eigenwertaufgaben

Definition 2.6 Zwei (n × n)–Matrizen A und B heißen zueinander ahnlich , wennes eine regulare (n× n)–Matrix T gibt, mit

B = T−1 · A · T. (2.5)

Eine (n × n)–Matrix A heißt diagonalahnlich , wenn A zu einer Diagonalmatrixahnlich ist.

Der folgende Satz, den man in der linearen Algebra im Zusammenhang mit der Haupt-achsentransformation kennenlernt, gibt uns ein Kriterium, wann genau eine Matrixdiagonalahnlich ist.

Satz 2.7 Eine (n × n)–Matrix A ist genau dann diagonalahnlich, wenn A n linearunabhangige Eigenvektoren besitzt.

Der nachste Satz fuhrt uns dann schon mitten in die numerischen Methoden zurBestimmung von Eigenwerten, auch wenn wir das jetzt noch nicht sehen.

Satz 2.8 Seien A und B zwei (n×n)–Matrizen, und es sei A ahnlich zu B, es gebe alsoeine regulare Matrix T mit B = T−1 · A · T . Dann hat A dasselbe charakteristischePolynom wie B, also auch dieselben Eigenwerte und diese sogar mit der gleichenVielfachheit.Ist u Eigenvektor von B zum Eigenwert λ, so ist v := Tu Eigenvektor von A zumEigenwert λ.

Beweis: Wir benutzen die Definition der Ahnlichkeit: es gibt also eine regulare MatrixT mit

B = T−1 · A · T.

Mit dieser Gleichung ist es uns ein leichtes, wenn wir nur einmal die Identitat E =T−1 · T , den Produktsatz fur Determinanten und das Wissen uber die Determinanteder inversen Matrix benutzen, das charakteristische Polynom von B auf das charak-teristische Polynom von A zuruckzufuhren:

pB(λ) = det (B − λE) = det (T−1AT − λE)= det (T−1AT − λT−1T ) = det (T−1(A− λE)T )= det (T−1) · det (A− λE) · detT

=1

det T· det (A− λE) · det T = det (A− λE)

= pA(λ)

Sei u Eigenvektor von B zum Eigenwert λ, so schließen wir:

Bu = λu ⇐⇒ T−1 ·A · Tu = λu ⇐⇒ A · (Tu) = λ(Tu)

Page 112: 3486584472_Mathem

2.3 Abschatzung nach Gerschgorin 99

Damit liegt der Grundgedanke vieler Verfahren vor uns:

Man bestimme eine Matrix B, die ahnlich zu A ist und deren Eigenwerte leichter zuermitteln sind.

Wir stellen noch einige Aussagen uber Eigenwerte und Eigenvektoren im folgendenSatz zusammen.

Satz 2.9 Sei A eine reelle (n× n)–Matrix. Dann gilt:

(a) A und ihre Transponierte A haben dasselbe charakteristische Polynom.

(b) A singular ⇐⇒ det A = 0 ⇐⇒ rg A < n ⇐⇒ λ = 0 ist Eigenwert von A

(c) Ist A regular und λ Eigenwert von A zum Eigenvektor u, so ist 1/λ Eigenwertvon A−1 zum Eigenvektor u.

(d) Mit λ ist auch die konjugiert komplexe Zahl λ Eigenwert von A.

(e) Ist A Dreiecksmatrix, so sind die Diagonalelemente die Eigenwerte von A.

Wir uberlassen die zum Teil sehr einfachen Beweise gerne dem Leser. Aus der Aus-sage (a) mochte man den weitergehenden Schluß ziehen, daß jede Matrix zu ihrerTransponierten auch ahnlich ist. Ein Beweis hierfur ist aber sehr kompliziert.Die Aussage (e) des obigen Satzes legt den Grundgedanken vieler Verfahren offen:

Man bestimme eine Dreiecksmatrix B, die ahnlich zu A ist.

2.3 Abschatzung nach Gerschgorin

Wir nahern uns in Riesenschritten den numerischen Verfahren zur Eigenwertbestim-mung. Haufig benotigt man da einen Startwert, oder man mochte vielleicht sein Re-chenergebnis in irgendeiner Form gegen die wahre Losung abschatzen. Dann ist viel-leicht der folgende Satz hilfreich.

Satz 2.10 (Gerschgorin–Kreise) Gegeben sei eine (n× n)–Matrix A.

Aus jeder

ZeileSpalte

von A bilde man einen Kreis, wobei der Mittelpunkt das Diago-

nalelement, der Radius die Summe der Betrage der Nichtdiagonalelemente ist:

Ki =

⎧⎪⎨⎪⎩z ∈ C : |z − aii| ≤

n∑j=1j =i

|aij |

⎫⎪⎬⎪⎭ , i = 1, . . . , n. (2.6)

Dann liegen samtliche Eigenwerte von A in der Vereinigung all dieser

ZeilenSpalten

Kreise.

Page 113: 3486584472_Mathem

100 2 Numerik fur Eigenwertaufgaben

Diese Aufteilung in Zeilen und Spalten meint dabei, daß der Satz eine Aussage sowohlfur die Zeilenkreise als auch fur die Spaltenkreise macht. Dem Anwender bleibt esfreundlicherweise uberlassen, welche er betrachten will. Man suche sich also gefalligstdas Bessere heraus. Wem das noch nicht genugt, kann ja zu allem Uberfluß noch dieDurchschnitte aus Zeilen– und Spaltenkreisen bilden.

Beweis: Wir fuhren den Beweis nur fur die Zeilenkreise. Die Uberlegung ubertragtsich wortlich auf die Spaltenkreise.Wir gehen indirekt vor und nehmen an, daß ein frecher Eigenwert λ außerhalb derZeilenkreise sein Domizil hat. Dann gilt also fur samtliche Zeilen der Matrix A− λE

|aii − λ| > ri, i = 1, . . . n,

wo wir mit ri die Radien der einzelnen Kreise abgekurzt haben. Bei genauer Betrach-tung entdeckt man also, daß die Matrix A − λE stark diagonaldominant ist. Nachunserem Satz 1.38 von Seite 22 ware damit diese Matrix regular. Das steht aber imkrassen Widerspruch dazu, daß λ ein Eigenwert sein sollte; denn jeder Eigenwert wirdja gerade so bestimmt, daß die Determinante det A − λE = 0, die Matrix A − λEalso singular ist. So geht das nicht. Daher ist die Annahme nicht haltbar, daß sich einEigenwert außerhalb der Kreise befindet, und unser Satz ist bewiesen. Tatsachlich gilt sogar noch eine Verscharfung des obigen Satzes, die ihn noch leistungs-fahiger macht.

Satz 2.11 In jeder Vereinigung von Gerschgorin–Kreisen, die eine zusammenhangen-de Punktmenge K bilden, welche zu den ubrigen Kreisen disjunkt ist, liegen genausoviele Eigenwerte, wie Kreise an der Vereinigung beteiligt sind.

Definition 2.12 Zwei Punktmengen M1 und M2 heißen dabei disjunkt, wenn siekeinen gemeinsamen Punkt besitzen, wenn ihr Durchschnitt also leer ist: M1∩M2 = ∅.Zum Beweis dieses Satzes zieht man einen Homotopietrick aus der Tasche. DiesesSchlagwort werfen wir einfach mal in den Raum, ohne zu erlautern, wo es herkommt.Gemeint ist folgende Uberlegung. Betrachte

A(t) := D + t · B, 0 ≤ t ≤ 1,

wobei D die Diagonalmatrix D = diag (a11, . . . , ann) und B der Rest von A, alsoB = A−D ist. Fur t = 0 und t = 1 erhalten wir

A(0) = D, A(1) = A.

Fur die Diagonalmatrix D ist die Behauptung offensichtlich richtig. Nun lassen wirschon peu a peu t von 0 nach 1 wachsen. Da die Eigenwerte als Nullstellen des cha-rakteristischen Polynoms stetige Funktionen der Koeffizienten von det (A− λE) sind,hangen sie stetig vom Parameter t ab. Sind wir schließlich bei t = 1 angelangt, habenwir die Behauptung geschafft. Das mußte man etwas sorgfaltiger ausfuhren, als wir eshier angedeutet haben, aber im Prinzip ist das der ganze Beweis.An den folgenden Beispielen zeigen wir, wie einfach diese Satze anzuwenden sind.

Page 114: 3486584472_Mathem

2.3 Abschatzung nach Gerschgorin 101

Beispiel 2.13 Geben Sie fur folgende Matrix eine moglichst gute Abschatzung fur dieEigenwerte an:

A =

⎛⎝ 58 2 5

2 62 −35 −3 −18

⎞⎠ .

Wie wir sofort feststellen, ist A symmetrisch. Aus der linearen Algebra wissen wir,daß daher samtliche Eigenwerte reell sind. Außerdem brauchen wir nur die Zeilenkreiseanzuschauen. Wir erhalten

|58 − λ| ≤ 7|62 − λ| ≤ 5| − 18− λ| ≤ 8

Die ersten beiden Zeilen fuhren also zu zwei sich schneidenden Kreisen; wir konnensie deshalb nur zusammenfassen und erhalten, da ja die Eigenwerte reell sind, direkteine Abschatzung auf der reellen Achse:

51 ≤ λ1, λ2 ≤ 67.

Die dritte Zeile fuhrt zu einem von den beiden anderen disjunkten Kreis und daherzu der Abschatzung

−26 ≤ λ3 ≤ −10.

So einfach geht das.

Beispiel 2.14 Was konnen Sie uber die Lage der Eigenwerte der folgenden Matrixin der komplexen Ebene aussagen?

A =(

0 12 4

)

Die Matrix ist offensichtlich nicht symmetrisch. Es konnten also komplexe Eigenwerteauftreten. Aus den Zeilen– und Spaltenkreisen entnehmen wir uns gleich das besteund erhalten:

|z − 0| ≤ 1|z − 4| ≤ 1

x

iy

1

1

Abbildung 2.2: Optimale Gerschgorin–Kreise

Die Kreise liegen disjunkt, und die Matrix hat nur reelle Eintrage. Denken wir an dascharakteristische Polynom, so hat es dann naturlich auch nur reelle Koeffizienten. Ein

Page 115: 3486584472_Mathem

102 2 Numerik fur Eigenwertaufgaben

solches Polynom zerfallt aber entweder in Linearfaktoren oder in Polynome zweitenGrades. Auf jeden Fall sind seine Nullstellen entweder reell, oder sie sind paarweisekonjugiert zueinander. Wenn nun in jedem der beiden Kreise genau ein Eigenwert liegt,so kann keiner von beiden komplex sein. Der zu ihm konjugierte liegt ja nur an derx–Achse gespiegelt, mußte also im selben Kreis liegen, da die Kreise ja symmetrischzur x–Achse sind. Also sind beide Eigenwerte reell, und wir konnen die Abschatzungangeben:

−1 ≤ λ1 ≤ 1, 3 ≤ λ2 ≤ 5.

Beispiel 2.15 Geben Sie eine (2×2)–Matrix an, deren Elemente = 0 sind und derensamtliche Eigenwerte im Intervall I = [99, 101] liegen.

Naturlich greifen wir auf Gerschgorin zuruck. Um uns nicht im Komplexen tummelnzu mussen, werden wir uns auf reelle Matrizen spitzen. Da liegt nun folgende Matrixauf der Hand:

A =(

100 11 100

).

Die tut’s, wie man sofort einsieht.

Beispiel 2.16 Geben Sie nach Gerschgorin eine Abschatzung der Eigenwerte der fol-genden Matrix an.

A =

⎛⎝ 1 + i 1 0.8

0.2 −3 0.21 −1 4

⎞⎠

Diese Matrix hat nun einen komplexen Eintrag an der Stelle a11, und sie ist nichthermitesch. Also konnen wir uns um die komplexe Ebene nicht rummogeln. Nehmenwir uns zuerst die Zeilenkreise vor.

|z − (1 + i)| ≤ 1.8|z + 3| ≤ 0.4|z − 4| ≤ 2

1

i

x

iy

...

..

.....................

..........

..............................................................................................................................................

..

..

.......................

.........

......................................................................................................................................................

Abbildung 2.3: Zeilenkreise

Der Kreis um −3 liegt deutlich von den beiden anderen entfernt, in ihm liegt alsogenau ein Eigenwert. Die zwei weiteren bilden eine zusammenhangende Punktmenge,in der demnach genau zwei Eigenwerte liegen. Da sie moglicherweise komplex sind,konnen wir naturlich keine Abschatzung so wie bei den vorigen Beispielen angeben;

Page 116: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 103

|z − (1 + i)| ≤ 1.2|z + 3| ≤ 2|z − 4| ≤ 1

1

i

x

iy

..

..

...........................

............................................................................................................................................................

..

..................

...................................................................

......................

...............

..............................................................................

Abbildung 2.4: Spaltenkreise

denn fur die komplexen Zahlen gibt es ja keine Anordnung. Ein ”≤ “ hatte also keineBedeutung.Die Spaltenkreise schreiben und zeichnen wir genauso schnell hin, siehe Skizze oben.Hier sind nun alle drei Kreise disjunkt, und deshalb liegt in jedem Kreis genau ein Ei-genwert. Klug, wie wir sind, gehen wir zu den Durchschnitten uber. Damit bekommenwir die Aussagen:

|z − (1 + i)| ≤ 1.2|z + 3| ≤ 0.4|z − 4| ≤ 1

1

i

x

iy

...............

..............................

........................................

.......................

................

................................................................................

Abbildung 2.5: Die beste Wahl

als Mixtum aus den Zeilen– und Spaltenkreisen.

Man wird vielleicht einwenden, daß diese Kreise ja noch ganz schon groß sein konnen.Aber wie groß ist die gesamte Ebene? Eine gewisse Einschrankung ergibt sich aufjeden Fall.

2.4 Das vollstandige Eigenwertproblem

In diesem Abschnitt wollen wir uns Gedanken daruber machen, wie man samtlicheEigenwerte einer Matrix auf einen Rutsch berechnen kann. Das wird sicher nur beikleineren Matrizen, wie sie aber durchaus z. B. in der Elektrotechnik vorkommen,relevant sein. In der Baustatik dagegen handelt man mit (1000× 1000)–Matrizen undnoch großeren. Wie man sich dort behilft, erlautern wir im Abschnitt 2.5 auf Seite133.

Page 117: 3486584472_Mathem

104 2 Numerik fur Eigenwertaufgaben

2.4.1 Zuruckfuhrung einer Matrix auf Hessenberggestalt

Gerhard Hessenberg erkannte, daß ein bestimmter Typ von Matrix das Eigenwertpro-blem einfacher machte. Diesen Typ hat man daher nach ihm benannt.

Definition 2.17 Unter der Hessenberg–Form einer Matrix versteht man den fol-genden Typ

H =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

h11 h12 · · · · · · · · · h1n

h21 h22 h23 · · · · · · h2n

0 h32 h33 h34 · · · h3n...

. . . . . . . . . . . ....

.... . . . . . . . .

...0 · · · · · · 0 hn,n−1 hnn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

.

Wir werden spater Verfahren kennenlernen, wie man von solchen Matrizen leichter dieEigenwerte berechnen kann. In den folgenden Unterabschnitten soll es uns vorerst dar-um gehen, wie eine gegebene Matrix auf diese Hessenberg–Form transformiert wird.Dabei ist es naturlich von essentieller Bedeutung, daß die als Transformationsmatrixentstehende Hessenberg–Matrix dieselben Eigenwerte besitzt wie die vorgelegte Ma-trix. Wie wir oben im Abschnitt uber ’Ahnlichkeit’ gesehen haben, ist es klug, alsTransformationen ausschließlich Ahnlichkeitstransformationen zuzulassen. Da bleibenja sogar die charakteristischen Polynome gleich. Wir stellen im folgenden zwei solcheVerfahren vor.

2.4.2 Verfahren von Wilkinson

Dieses Vorgehen besticht durch seine einfache Anwendung. Es benutzt im wesentlichendieselben Umformungen, wie wir sie bei der Gauß–Elimination kennengelernt haben.Wir zeigen das Verfahren auf Seite 105.Wir wollen die einzelnen Schritte ein wenig erlautern.Bemerkungen:

1. In den Teilschritten (i) und (ii) wird, um Rundungsfehler klein zu halten, eineSpaltenpivotisierung vorgenommen. Naturlich muß eine Vertauschung als Ahn-lichkeitstransformation ausgefuhrt werden. Darum vertauschen wir Zeile undSpalte. Das bedeutet ja eine Multiplikation von links mit einer Permutations-matrix Pj+1,q und zugleich eine Multiplikation von rechts mit derselben Permu-tationsmatrix Pj+1,q. Als Permutationsmatrix ist die aber zu sich selbst invers.Also kann man auch getrost die Multiplikation von links mit der Matrix P−1

j+1,q

ausgefuhrt denken. So sieht man, daß wir wirklich eine Ahnlichkeitstransforma-tion vorgenommen haben, und so gelangen wir zur Matrix B(j−1).

Page 118: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 105

Verfahren von Wilkinson

Gegeben sei eine (n× n)–Matrix A.Setze A(0) := A.Bestimme A(j) fur j = 1, . . . , n− 2 wie folgt:

(i) Bestimme den Zeilenindex q so, daß

|a(j−1)qj | = max

j+1≤µ≤n|a(j−1)

µj |

(ii) Falls q = j + 1, so vertausche (j + 1)–te Zeile und Spalte mit q–ter Zeile undSpalte:

A(j−1) → Pj+1,q ·A(j−1) · Pj+1,q =: B(j−1) (2.7)

(iii) Ist b(j−1)j+1,j = 0, dann gehe zum nachsten Schritt,

sonst bestimme die Matrix Cj+1

Cj+1 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝

1. . .

1 00 cj+2,j+1 1

... 0. . .

cn,j+1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠

(2.8)

mit ci,j+1 =

⎧⎨⎩

b(j−1)ij

b(j−1)j+1,j

falls b(j−1)j+1,j = 0

0 sonst, i = j + 2, . . . , n, (2.9)

und berechne damit:

A(j) = C−1j+1 ·B(j−1) · Cj+1. (2.10)

2. Im Teilschritt (iii) wird eine Frobeniusmatrix Cj+1 konstruiert, die bei Links-multiplikation an B(j−1) heran unterhalb des Elementes b

(j−1)j+1,j Nullen erzeugt.

Also das muß man noch einmal sagen. Mit Hilfe dieser Matrix Cj+1 werden inder j–ten Spalte Nullen an den Stellen erzeugt, die wir fur die Hessenbergformgerne dort hatten. Die Multiplikation außerdem von rechts mit der inversen Ma-trix C−1

j+1 geschieht der Ahnlichkeit wegen, ist im ubrigen aber auch nur mitwenig Aufwand verbunden, denn die inverse Matrix einer Frobeniusmatrix er-mittelt man ja lediglich durch Vorzeichenwechsel. Außerdem sind so viele Nullen

Page 119: 3486584472_Mathem

106 2 Numerik fur Eigenwertaufgaben

in dieser Matrix, daß eine Multiplikation kaum eine ernste Zahl an Operationenverursacht.

Die Konstruktion dieser Matrix Cj+1 in der kompliziert erscheinenden Rechnungin Gleichung (2.9) entpuppt sich bei genauem Hinsehen als die harmlose Gauß-elimination, allerdings mit der oben erwahnten kleinen, aber entscheidendenAbwandlung. Wir haben bewußt im j–ten Schritt die Matrix Cj+1 bezeichnet,weil in diesem Schritt in der j–ten Spalte Nullen erzeugt werden, das aber miteiner Frobeniusmatrix, die in der (j + 1)–ten Spalte die entsprechenden Elimi-nationsfaktoren enthalt. Vielleicht merkt man sich das daran, daß wir ja eineHessenbergform erreichen mochten, also das Element unterhalb der Diagonalennicht verandern, sondern erst darunter anfangen wollen. In der (j+1)–ten Frobe-niusmatrix haben wir dafur genau die richtige Anzahl an Platzen zur Verfugung.

Die endgultige Transformation im j–ten Schritt lautet

A(j) = C−1j+1 · Pj+1,q · A(j−1) · Pj+1,q · Cj+1

= (Pj+1,qCj+1)−1 · A(j−1) · Pj+1,q · Cj+1.

Dies ist damit eine Ahnlichkeitstransformation.

Beispiel 2.18 Betrachten wir die folgende symmetrische Matrix

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠ ,

und bringen wir sie mit Hilfe von Herrn Wilkinson auf Hessenberg–Form.

Ein schneller Blick genugt, um festzustellen, daß die Arbeit fast getan ist. Nur die 3an der Stelle a42 tanzt noch aus der Reihe. Unser Verfahren startet demnach mit demzweiten Schritt (j = 2).Eine Spaltenpivotisierung ist nicht erforderlich, denn |a32| = | − 4| > |a42| = 3. Wirbestimmen daher sofort die Transformationsmatrix C, indem wir das Element c43 nachFormel (2.9) berechnen:

c43 =a42

a32=

3−4

= −0.75.

Damit lautet C

C =

⎛⎜⎜⎝

1 0 0 00 1 0 00 0 1 00 0 −0.75 1

⎞⎟⎟⎠ .

Page 120: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 107

Dies ist eine sogenannte Frobeniusmatrix, deren Inverse ja durch schlichten Vorzei-chentausch in den Außerdiagonalelementen entsteht. Wir erhalten

C−1 =

⎛⎜⎜⎝

1 0 0 00 1 0 00 0 1 00 0 0.75 1

⎞⎟⎟⎠ .

Dann kann man die Matrizenmultiplikation zur Bestimmung von A(2) (wir sind ja imzweiten Schritt!) leicht ausfuhren. Es folgt

A(2) = C−1 · A · C =

⎛⎜⎜⎝

1 2 0 02 4 −6.25 30 −4 −0.25 −10 0 −4.9375 4.25

⎞⎟⎟⎠ .

Dies ist unser gesuchtes Ergebnis, eine zu A ahnliche Matrix in Hessenberg–Form.

Das Verfahren von Wilkinson besticht durch seine einfache Anwendung. Es hat vorallem fur Matrizen, die keine spezielle Struktur aufweisen, unbestreitbare Vorzuge.An dem Beispiel erkennt man andererseits einen wesentlichen Nachteil des Verfahrensvon Wilkinson. Ist die Ausgangsmatrix symmetrisch, so bleibt diese Symmetrie leidernicht erhalten. Fur den Fall einer symmetrischen Matrix bietet sich daher ein ande-res Verfahren an, das wir im folgenden Abschnitt besprechen wollen. Wir fassen dasErgebnis des Wilkinson–Verfahrens zum Schluß noch einmal zusammen.

Satz 2.19 Eine beliebige (n× n)–Matrix A laßt sich mit Hilfe von n− 2 Wilkinson–Schritten in eine zu A ahnliche obere Hessenberg–Matrix transformieren.

2.4.3 Verfahren von Householder

Der Grundgedanke von Householder besteht darin, zur Hessenbergherstellung nachorthogonalen Matrizen zu fahnden, die dann zur Ahnlichkeitstransformation herange-zogen werden mochten. Die zweite Idee besteht in der Verwendung von Spiegelungen.Der zugehorige Algorithmus von Householder steht auf der nachsten Seite.Diesen kompliziert erscheinenden Vorgang wollen wir etwas erlautern, um die einzelnenSchritte klarwerden zu lassen.

1. Die Abfrage, ob aj+2,j = · · · = anj = 0 ist, pruft lediglich, ob vielleicht durchZufall dieser Schritt schon erledigt ist.

2. Bei der Berechnung des Vektors ω tritt eine Funktion σ(t) auf, die der Vorzeichen–oder Signum–Funktion sehr ahnlich ist. Der einzige kleine Unterschied bestehtdarin, daß hier der Null der Wert +1 zugeordnet wird.

Page 121: 3486584472_Mathem

108 2 Numerik fur Eigenwertaufgaben

3. Im Schritt iii tritt das Produkt eines Spaltenvektors mit seinem (transponier-ten) Zeilenvektor auf. Dieses bezeichnet man als dyadisches Produkt. Es entstehteine Matrix, wie man sich leicht mit dem Matrizenmultiplikationsschema klar-macht.

Verfahren von Householder

Gegeben sei eine (n× n)–Matrix A.

Setze A(0) := A.

Bestimme A(j), j = 1, . . . , n− 2 wie folgt:

Falls aj+2,j = · · · = anj = 0, so nachster Schritt (j → j + 1).

i s :=

√∑ni=j+1

(a

(j−1)ij

)2, t := a

(j−1)j+1,j , c := (s + |t|) · s

ii Berechne den Vektor ω gemaß:

ω(j)i = 0 (i = 1, . . . , j),

ω(j)j+1 = t + s · σ(t),

ω(j)i = a

(j−1)ij (i = j + 2, . . . , n), mit σ(t) =

1 t ≥ 0

−1 t < 0

iii Bestimme dann die Transformationsmatrix P (j) aus:

P (j) = E − 1cω(j) · ω(j), (2.11)

und berechne damit (beachte (P (j))−1 = P (j)):

A(j) = P (j) · A(j−1) · P (j). (2.12)

Damit entsteht wiederum wie beim Verfahren von Wilkinson eine Matrix A(j), dieunterhalb des Elementes a

(j)j+1,j nur Nullen hat.

A(n−2) ist dann die gesuchte obere Hessenberg–Matrix, die zu A ahnlich ist.

Als nachstes werden wir einige Besonderheiten des Algorithmus in kleinen Satzenfesthalten. Angenommen, in den vorhergehenden j− 1 Schritten sei die Matrix A(j−1)

erreicht worden, die also bis einschließlich zur (j − 1)–ten Spalte bereits in Hessen-bergform vorliegt. Wir mussen nun die j–te Spalte bearbeiten. Unser Ziel ist es, in

Page 122: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 109

dieser Spalte unterhalb des Elementes a(j)j+1,j Nullen zu erzeugen. Schematisch sieht

das so aus, ein ∗ steht fur ein beliebiges Element:

A(j−1) → A(j)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

∗ · · · · · · · · · ∗∗ . . .

0. . . ∗ ...

.... . . ∗ ∗

0 ∗ ∗ ......

... ∗ . . . . . .

... ∗ . . . . . ....

0 · · · 0 ∗ · · · · · · ∗ ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

∗ · · · · · · · · · ∗∗ . . .

0. . . ∗ ...

.... . . ∗ ∗

0 ∗ ∗ ......

... 0 ∗ . . .

...... ∗ . . . . . .

...0 · · · 0 0 ∗ · · · ∗ ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

Betrachten wir nur den j–ten Spaltenvektor und nennen wir ihn a, so heißt das, wirsuchen eine Transformation mit der Eigenschaft

a =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1j

a2j...

ajj

aj+1,j

aj+2,j...

anj

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−→ a ′ =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1j

a2j...

ajj

aj+1,j

0...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (2.13)

Im obigen Algorithmus haben wir festgelegt, daß der Vektor ω(j) in den ersten j Kom-ponenten lediglich die Null enthalt. Damit ist die Transformationsmatrix P (j) in denersten j Zeilen und Spalten die Einheitsmatrix. Eine Transformation mit ihr andertalso in den ersten j Komponenten nichts. Das sieht schon mal ganz vertrauenswurdigaus.

Satz 2.20 Es gilt

‖ω‖22 = 2 · c. (2.14)

Beweis: Das zeigen wir durch einfaches Nachrechnen:

‖ω‖22 = 0 + · · ·+ 0 + (t + s · σ(t))2 + a2

j+2,j + · · ·+ a2nj

= (t + s · σ(t))2 + s2 − t2 = t2 + 2tsσ(t) + s2 + s2 − t2

= 2s2 + 2s|t| = 2c,

womit schon alles gezeigt ist.

Page 123: 3486584472_Mathem

110 2 Numerik fur Eigenwertaufgaben

Satz 2.21 P (j) ist eine symmetrische und orthogonale Matrix.

Beweis: Auch hier rechnen wir einfach los.

P = (E − 1cωω) = E − 1

cω(ω) = E − 1

cωω = P

P 2 = (E − 1cωω)(E − 1

cωω)

= E − 2cωω +

1c2

ωωωω

= E − 2cωω +

1c2· ω · 2 · cω

= E

Zusammen mit dem ersten Teil folgt P−1 = P = P.

Mit diesen beiden Satzen konnen wir nun die eingangs geschilderte Idee von House-holder, Spiegelungen zu verwenden, ans Licht holen. Mit Satz 2.20 und Formel (2.11)berechnet sich die Transformationsmatrix P zu

P = E − 1cω · ω = E − 2

ω · ω‖ω‖2 · ‖ω‖2

.

Setzen wir nun

ω0 =ω

‖ω‖2,

so ist ω0 von der Form

ω0 = (0, . . . , 0, ωj+2, . . . , ωn),

hat also Nullen dort, wo der Vektor a aus (2.13) unverandert bleiben soll. Damitberechnen wir den Bildvektor a ′ von a wie folgt:

a ′ = Pa = a− 2(ω0ω0 )a

= a− 2ω0(ω0 a)= a− 2(ω0 a)ω0

= a− 2|ω0| · |a| · cos(ω0,a) · ω0

= a− 2|a| cos(ω0,a) · ω0

In der Abbildung rechts haben wir die Berechnung von links skizzenhaft dargestellt.Der Faktor 2 fuhrt dazu, daß tatsachlich a ′ der zu a gespiegelte Vektor ist, wo-bei die Spiegelungsachse senkrecht zu ω0 steht. So kommt der Name ”Householder–Spiegelung“ zustande.Zusammengefaßt konnen wir feststellen, daß es wie beim Wilkinson–Verfahren gelingt,eine beliebige quadratische Matrix A durch Ahnlichkeitstransformationen in eine obereHessenberg–Matrix zu transformieren.

ω0

·|a| cos(ω0,a)

aa ′

Spiegel

Page 124: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 111

Satz 2.22 Eine beliebige (n×n)–Matrix A laßt sich mit Hilfe von n−2 Householder–Transformationen in eine zu A ahnliche obere Hessenberg–Matrix transformieren.

Beispiel 2.23 Betrachten wir folgende Matrix

A =

⎛⎜⎜⎝

1 4 2 −32 4 3 10 −4 −1 00 3 −1 5

⎞⎟⎟⎠ ,

und bringen wir sie mit Herrn Householder in Hessenberg–Form.

Wir setzen, wie im Algorithmus gefordert, A(0) = A. Dann sehen wir sofort, daß unsschon viel Arbeit abgenommen wurde; fur j = 1 ist a31 = a41 = 0. Also konnenwir diesen Schritt gleich uberspringen und zu j = 2 kommen. Die folgenden Zahlenerklaren sich wohl von selbst.

s =

√√√√ n∑i=j+1

(a(j−1)ij )2 =

√16 + 9 = 5,

t = a(j−1)j+1,j = −4, c = (s + |t|)s = (5 + 4)5 = 45, ω = (0, 0,−9, 3).

Damit lautet die Householder–Matrix

P (2) =

⎛⎜⎜⎝

1 0 0 00 1 0 00 0 1 00 0 0 1

⎞⎟⎟⎠− 1

45·

⎛⎜⎜⎝

00

−93

⎞⎟⎟⎠ · (0, 0,−9, 3) =

⎛⎜⎜⎝

1 0 0 00 1 0 00 0 −0.8 0.60 0 0.6 0.8

⎞⎟⎟⎠ .

Dann ist A(2) = P (2) ·A(1) ·P (2) die gesuchte Hessenbergmatrix, die ahnlich zu A = A(0)

ist, da P (2) = (P (2))−1. Wir geben nur das Ergebnis dieser Rechnung an.

A(2) =

⎛⎜⎜⎝

1 4 −3.4 −1.22 4 −1.8 2.60 5 1.64 2.520 0 3.52 2.36

⎞⎟⎟⎠ .

Das ist bereits das Endergebnis. Wir haben eine zur Ausgangsmatrix ahnliche MatrixA(2) in Hessenberg–Form gefunden.

Der kluge Leser fragt sofort nach den Unterschieden der Verfahren von Wilkinson undHouseholder. Wie wir im Kapitel uber die Q–R–Zerlegung schon ausgefuhrt haben,ist ein wesentlicher Vorteil des Householder–Verfahrens in der Verwendung von or-thogonalen Matrizen zu sehen. Dabei andert sich ja bekanntlich die Kondition derMatrix nicht. Also sind es numerische Grunde, die zum Householder raten lassen.

Page 125: 3486584472_Mathem

112 2 Numerik fur Eigenwertaufgaben

Einen weiteren ganz wichtigen Aspekt werden wir jetzt zeigen, indem wir die MatrixA als symmetrisch voraussetzen.Als ersten Punkt entdeckt man dabei, daß der Householder–Prozeß wesentlich ver-einfacht werden kann. Im obigen Householder–Algorithmus ist namlich ein numerischrecht aufwendiger Punkt das Berechnen der neuen Matrix A(j) durch das Matrizenpro-dukt (2.12). Fur symmetrische Matrizen wird uns hier eine wesentliche Vereinfachunggeboten, die wir im folgenden Satz festhalten wollen.

Satz 2.24 Ist die Matrix A symmetrisch, so kann im Householder–Algorithmus dieMatrix A(j) nach folgender Vorschrift berechnet werden:

Setze u(j) :=1cA(j−1)ω(j), v(j) := u(j) − 1

2cω(j)(ω(j))u(j) (2.15)

Dann ergibt sich:

A(j) = A(j−1)−v(j)(ωj)− ω(j)(v(j)) = A(j−1)−v(j)(ωj)− (v(j)(ωj)) (2.16)

Hier sind also lediglich dyadische Produkte und Operationen Matrix mal Vektor durch-zufuhren. Das spart Rechenzeit. Weil es so schon geht, beweisen wir diese Formeln.Beweis: Zur Vereinfachung lassen wir den oberen Index, der die jeweilige Stufe an-zeigt, weg, schreiben also A statt A(j−1), v statt v(j) und ω statt ω(j). Dann gilt mit2c = ‖ω‖2 = ωω

A(j) = PAP = (E − 1cωω)A(E − 1

cωω)

= A− 1cωωA− 1

cAωω +

1c2

ωωAωω

= A− 1cωωA +

12c2

ω(ωAω)ω − 1cAωω +

12c2

ω(ωAω)ω

= A− 1cA(ωω) +

12c

(ωω

c

)ω − ω

(Aω)

c+

12c

ω

((Aω)

= A− uω +12c

ω(ωu)ω − ωu +12c

ω(uω)ω

= A−(

u− 12c

ω(ωu))

ω − ω

(u − 1

2c(uω)ω

)

= A−(

u− 12c

ω(ωu))

ω − ω

(u− 1

2cω(ωu)

)

= A− vω − ωv

Hierbei haben wir beim Ubergang von der dritten zur vierten Zeile der obigen Glei-chungskette die Reihenfolge der Summanden vertauscht. Bei den weiteren Umformun-gen haben wir das Assoziativgesetz fur die Multiplikation, also die Moglichkeit, beider Multiplikation von drei Matrizen beliebig die Klammern zu setzen, ausgenutzt.Man beachte, daß auch ein Vektor eine Matrix ist. Der Rest war geschicktes Rechnen.

Page 126: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 113

Verfahren von Householder (A symmetrisch)

Bestimme A(j) wie folgt: Falls aj+2,j = · · · = anj = 0, so nachster Schritt (j → j+1).

(i) s :=√∑n

i=j+1 a(j−1)2ij

Falls s = 0, nachster Schritt, sonst

t = a(j−1)j+1,j , c = (s + |t|) · s

(ii) Berechne den Vektor ω gemaß:

ω(j)i = 0 (i = 1, . . . , j),

ω(j)j+1 = t + s · σ(t),

ω(j)i = a

(j−1)ij (i = j + 2, . . . , n), mit σ(t) =

1 t ≥ 0

−1 t < 0

(iii) Bestimme dann die Matrix A(1) nach den Formeln:

u(j) =1cA(j−1)ω(j)

v(j) = u(j) − 12c

ω(j)(ω(j))u(j)

A(j) = A(j−1) − v(j)ω − ω(j)(v(j))

Beispiel 2.25 Wir verwenden die Matrix, die wir schon im Beispiel 2.18 auf Seite106 bearbeitet haben.

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠

Auch hier gleich zu Beginn die Erkenntnis, daß die Elemente a31 und a41 schon frei-willig verschwunden sind und wir nur noch den Algorithmus fur j = 2 durchfuhrenmussen. Lediglich das Element a42 muß noch bearbeitet werden. Wir erhalten

s :=

√√√√ n∑i=j+1

a(j−1)2ij = 5,

Page 127: 3486584472_Mathem

114 2 Numerik fur Eigenwertaufgaben

t = a(j−1)j+1,j = −4, c = (s + |t|) · s = 45.

Damit folgt weiter

ω(2) = (0, 0,−9, 3),

u(2) =1cA(0)ω(2) = (0, 1, 0.13, 0.53)

v(2) := u(2) − 12c

ω(2)(ω(2))u(2) = (0, 1, 0.173, 0.52),

und schon konnen wir als Endergebnis die Matrix A(2) berechnen:

A(2) = A(0) − v(2)(ω2) − ω(2)(v(2)) =

⎛⎜⎜⎝

1 2 0 02 4 5 00 5 2.121 3.160 0 3.16 1.88

⎞⎟⎟⎠ .

Dieses Beispiel belegt den wichtigen Vorteil des Householder–Verfahrens, den wir obenangesprochen haben: symmetrisch bleibt symmetrisch, eine symmetrische Matrix wirddemnach in eine Tridiagonalmatrix umgeformt. Beim Wilkinson–Verfahren geht dieseSymmetrie verloren. Wir formulieren dies als Satz.

Satz 2.26 Das Householder–Verfahren erhalt die Symmetrie, die nach Householdergespiegelte Matrix einer symmetrischen Matrix ist wieder symmetrisch. Bringt mandaher eine symmetrische Matrix nach Householder auf Hessenberg–Form, so ist dieseeine Tridiagonalmatrix.

Beweis: Unmittelbar aus der Formel (2.12) folgt

(A(j)) =(P (j) · A(j−1) · P (j)

)= (P (j)) · (A(j−1)) · (P (j))

= P (j) · A(j−1) · P (j)

= A(j)

weil wir ja im Satz 2.21 uns schon Gedanken uber die Symmetrie der Transformati-onsmatrix P gemacht haben.

Mit der Zuruckfuhrung auf Hessenberg–Form haben wir erst eine Teilarbeit zur Be-stimmung der Eigenwerte geleistet. Wir mussen und werden uns im folgenden Ab-schnitt uberlegen, wie uns diese Hessenberg–Form weiterbringt.

Page 128: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 115

2.4.4 Das Verfahren von Hyman

In diesem Abschnitt betrachten wir ausschließlich Matrizen in Hessenberg–Form. Da-bei wollen wir außerdem verlangen, daß diese nicht in solche kleinerer Ordnung zerfal-len. Alle Elemente in der unteren Parallelen zur Hauptdiagonalen seien also ungleichNull. Das ist keine wesentliche Einschrankung, denn sonst ware es doch wohl kluger,gleich die kleineren Matrizen zu betrachten.Hyman hat 1957 vorgeschlagen, fur eine Hessenberg–Matrix H = (hij) das folgendelineare Gleichungssystem zu betrachten.

(h11 − λ)x1 + h12x2 + . . . + h1,n−1xn−1 + h1nxn = −kh21x1 + (h22 − λ)x2 + . . . + h2,n−1xn−1 + h2nxn = 0

.. ....

......

hn,n−1xn−1 + (hnn − λ)xn = 0

wobei der Parameter k in der ersten Zeile noch zu bestimmen ist. Setzen wir xn := 1,so lassen sich nacheinander xn−1, xn−2, . . ., x1 und k berechnen. Andererseits laßtsich xn direkt mit der Cramerschen Regel berechnen. Aus dem Vergleich 1 = xn

erhalt man eine Formel zur Berechnung des charakteristischen Polynoms; denn in derLosung nach Cramer taucht ja im Nenner die Determinante des Systems, also dascharakteristische Polynom auf. Leider tritt in der Formel auch der Parameter k auf,so daß man rekursiv die Werte xn−1, . . ., x1 berechnen muß. Das ganze hat Hyman inden folgenden Algorithmus zusammengefaßt (vgl. S. 116).

Der Algorithmus liefert also zuerst mal das charakteristische Polynom in der Verander-lichen λ. Aus dem zweiten Teil entnimmt man die Ableitung des charakteristischenPolynoms p′(λ). Der wahre Trick zeigt sich aber erst, wenn man fur einen Eigenwertnur eine Naherung λ kennt. Dann kann man namlich mit dem Algorithmus den einzel-nen Wert p(λ) des charakteristischen Polynoms an dieser Stelle ausrechnen, ohne dasganze Polynom aufstellen zu mussen. Zugleich erhalt man mit wenig Mehraufwandden Ableitungswert p′(λ) an diesem Naherungswert. Dann kann man aber sofort mitdem Newton–Verfahren (vgl. Kapitel 6) einen weiteren und hoffentlich besseren Nahe-rungswert fur diesen Eigenwert berechnen. Wir uben das im folgenden Beispiel.

Beispiel 2.27 Betrachten wir die folgende Matrix

H =

⎛⎝ 2 3 1

3 4 00 1 6

⎞⎠ .

Zuerst bestimmen wir das charakteristische Polynom p(λ) von H mit dem Verfahrenvon Hyman. Anschließend berechnen wir, von der Naherung λ = 7 ausgehend, eineneue Naherung mit Hilfe des Newton–Verfahrens.

Die Matrix H ist offensichtlich bereits in Hessenberg–Form (darum haben wir sie auchschon H genannt). Mit dem oben geschilderten Algorithmus berechnen wir mit der

Page 129: 3486584472_Mathem

116 2 Numerik fur Eigenwertaufgaben

Verfahren von Hyman (n = 3)fur Hessenberg–Matrizen

Sei H = (hij) eine nichtzerfallende Hessenbergmatrix mit dem charakteristischenPolynom

p(λ) = (−1)3 · h21 · h32 · ϕ(λ)

Dann berechnet sich ϕ(λ) mit den Setzungen h10 = 1, x3 = 1, y3 = 0 aus denFormeln:

x2 =1

h32[λx3 − h33x3]

x1 =1

h21[λx2 − h22x2 − h23x3]

ϕ(λ) = x0 =1

h10[λx1 − h11x1 − h12x2 − h13x3]

y2 =1

h32[x3 + λy3 − h33y3]

y1 =1

h21[x2 + λy2 − h22y2 − h23y3]

ϕ′(λ) = y0 =1

h10[x1 + λy1 − h11y1 − h12y2 − h13y3]

Ist λ ein Eigenwert von H, so ist x = (x1, x2, x3) ein zugehoriger Eigenvektor.

Vorgabe x3 := 1 die Hilfsgroßen

x2 =1

h32[λx3 − h33x3] =

11

[λ · 1− 6 · 1] = λ− 6

x1 =1

h21[λx2 − h22x2 − h23x3] =

13

[λ(λ− 6)− 4(λ− 6)− 0 · 1]

=λ2 − 6λ− 4λ + 24

3=

λ2 − 10λ + 243

x0 = x0(λ) =1

h10[λx1 − h11x1 − h12x2 − h13x3]

=11

λ2 − 10λ + 243

− 2 · λ2 − 10λ + 243

− 3(λ− 6)− 1 · 1]

=λ3 − 12λ2 + 44λ− 48

3− 3λ + 17

und daraus ergibt sich unmittelbar das charakteristische Polynom

p(λ) = (−1)3 · h21 · h32x0(λ) = −λ3 + 12λ2 − 35λ− 3.

Page 130: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 117

Nehmen wir nun an, jemand hatte uns verraten, daß die Matrix H einen Eigenwert λin der Nahe von 7 hat. Wir verbessern diese Naherung durch einen Newton–Schritt,indem wir die Werte p(7) und p′(7) nach Hyman berechnen. Dazu durchlaufen wirden Algorithmus mit dem festen Wert λ = 7 und setzen zuvor x3 = 1.

x2 =11

[7 · 1− 6 · 1] = 1,

x1 =13

[7(7 − 6)− 4(7− 6)− 0 · 1] = 1,

x0 =11

[7 · 1− 2 · 1− 3 · 1− 1 · 1] = 1.

Das fuhrt zu

p(7) = (−1)3 · 3 · 1 · 1 = −3.

Dasselbe Spielchen nun noch mit den y’s, indem wir zuvor y3 = 0 setzen.

y2 =11

[1 + 7 · 0− 6 · 0] = 1,

y1 =13

[1 + 7 · 1− 4 · 1− 0] =43,

y0 = 1 + 7 · 43− 2 · 4

3− 3 · 1− 1 · 0 =

143

.

Daraus berechnen wir den Ableitungswert zu

p′(7) = (−1)3 · 3 · 1 · 143

= −14.

Mit diesen beiden Werten rechnen wir eine neue Naherung nach Newton aus.

λ(0) = 7, λ(1) = λ(0) − p(λ(0))p′(λ(0))

= 7− −3−14

= 6.7857

Nun konnten wir diesen Wert erneut in den Algorithmus einsetzen und einen weiterenNaherungswert berechnen. Das uberlassen wir aber lieber einem Rechner, der Gangder Handlung ist doch wohl geklart.Zum Vergleich geben wir die exakten Eigenwerte der Matrix H an.

λ1 = −0.0833, λ2 = 5.3382, λ3 = 6.7451.

Wir haben uns also an den Eigenwert λ3 herangepirscht.

2.4.5 Shift

Bevor wir zum wichtigsten Verfahren dieser Gruppe, dem Q–R–Verfahren kommen,mussen wir einen besonderen Trick erklaren, der sich spater auszahlen wird, das so-genannte Shiften. Was geschieht, wenn man von den Hauptdiagonalelementen einerMatrix A eine feste Zahl subtrahiert?

Page 131: 3486584472_Mathem

118 2 Numerik fur Eigenwertaufgaben

Satz 2.28 Sei A eine beliebige (n × n)–Matrix und a eine reelle Zahl. Hat A denEigenwert λ, so hat die Matrix A− aE den Eigenwert λ− a.

Das bedeutet, durch diese Subtraktion einer reellen Zahl von den Hauptdiagonal-elementen werden alle Eigenwerte um diesen Subtrahenden verschoben oder wie wirvornehm sagen, geshifted, ja, so sagt man das tatsachlich, auch wenn es sich ordinaranhort (direkt auf den Rasen??).Der Beweis ist sehr einfach, darum wollen wir ihn nicht ubergehen.Beweis: Die folgende Gleichungskette ist unmittelbar einzusehen, wobei das letzteGleichheitszeichen gerade die Voraussetzung, daß λ Eigenwert von A ist, wiedergibt:

det ((A− aE)− (λ− a)E) = det (A− aE − λE + aE) = det (A− λE) = 0,

was wir behauptet haben. Wir fassen den Shift–Vorgang folgendermaßen zusammen:

Shift

Sei λ ein Eigenwert der Matrix A. Sodann betrachtet man statt der Matrix A dieMatrix

A = A− aE Shift

Man subtrahiert also von den Diagonalelementen die reelle Zahl a. Das fuhrt zueiner Matrix A, welche λ− a als Eigenwert hat.

Beispiel 2.29 Gegeben sei die Matrix

A =(

2 11 4

).

Berechnen Sie ihre Eigenwerte und vergleichen Sie diese mit den Eigenwerten der um2 geshifteten Matrix A− 2E.

Aus der Berechnung der Eigenwerte wollen wir keinen Herrmann machen. Die charak-teristische Gleichung lautet

p(λ) = λ2 − 6λ + 7 = 0,

und daraus berechnet man

λ1,2 = 3±√

2 =

4.41421.5858

Das Shiften ist hier das neue, also schreiben wir die um 2 geshiftete Matrix nieder.

A =(

0 11 2

).

Page 132: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 119

Ihre charakteristische Gleichung lautet

p(λ) = λ2 − 2λ− 1 = 0.

Die Nullstellen sind hier

λ1,2 = 1±√

2 =

2.4142−0.4142

,

also wie nicht anders zu erwarten, gerade die um 2 verminderten Werte von oben.

2.4.6 Q–R–Verfahren

Dieses Verfahren beruht in seinem wesentlich Teil auf der im Abschnitt 1.7 geschil-derten Q–R–Zerlegung einer Matrix A. Jetzt wollen wir aber kein Gleichungssystemlosen, sondern sind an den Eigenwerten einer Matrix interessiert. Wenn wir schon ander Matrix rummanipulieren, so sollte das so geschehen, daß die Eigenwerte gleichbleiben. Wie schon bei fruheren Verfahren werden wir uns also auf Ahnlichkeitstrans-formationen sturzen. Ein Trick, den J. G. F. Francis 1961 vorgestellt hat, ist in seinerersten Form noch nicht kraftig genug. Wir schildern diesen originalen Algorithmus,weil er uns den gesamten Q–R–Algorithmus, wie wir ihn spater kennenlernen werden,leichter zu verstehen hilft.

Q–R–Verfahren von Francis

(A) Setze A(0) := A.

(B) Zerlege fur k = 0, 1, . . . die Matrix A(k) in das Produkt einer orthogonalenMatrix Q(k) und einer oberen Dreiecksmatrix R(k) mit

A(k) = Q(k) · R(k). (2.17)

(C) Berechne

A(k+1) = R(k) ·Q(k). (2.18)

Die in Gleichung (2.17) durchzufuhrende Zerlegung laßt sich bekanntlich fur alle qua-dratischen Matrizen durchfuhren. (Wir haben in Abschnitt 1.8 sogar beliebige nichtquadratische Matrizen einbezogen.) Die Gleichung (2.18) bringt dann den entschei-denden Durchbruch. Wir zeigen das im folgenden Satz.

Satz 2.30 Die im obigen Algorithmus vorgeschlagene Transformation A(k) → A(k+1)

ist eine Ahnlichkeitstransformation.

Page 133: 3486584472_Mathem

120 2 Numerik fur Eigenwertaufgaben

Beweis: Der Beweis ergibt sich fast von selbst. Wir losen die Gleichung (2.17) nach Rauf, mussen dazu also diese Gleichung mit der inversen Matrix von Q von links mul-tiplizieren. Das ist moglich, denn naturlich ist eine orthogonale Matrix auch regular,also invertierbar. So erhalt man

R = Q−1 ·A(k).

Das setzen wir in die Gleichung (2.18) ein und sehen schon die Ahnlichkeit vor uns:

A(k+1) = Q−1 ·A(k) ·Q.

Hier wird man naturlich noch ausnutzen, daß wegen der Orthogonalitat von Q gilt:

Q−1 = Q.

Damit sind also die Eigenwerte von A(k+1) dieselben wie die der Matrix A(k) unddaher wie die der Matrix A.

Das Ziel des Verfahrens wird im folgenden Satz deutlich.

Satz 2.31 Ist die Matrix A regular und sind ihre Eigenwerte betraglich paarweiseverschieden, so streben die Matrizen A(k) gegen eine obere Dreiecksmatrix, in derenDiagonale dann die gesuchten Eigenwerte stehen.

Dies ist eines der komplexeren Verfahren der numerischen Mathematik. Wir betrachtenam besten zuerst ein einfaches Beispiel, um den Uberblick nicht zu verlieren.

Beispiel 2.32 Gegeben sei die Matrix

A =(

4 31 2

).

An dieser einfachen Matrix wollen wir das originale Vorgehen von Francis demon-strieren.

Um die Matrix in ihre Q–R–Zerlegung zu uberfuhren, verwenden wir den Algorithmusaus dem Abschnitt 1.7 von Seite 57 und bilden

s =√

42 + 12 =√

17,

ω1 =

√12

(1 +

a11

s

)=

√12

(1 +

4√17

)= 0.9925,

ω2 =12

a21

ω1 · s · σ(a11) =12

10.9925 · √17

· 1 = 0.12218.

Damit lautet der Vektor ω = (0.9925, 0.12218) . Die Transformationsmatrix P folgtdurch leichte Matrizenmultiplikation:

P =(

1 00 1

)− 2ω · ω =

( −0.9701 −0.2425−0.2425 0.9701

).

Page 134: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 121

Mit ihr berechnen wir die obere Dreiecksmatrix R.

R = P ·A =( −4.1230 −3.3954

0 1.2127

).

P ist orthogonal, wie man leicht nachpruft. Also gilt PR = A. Wir haben so hierbereits die volle Q–R–Zerlegung geschafft mit

Q = P = P =( −0.9701 −0.2425−0.2425 0.9701

),

und erhalten unsere gesuchte Matrix A(1) durch

A(1) = R ·Q =(

4.8235 −2.2941−0.2941 1.1765

).

Fur die weiteren Schritte, also Matrix A(1) wieder Q–R–zerlegen und das ProduktR ·Q bilden, haben wir einen kleinen Rechner bemuht.

A(2) =(

4.9673 2.06290.0629 1.0327

)

A(3) =(

4.9936 −2.0127−0.0127 1.0064

)

A(4) =(

4.9987 2.00260.0026 1.0013

)

A(5) =(

4.9997 −2.0005−0.0005 1.0003

)

...

A(10) =(

5 20 1

)

Man braucht also zehn Schritte, um die Matrix auf eine Dreiecksform transformiertzu haben. Dann liest man naturlich die Eigenwerte von A als Hauptdiagonalelementedirekt ab:

λ1 = 5, λ2 = 1.

Fur eine solch kleine bescheidene Matrix mußte unser Kollege also ganz schon ran. Dafragt man naturlich nach Verbesserungen. Die ergeben sich, wenn wir uns an die Shift–Strategie erinnern. Baron Rayleigh, den wir spater noch mit einem eigenen Verfahrenkennenlernen werden, und Wilkinson, der fruher schon erwahnt wurde, haben hier dieIdeen geliefert. Wir zeigen den gesamten Q–R–Algorithmus auf Seite 122.

Wieder wollen wir mit einigen Bemerkungen zum Algorithmus beginnen.Die Schritte (I) bis (V) zusammen nennt man einen Q–R–Schritt.

Page 135: 3486584472_Mathem

122 2 Numerik fur Eigenwertaufgaben

Q–R–Verfahren

(A) Uberfuhre A in Hessenberg–Form.

(B) Setze A(0) := A.

(I) Bestimmung des Shifts:

(α) σ = ann ‘Rayleigh-Shift’.

(β) σ der Eigenwert von(

an−1,n−1 an−1,n

an,n−1 ann

), der naher an ann liegt,

‘Wilkinson–Shift’.

(II) Shiftausfuhrung: A(0) = A(0) − σ ·E.

(III) Q–R–Zerlegung: A(0) = Q ·R.

(IV) Berechne A(1) = R ·Q = Q−1 · A(0) ·Q.

(V) Ruckwartsshift: A(1) = A(1) + σ ·E.

Wiederhole Schritte (I) bis (V) solange (das fuhrt zu A(2), A(3), . . .), bisan,n−1 ≈ 0 ist. Damit ist die Hessenbergmatrix A durch Ahnlichkeitstrans-formationen ubergefuhrt worden in eine zerlegbare Matrix:

A →

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a11 · · · · · · · · · a1,n−1 a1n

a21. . .

......

0. . . . . .

......

.... . . . . . . . .

......

0 · · · 0 an−1,n−2 an−1,n−1 an−1,n

0 · · · 0 0 0 an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

(C) Fuhre die Schritte (I) bis (V) mit der ((n − 1) × (n − 1))–Hessenbergmatrixsolange durch, bis das Element an−1,n−2 ≈ 0 ist.

(D) Anschließend die Schritte (I) bis (V) auf die weiteren, jeweils um eine Zeileund Spalte kleiner werdenden Matrizen anwenden, bis schließlich eine Drei-ecksmatrix entstanden ist, in deren Diagonale dann naturlich die gesuchtenEigenwerte stehen.

Page 136: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 123

Gleich zu Beginn irritiert den unbefangenen Leser vielleicht die Forderung, daß manA auf Hessenberg–Form bringen mochte. Das hat einen ganz praktischen Grund, denwir in der folgenden Tabelle dokumentiert finden. Hier haben wir aufgelistet, wievielewesentliche Operationen, das sind nach althergebrachter Sitte lediglich die Multipli-kationen und die Divisionen, fur jedes Verfahren erforderlich sind. Fruher benotigtebei einem Rechner eine Multiplikation zweier Zahlen einen wesenlich hoheren Zeitauf-wand als die Addition. Das hat sich heute stark verandert. Trotzdem bleibt man zurBeurteilung von Verfahren gern bei dieser ”Komplexitatsbetrachtung“, wie man dasPunktchenzahlen wegen der Punktoperationen · und : auch nennt.

Anzahl der wesentlichen Operationen

Verfahren Mult. + Div. Quadratw.

Wilkinson 56n3 +O(n2) −−

Householder, bel. Matrix 53n3 +O(n2) n− 2

Householder, symm. Matrix 23n3 +O(n2) n− 2

Q–R, bel. Matrix 15n3 +O(n2) n− 1

Q–R, Hessenbergmatrix 4n2 +O(n) n− 1

Q–R, Hess., Wilk.–Shift 8n2 +O(n) 2n− 3

Q–R, Tridiag. Matrix 15(n − 1) n− 1

Deutlich sieht man an der Tabelle, daß ein Vorgehen wie im obigen Algorithmus vongroßem Gewinn ist. Zu Beginn muß man einmal ein Verfahren mit n3 vielen Opera-tionen durchfuhren, anschließend nur noch Verfahren mit n2 vielen Operationen. Dakann man schon abchecken, daß bereits fur eine (5×5)–Matrix ein Vorteil rauskommt.Dazu gibt uns der folgende Satz eine wichtige Information.

Satz 2.33 Die Q–R–Zerlegung einer Hessenbergmatrix oder einer tridiagonalen Ma-trix der Ordnung n ist mit n − 1 Rotationsmatrizen oder n − 1 Householdertrans-formationen durchfuhrbar.

Die Rotationsmatrizen werden wir erst im folgenden Abschnitt ”Verfahren von Jacobi“einfuhren. Wir haben sie hier nur der Vollstandigkeit wegen erwahnt.Das ganze Verfahren lauft darauf hinaus, im ersten Teil das Element an,n−1 zu Null,also das Diagonalelement ann zum Eigenwert zu machen. Daher erklart sich derRayleigh–Shift mit eben diesem Diagonalelement. Wilkinson geht etwas sorgfaltigeran dies Problem heran und schlagt als Shift diesen komplizierteren Wert vor. Hier sindzwei wichtige Punkte zu beachten. Erstens verlangt der gesamte Algorithmus nirgends,

Page 137: 3486584472_Mathem

124 2 Numerik fur Eigenwertaufgaben

die Wurzel aus negativen Zahlen zu ziehen. Es wird also mit dem bisherigen Vorge-hen nicht gelingen, einen komplexen Eigenwert, den auch eine reelle Matrix besitzenkann, zu ermitteln, weil man nie in die komplexe Rechnung einsteigen muß. Mit demWilkinson–Shift kann das aber geschehen. Der Eigenwert dieser (2 × 2)–Matrix kannja komplex sein. Da muß man also auch und gerade beim Programmieren gewarntsein, selbst ohne außeres Zutun kann komplexe Arithmetik erforderlich werden. Wennaber ein Eigenwert komplex ist, so fragt man sich zweitens, wie man von den beidenEigenwerten, den wahlen soll, der ann am nachsten liegt. Bei einer reellen Matrix istdieser zweite doch stets der konjugiert Komplexe zum ersten, der hat aber von je-dem Element der reellen Achse den gleichen Abstand wie der erste Eigenwert. Dannlauft unser Algorithmus ins Leere. In diesem Fall wird ein sogenannter Doppelschrittvorgeschlagen. Im ersten Q–R–Schritt, also den Schritten (I) bis (V), verwenden wireinen der beiden komplexen Eigenwerte, dann fuhren wir denselben Q–R–Schritt nocheinmal mit dem konjugiert komplexen Eigenwert durch.

Der nachste Satz gibt die wesentliche Aussage, daß unser Algorithmus in der vorge-stellten Form sinnvoll ist.

Satz 2.34 1. Die Q–R–Transformierte einer Hessenbergmatrix, also die mit derQ–R–Zerlegung von A, A = Q · R, gewonnenen Matrix A1 = Q · A · Q istwieder eine Hessenbergmatrix.

2. Die Q–R–Transformierte einer symmetrischen Matrix ist wieder eine symmetri-sche Matrix.

3. Insbesondere ist die Q–R–Transformierte einer symmetrischen tridiagonalen Ma-trix wieder symmetrisch und tridiagonal.

Aha, Hessenberg bleibt Hessenberg, tridiagonal bleibt tridiagonal. Nach einem voll-standigen Q–R–Schritt haben wir unsere Anfangsaufgabe, A auf Hesssenberg–Formzu bringen, nicht zerstort. Wir konnen daher den Algorithmus weiterfuhren.Beweis: Wir wollen hier lediglich zeigen, daß beim Q–R–Verfahren die Symmetrienicht verloren geht. Sei also A eine symmetrische Matrix. Wir zeigen dann, daß beimSchritt von k nach k+1 die Symmetrie nicht verloren geht; sei also fur ein k die MatrixA(k) symmetrisch. Der Shiftvorgang andert lediglich die Diagonalelemente, stort alsodie Symmetrie nicht. Daher ist auch A(k) symmetrisch. Nun kommt der eigentlicheQ–R–Schritt:

(A(k+1)) = ((Q(k))−1 · A(k) ·Q(k)) = (Q(k)) · (A(k)) · ((Q(k))−1)

= (Q(k)) · A(k) ·Q(k) = A(k+1),

wobei wir die vorgegebene Symmetrie von A(k) und die Orthogonalitat von Q(k) aus-genutzt haben.

Page 138: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 125

Wenn man das Verfahren an Beispielen durchfuhrt, erkennt man, daß die Elementeunterhalb der Diagonalen sehr schnell gegen Null streben. Die folgende Konvergenz-ordnung stellt sich fast immer ein. Nur in Sonderfallen kann es schiefgehen, die werdenaber in der Praxis infolge von Rundungsfehlern nie erreicht.Bei beliebigen Hessenberg–Matrizen konvergieren die Elemente unterhalb der Diago-nalen quadratisch gegen Null (vgl. Def. 10.63 S. 379).Bei symmetrischen Matrizen konvergieren die Elemente unterhalb der Diagonalen ku-bisch gegen Null.Ein Beweis fur diese Aussagen ist in der Literatur nur schwer zu finden. Wir gehen hiermal den etwas unmathematischen Weg und zeigen die Behauptung an einer kleinen(2× 2–Matrix, in der wir aber eine kleine Zahl ε an die entscheidende Stelle stecken.Gegeben sei mit ε > 0 die Matrix

A =(

1 εε 2

).

Wir fuhren einen Schritt des QR–Verfahrens durch unter Einschluß eines Shifts mitdem Element a22 = 2 und beobachten die Veranderung des Elementes a12 = ε, indiesem einfachen Fall das einzige Element unterhalb der Diagonalen.Offensichtlich ist A bereits in Hessenbergform, da es ja unterhalb der Parallelen zurHauptdiagonalen keine Elemente mehr gibt. Wir setzen A(0) =: A.Ein Wilkinson–Shift verbietet sich ebenfalls, weil A ja insgesamt nur zwei Zeilen undSpalten besitzt.Also kommt zuerst der Rayleight–Shift:

A(0) := A(0) − 2E =( −1 ε

ε 0

).

Als nachstes wird diese Matrix QR–zerlegt.

s =√

1 + ε2, t = −1, c =√

1 + ε2(√

1 + ε2 + 1).

Damit ist

ω =( −1−√

1 + ε2

ε

)

Damit folgt

ω · ω =(

(1 +√

1 + ε2)2 −ε(1 +√

1 + ε2)−ε(1 +

√1 + ε2) ε2

)

Das fuhrt schnell zur Berechnung der Transformationsmatrix

Q =(

1 00 1

)− 1

c· ω · ω =

( −1√1+ε2

ε√1+ε2

ε√1+ε2

1√1+ε2

)

Page 139: 3486584472_Mathem

126 2 Numerik fur Eigenwertaufgaben

Als obere Dreiecksmatrix R erhalten wir

R := Q · A(0) =

( √1 + ε2 −ε√

1+ε2

0 ε2√1+ε2

)

Jetzt kommt der entscheidende Trick, wir bilden die neue Matrix A(1), so daß sieahnlich zu A(0) ist:

A(1) := R ·Q =1

1 + ε2·( −1− 2ε2 ε3

ε3 ε2

)

Nun muß zum guten Ende noch der Shift ruckgangig gemacht werden:

A(1) = A(1) + 2E =1

1 + ε2·(

1 ε3

ε3 2 + 3ε2

)

An diesem kleinen Beispiel sieht man, daß in der Tat das Element a21 mit der drittenPotenz gegen Null geht. Sicherlich ist es nicht genug, und das muß man einem Mathe-matiker nicht erklaren, daß man ein Beispiel testet, aber ein gewisser Hinweis ergibtsich schon auf die Richtigkeit.Interessant ist zusatzlich die Feststellung, daß die Ausgangsmatrix symmetrisch war;wenn wir das andern, also die Matrix

B =(

1 aε 2

)

mit dem QR–Verfahren mit Shift behandeln, so entsteht links unten nur ε2; also wirdman fur nicht symmetrische Matrizen lediglich erwarten konnen, daß das Elementan,n−1 quadratisch gegen Null geht.

Jetzt bleibt nur noch, an handfesten Rechenbeispielen das ganze Verfahren zu uben.

Beispiel 2.35 Betrachten wir wieder die Matrix vom vorigen Beispiel

A =(

4 31 2

),

und fuhren wir den Q–R–Algorithmus jetzt mit Rayleigh–Shift durch. Offensichtlichist die Shiftstrategie nach Wilkinson sinnlos. Zur Berechnung des Shifts mußte manja bereits die Eigenwerte von A berechnen.

Wir subtrahieren dazu von der Diagonale das Element a22 = 2 und erhalten die Matrix

A =(

2 31 0

).

Page 140: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 127

Diese Matrix mussen wir nun wieder wie oben Q–R–zerlegen.

s =√

22 + 12 =√

5,

ω1 =

√12

(1 +

a11

s

)=

√12

(1 +

2√5

)= 0.9732,

ω2 =12

a21

ω1 · s · σ(a11) =12

10.9732 · √5

· 1 = 0.2298.

Wir erhalten also ω = (0.9732, 0.2298) . Einfaches Ausmultiplizieren beschert uns dieTransformationsmatrix

P =(

1 00 1

)− 2ωω =

( −0.8944 −0.4472−0.4472 0.8944

).

Mit ihr berechnen wir die obere Dreiecksmatrix R.

R = P · A =( −2.2361 −2.6683

0 −1.3416

).

Wie wir wissen, ist P orthogonal, was man auch leicht nachpruft. Also gilt PR = A.Wir haben so hier bereits die volle Q–R–Zerlegung geschafft mit

Q = P =( −0.8944 −0.4472−0.4472 0.8944

)

und erhalten unsere gesuchte Matrix A(1) durch

A(1) = R · P =(

3.2 −1.40.6 −1.2

).

Jetzt mussen wir noch den Shift ruckgangig machen und bekommen

A(1) = A(1) + 2E =(

5.2 −1.40.6 0.8

).

Damit ist der erste Schritt des Q–R–Verfahrens mit Rayleighshift abgeschlossen. Nunmußten wir erneut shiften, diesmal um 0.8, anschließend die neue Matrix wieder Q–R–zerlegen, dann das Produkt R ·Q bilden und zuruckshiften und so fort. Wir habendafur wieder unseren kleinen Hilfsknecht, den Freund Computer bemuht und folgendesErgebnis erzielt:

A(2) =(

5.012567 1.974442−0.025558 0.987424

)

A(3) =(

5.000040 1.9999200.000080 0.999960

)

A(4) =(

5 20 1

)

Das ging schnell, wesentlich schneller als vorher ohne Shift. Nach vier Iterationen wardas Ergebnis erreicht, das vorher zehn Iterationen erforderte.

Page 141: 3486584472_Mathem

128 2 Numerik fur Eigenwertaufgaben

2.4.7 Verfahren von Jacobi

Eine andere Idee, samtliche Eigenwerte auf einen Rutsch zu bestimmen, stammt vonJacobi (1804 – 1851). Eine ubliche Voraussetzung ist dabei, daß die Matrix A symme-trisch sei. Zum einen vereinfacht das die Berechnung wesentlich, zum anderen wissenwir, daß symmetrische Matrizen diagonalahnlich sind. Es gibt also eine regulare MatrixT mit

T−1AT = D. (2.19)

In diesem Verfahren wird die Diagonalmatrix D durch einen iterativen Prozeß be-stimmt. Es gibt Abwandlungen des Verfahrens auch fur nichtsymmetrische Matrizen.

Die grundlegende Idee lautet

Verwendung von Drehmatrizen

Drehmatrizen sind von folgender Bauart:

Definition 2.36 Die Matrix⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1...

... 0. . .

......

· · · · · · c · · · s · · · · · ·...

. . ....

· · · · · · −s · · · c · · · · · ·...

.... . .

0...

... 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

T (k) =

p q

p-te Zeile

q-te Zeile

wobei s := sinϕ, c := cos ϕ,Diag-El. sonst = 1,Rest = 0.

heißt Jacobi–Rotationsmatrix

Man beachte, wo wir den Wert sin ϕ und wo den Wert cos ϕ hingeschrieben haben.Das ist in der Literatur unterschiedlich zu finden. Vertauscht man die beiden Werte,so andern sich die spateren Formeln, aber im Endeffekt bleibt alles gleich.

Satz 2.37 Die Jacobi–Rotationsmatrizen sind orthogonal, also gilt

T−1 = T.

Page 142: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 129

Beweis: Der Beweis ist klar wegen der bekannten Beziehung

sin ϕ2 + cos ϕ2 = 1.

Eine vollstandige Jacobi–Transformation lautet nun in Anlehnung an obige Gleichung(2.19)

A(1) = TAT.

Den Winkel ϕ bestimmen wir dabei so, daß das betraglich großte Element in derMatrix A oberhalb der Diagonalen gleich Null wird. Den gesamten Vorgang fassen wiralgorithmisch auf Seite 130 zusammen.

Satz 2.38 Eine Jacobi–Rotation ist eine Ahnlichkeitstransformation.Ist die Ausgangsmatrix symmetrisch, so ist auch die transformierte Matrix symme-trisch.

Beweis: Wir fassen nur die beiden Schritte 3 und 4 zusammen und erhalten:

A(k) := T (k)A(k−1)T (k).

Wegen der Orthogonalitat der Jacobimatrizen (T (k) = T (k)−1) ist das eine Ahnlich-keitstransformation.Die Symmetrie erkennt man so:

(A(k)) = (T (k) · A(k−1) · T (k)) = T (k) ·A(k−1) · T (k)

Da also somit alle Rotationen Ahnlichkeitstransformationen waren, hat die MatrixA(k) dieselben Eigenwerte wie die ursprungliche. Das ganze Verfahren wird aber erstdadurch interessant, daß die Elemente außerhalb der Diagonalen alle miteinander ge-gen Null streben, wie der folgende Satz lehrt, dessen Beweis aber recht kompliziertist.

Satz 2.39 Die im obigen Algorithmus konstruierte Matrixfolge (A(k))k=1,2,... konver-giert gegen eine Diagonalmatrix, deren Elemente die Eigenwerte von A sind.

Nach Ablauf einer Rotation ist zwar die im vorigen Schritt mit Muhe erhaltene 0wieder verschwunden, aber es sollte eine wesentlich kleinere Zahl dort stehen, wogegenan der jetzt gewahlten Stelle (p, q) eine 0 steht. So fortfahrend, entsteht nach und nacheine Matrix, die außerhalb der Diagonale nur noch sehr kleine Zahlen hat, also gegeneine Diagonalmatrix konvergiert. Das sind dann gerade die Eigenwerte.

Page 143: 3486584472_Mathem

130 2 Numerik fur Eigenwertaufgaben

Algorithmus nach Jacobi:

Sei A eine symmetrische (n× n)-Matrix. Setze

A0 := A.

1 Fur k = 1, 2, . . . wahle p,q so, daß a(k−1)pq das betragsgroßte Element außerhalb

der Diagonale in A(k−1) ist.

2 Berechne sin ϕ und cos ϕ aus:

cot 2ϕ =aqq − app

2apq, −π

4< ϕ <

π

4,

t := (tan ϕ) =σ(cot 2ϕ)

| cot 2ϕ| +√

1 + cot2 2ϕ, mit σ(t) =

1 t ≥ 0

−1 t < 0

cos ϕ =1√

1 + t2, sin ϕ = t · cos ϕ.

und stelle damit die Jacobi–Matrix T (k) auf.

3 Berechne

A(k) := T (k) ·A(k−1)

4 Berechne

A(k) = A(k) · T (k)

Wegen der Dreheigenschaften der Matrizen T (k) nennt man den bis hierhererfolgten Ablauf eine Jacobi–Rotation. Diese ist eine Ahnlichkeitstransforma-tion.Nach Durchfuhrung einer solchen steht, wenn keine Rundungsfehler auftreten,an der Stelle (p, q) in der Matrix eine 0.

Das Verfahren wird fortgesetzt, indem man wieder bei 1 beginnt.

Wir wollen noch mit zwei kleinen Bemerkungen eine Hilfestellung geben, wie sich dieSchritte 3 und 4 auswirken.

Die Multiplikation der Matrix A von links mit der Matrix T verandert nur die p–te

Page 144: 3486584472_Mathem

2.4 Das vollstandige Eigenwertproblem 131

und die q–te Zeile von A:

T · A →

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a11 a12 . . . . . . a1n...

......

ap1 ap2 . . . . . . apn...

......

aq1 aq2 . . . . . . aqn...

......

an1 an2 . . . . . . ann

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (2.20)

Ganz analog verandert die Multiplikation der Matrix A von rechts mit der Matrix Tnur die p–te und die q–te Spalte von A:

A · T →

⎛⎜⎜⎜⎜⎜⎜⎝

a11 . . . a1p . . . a1q . . . a1n

a21 . . . a2p . . . a2q . . . a2n...

......

......

......

...an1 anp . . . anq ann

⎞⎟⎟⎟⎟⎟⎟⎠

. (2.21)

Nun zur Ubung wieder die Matrix, deren Eigenwerte wir schon in den Beispielen 2.18und 2.25 (vgl. S. 106 und 113) angenahert haben.

Beispiel 2.40 Gegeben sei wieder die Matrix

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠ .

Wir berechnen naherungsweise ihre Eigenwerte mit dem Jacobi–Verfahren.

Wir gehen bei der Bearbeitung genau nach obigem Algorithmus vor.

1 A ist symmetrisch; zur Suche nach dem betragsgroßten Element mussen wir alsonur oberhalb der Diagonalen suchen. Fundig werden wir bei a23 = −4. Wir wahlendeshalb p = 2, q = 3.

2 Wir berechnen die Winkel der Rotationsmatrix.

cot 2ϕ =aqq − app

2apq=−1− 42 · (−4)

= 0.625

t =σ(cot 2ϕ)

| cot 2ϕ| +√

1 + cot2 2ϕ=

10.625 +

√1 + 0.6252

= 0.5543

cos ϕ =1√

1 + t2= 0.8746, sin ϕ = t · cos ϕ = 0.4848

Page 145: 3486584472_Mathem

132 2 Numerik fur Eigenwertaufgaben

Mit diesen beiden Werten fur cos ϕ und sin ϕ konnen wir die TransformationsmatrixT (1) aufstellen

T (1) =

⎛⎜⎜⎝

1 0 0 00 0.8746 0.4848 00 −0.4848 0.8746 00 0 0 1

⎞⎟⎟⎠

3 und mit ihr das Produkt bilden

A = (T (1)) ·A =

⎛⎜⎜⎝

1.0000 2.0000 0.0000 0.00001.7493 5.4376 −3.0138 3.10870.9595 −1.5595 −2.8137 0.55790.0000 3.0000 −1.0000 5.0000

⎞⎟⎟⎠ .

Man sieht deutlich, daß sich bei dieser Multiplikation nur die zweite und dritte Zeilegeandert haben. Das kann und sollte man bei der Programmierung dringend ausnut-zen.

4 Die gesamte Jacobirotation ergibt sich nun, wenn wir die folgende Multiplikationausfuhren.

A(1) = A · T (1) =

⎛⎜⎜⎝

1.0000 1.7493 0.9695 0.00001.7493 6.2170 0.0000 3.10870.9695 0.0000 −3.2170 0.57970.0000 3.1087 0.5797 5.0000

⎞⎟⎟⎠ .

Hier blieben die erste und vierte Spalte ungeandert, wahrend die zweite und dritteSpalte neue Werte erhielten. Die entstandene Matrix ist wieder symmetrisch, wie fein.Und sie hat an der Stelle a23 eine Null. Das war das Ziel dieser Arbeit und damit dererste Schritt des Algorithmus.Im nachsten Schritt beginnen wir wieder vorne und werden das Element a24 zu Nullmachen, da es das betraglich großte außerhalb der Diagonalen ist. Wir geben dieRechnung nur in Kurzform an. Die Werte fur sin und cos lauten

cos ϕ = 0.7720, sin ϕ = −0.6356.

Damit wird rotiert, und wir erhalten

A(2) =

⎛⎜⎜⎝

1.0000 1.3505 0.9695 −1.11181.3505 8.7762 0.3684 0.00000.9695 0.3684 −3.2170 0.4475

−1.1118 0.0000 0.4475 2.4408

⎞⎟⎟⎠ .

Nun ist die im ersten Schritt muhsam gewonnene Null an der Stelle a23 wieder zer-ronnen, dafur steht eine neue an der Stelle a24. Zugleich sieht man aber, daß alleZahlen außerhalb der Diagonalen deutlich dem Betrage nach kleiner geworden sind.

Page 146: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 133

Fuhren wir mit Hilfe eines Rechners funfzehn derartige Schritte durch, so erhalten wirfolgende Diagonalmatrix

A(15) =

⎛⎜⎜⎝

0.4978 0.0000 0.0000 0.00000.0000 9.0312 0.0000 0.00000.0000 0.0000 −3.5087 0.00000.0000 0.0000 0.0000 2.9796

⎞⎟⎟⎠ . (2.22)

Damit ist die Rechnung zum glucklichen Abschluß gebracht; denn naturlich stehenin dieser Matrix in der Hauptdiagonalen die Eigenwerte. Da diese Matrix ahnlich zurAusgangsmatrix ist, sind das zugleich auch die Eigenwerte der Matrix A.Eine Schlußbemerkung darf nicht fehlen. Es ist in der Regel bei großen Matrizen vielzu aufwendig, jedesmal die betraglich großte Zahl außerhalb der Diagonalen zu suchen.Daher wird die folgende Abwandlung vorgeschlagen.Zyklisches Jacobi–VerfahrenMan bearbeite der Reihe nach die Elemente

a12 → a13 → . . . → a1n

→ a23 → . . . → a2n

→ . . . → .... . .

...→ an−1,n

Anschließend beginnt man wieder oben und laßt das so oft durchlaufen, bis dieseZahlen hinreichend klein sind. Eventuell kann man nach ein paar Durchlaufen eineAbschatzung der Eigenwerte nach Gerschgorin vornehmen, um zu entscheiden, wielange der Rechner noch schaffen soll.

2.5 Das partielle Eigenwertproblem

Haufig verlangt der Praktiker nicht samtliche Eigenwerte einer Matrix. Gerade beidynamischen Problemen interessiert vor allem der kleinste Eigenwert einer Aufgabe.Wann fangt mein System zuerst an zu schwingen? Die hoheren Eigenschwingungenwerden nur in extremen Lagen erreicht. Echte Anwendungen begnugen sich in den sel-tensten Fallen mit (3× 3)–Matrizen. Da klotzt so manche Berechnung mit Tausendenvon Gleichungen.Bei solchen Aufgaben wurde uns das sonst so lobenswerte Q–R–Verfahren viel zulange aufhalten. Es gibt ein paar probate Ideen, wie man solch ein partielles Eigen-wertproblem geschickt anpackt. Die erste stammt von Richard Edler von Mises1. JohnWilliam Strutt, der dritte Baron Rayleigh2 bringt eine weitere Variante ins Spiel. Bei-de berechnen iterativ den betraglich großten Eigenwert. Wielandt schließlich zeigt,wie man das von Mises–Verfahren erfolgreich zur Berechnung des betraglich kleinstenEigenwertes einsetzen kann.

1Richard Edler von Mises (1883 – 1953)2John William Strutt, der dritte Baron Rayleigh (1842 – 1919)

Page 147: 3486584472_Mathem

134 2 Numerik fur Eigenwertaufgaben

2.5.1 Von Mises–Verfahren

Der osterreichische Mathematiker Richard Edler von Mises entdeckte 1929 die folgendeEigenschaft bei quadratischen Matrizen A:Wahlt man einen beliebigen Startvektor x(0) und bildet die Iterationsfolge

x(1) = Ax(0), x(2) = Ax(1) = A2x(0), x3 = Ax(2) = A3x(0), . . . , (2.23)

so wird nach einigen Schritten in der Regel der iterierte Vektor ein Vielfaches desvorhergehenden Vektors:

x(ν+1) = Ax(ν) ≈ αx(ν).

Dies ist aber doch genau die Eigenvektorgleichung fur x(ν). Das bedeutet also, daß deriterierte Vektor x(ν) ein Eigenvektor von A mit dem Eigenwert α ist. Wir zeigen dasam folgenden Beispiel.

Beispiel 2.41 Gegeben sei die Matrix

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠ ,

die wir nun schon ofter am Wickel hatten. Ihr großter und zugleich betraglich großterEigenwert ist λ1 = 9.0312.Wir berechnen, ausgehend vom Startvektor x(0) = (1, 0, 0, 0), die iterierten Vektorennach (2.23).

Wir erhalten folgendes Rechenergebnis, wenn wir die Matrix–Vektor–Multiplikationversetzt schreiben:

1 1 5 25 225 1837 16693 1486690 2 10 100 806 7428 65988 5980880 0 −8 −38 −430 −3472 −32478 −2884200 0 6 68 678 6238 56946 515172

1 2 0 0 1 5 25 225 1837 16693 148669 13448452 4 −4 3 2 10 100 806 7428 65988 598088 53888860 −4 −1 −1 0 −8 −38 −430 −3472 −32478 −288420 −26191040 3 −1 5 0 6 68 678 6238 56946 515172 4658544

x(1) x(2) x(3) x(4) x(5) x(6) x(7) x(8)

Bilden wir jetzt die Quotienten der Komponenten des 8. Vektors durch die entspre-chenden des 7. Vektors, so erhalten wir

(9.0459, 9.0102, 9.0809, 9.0427) ,

Page 148: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 135

also bei allen Komponenten fast den gleichen Wert α = 9. Das bedeutet, daß der8. Vektor ungefahr das 9–fache des 7. Vektors ist. Nach obiger Uberlegung ist alsoangenahert x(8) ein Eigenvektor von A mit dem angenaherten Eigenwert λ = 9, wobeider exakte betragsgroßte Eigenwert λ1 = 9.0312 (vgl. die mit Jacobi erreichte ahnlicheDiagonalmatrix A(15) von Seite 133) erst auf zwei signifikante Stellen erreicht ist; damitist noch kein Blumenpott zu gewinnen.

Dies Vorgehen horte sich etwas nach Zufall an. Wir werden jetzt daruber nachdenken,unter welchen Voraussetzungen dieses Verhalten stets eintritt.

Satz 2.42 Sei A eine reelle diagonalahnliche (n × n)–Matrix, die einen betraglichdominanten r–fachen Eigenwert λ1 besitzt:

|λ1| > |λr+1| ≥ · · · ≥ |λn| fur ein r mit 1 ≤ r ≤ n und λ1 = · · · = λr, (2.24)

und sei

u1, . . . , un (2.25)

eine zugeordnete Basis aus Eigenvektoren. Sei x(0) = 0 ein beliebiger Startvektor mitder Darstellung

x(0) = α1u1 + · · ·+ αnun. (2.26)

Ist x(0) so gewahlt, daß

α1u1 + · · ·+ αrur = 0, (2.27)

so konvergiert die Iterationsfolge mit der Konvergenzordnung 1 gegen den zum betrags-großten Eigenwert gehorenden Eigenvektor, und es gibt einen Index k mit 1 ≤ k ≤ n,so daß fur die k–ten Komponenten der von Mises Iterationsfolge (2.23) gilt:

limν→∞

x(ν+1)k

x(ν)k

= λ1. (2.28)

Beweis: Da bei einer reellen Matrix mit jedem Eigenwert λ auch zugleich die kon-jugiert komplexe Zahl λ ein Eigenwert ist, folgt aus (2.24) sofort, daß λ1 reell ist;denn sonst hatten wir ja noch die konjugiert komplexen Eigenwerte mit dem gleichenBetrag, also insgesamt 2r Eigenwerte mit dem gleichen Betrag.Wir setzen die Darstellung (2.26) in die Iterationsfolge 2.23 ein.

x(ν+1) = Ax(ν) = · · · = Aν+1x(0) = Aν+1n∑

i=1

αiui =n∑

i=1

αiλν+1i ui.

Wegen (2.27) gibt es dann eine Komponente, die wir die k–te nennen wollen, mit

α1(u1)k + · · ·+ αr(ur)k = 0. (2.29)

Page 149: 3486584472_Mathem

136 2 Numerik fur Eigenwertaufgaben

Damit folgt

x(ν+1)k =

[r∑

i=1

αi(ui)k

]λν+1

1 +n∑

i=r+1

αiλν+1i (ui)k, ν = 0, 1, 2 . . .

Damit bilden wir nun die Quotienten der k–ten Komponenten und klammern im nach-sten Schritt im Zahler λν+1

1 und im Nenner λν1 aus:

x(ν+1)k

x(ν)k

=

[∑ri=1 αi(ui)k

]λν+1

1 +∑n

r+1 αiλν+1i (ui)k[∑r

i=1 αi(ui)k]λν

1 +∑n

r+1 αiλνi (ui)k

= λ1 ·∑r

i=1 αi(ui)k +∑n

r+1 αi

(λiλ1

)ν+1(ui)k∑r

i=1 αi(ui)k +∑n

r+1 αi

(λiλ1

)ν(ui)k

−→ν→∞ λ1

denn die Quotienten (λi/λ1)ν+1 bzw. (λi/λ1)ν streben ja fur ν → ∞ gegen Null, daλ1 ja der betraglich dominante Eigenwert war. Der Rest kurzt sich raus; denn wegen(2.29) gehen wir auch nicht unter die bosen Nulldividierer. Bemerkungen: Der Satz hort sich mit seinen vielen Voraussetzungen recht kompli-ziert an. Aber niemand wird im Ernst diese Voraussetzungen zuerst nachprufen, umdann von Mises anzuwenden. Man rechnet einfach los. Die Einschrankung, daß derStartvektor geschickt gewahlt werden muß, erweist sich in der Praxis als nebensachlich.Durch Rundungsfehler wird die Bedingung allemal erreicht. Sollte das Verfahren den-noch einmal schief laufen, wahlt man einfach einen anderen Startvektor.An dieser einfachen Vorgehensweise erkennt man aber gleich einen kleinen Nachteil:eventuell werden die Zahlen recht groß, ja es entsteht vielleicht nach kurzer Zeit Expo-nentenuberlauf. Dem kann man aber leicht gegensteuern, indem wir die Linearitat derRechnung ausnutzen. Wir normieren zwischendurch die Vektoren. Hier gibt es meh-rere Vorschlage. Der einfachste besteht darin, nach jeder Multiplikation den neuenVektor durch seine erste Komponente zu dividieren. Mit etwas mehr Aufwand kannman auch die betraglich großte Komponente suchen und alle anderen Komponentendurch sie dividieren.Man kann aber auch jede beliebige Vektornorm verwenden. Dann bildet man die Folge

x(0) bel., x(ν+1) =Ax(ν)

‖Ax(ν)‖ , ν = 0, 1, 2 . . .

Mit dieser gilt die Aussage (2.28) des obigen Satzes in der folgenden Abwandlung

limν→∞ ‖Ax(ν+1)‖ · x

(ν+1)k

x(ν)k

= λ1.

Wir fassen den von Mises–Algorithmus noch einmal auf Seite 137 zusammen fur denFall, daß der betraglich großte Eigenwert einfach ist — das durfte in der Praxis wohlder Normalfall sein.

Page 150: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 137

Von–Mises–Verfahren

Sei A eine diagonalahnliche (n × n)–Matrix mit den (betraglich der Große nachgeordneten) Eigenwerten

|λ1| > |λ2| ≥ |λ3| ≥ · · · ≥ |λn|

und den zugehorigen Eigenvektoren

u1, u2, . . . , un.

Wir wahlen einen Startvektor x(0) = 0 und bilden die Iterationsfolge

x(1) = Ax(0), x(2) = Ax(1) = A2x(0), x3 = Ax(2) = A3x(0), . . .

Laßt sich dann x(0) darstellen in der Eigenvektorbasis als

x(0) = α1u1 + · · · + αnun mit α1 = 0,

so konvergieren die Quotienten aus entsprechenden Komponenten der Vektoren x(ν)

gegen den betraglich großten Eigenwert, falls die jeweilige Komponente uk1 des zum

betragsgroßten Eigenwert gehorenden Eigenvektors nicht verschwindet, also es gilt:

limν→∞

x(ν+1)k

x(ν)k

= λ1, falls uk1 = 0

2.5.2 Rayleigh–Quotient fur symmetrische Matrizen

Der Algorithmus nach von Mises ist recht langsam, halt nur Konvergenzordnung 1.Eine wesentliche Verbesserung bei symmetrischen Matrizen geht auf den dritten BaronRayleigh zuruck, der 1904 den Nobelpreis fur Physik erhielt. Leider hat ja Herr Nobelkeinen Preis fur eine herausragende mathematische Leistung vergeben. Es geht dasGerucht, daß einen solchen Preis damals der bekannte Mathematiker Mittag–Lefflererhalten hatte. Aber Herr Nobel konnte wohl nicht verknusen, daß da einen Sommerlang ein gewisses Techtelmechtel zwischen seiner Freundin und eben dem besagtenHerrn Mittag–Leffler bestand. Wie gesagt, ein Gerucht, aber es halt sich hartnackig.Rayleigh schlug vor, den folgenden Quotienten zu betrachten:

Definition 2.43 Sei A eine symmetrische (n× n)–Matrix. Dann heißt

R(x) :=xAx

‖x‖22

(2.30)

der Rayleigh–Quotient von x (bezugl. A).

Page 151: 3486584472_Mathem

138 2 Numerik fur Eigenwertaufgaben

Satz 2.44 Fur jeden Eigenwert λ von A mit zugehorigem Eigenvektor u gilt:

R(u) = λ. (2.31)

Beweis: Das geht schnell; denn ist λ ein Eigenwert von A mit zugehorigem Eigenvek-tor u, so gilt also Au = λu. Damit folgt

R(u) =uAu

‖u‖22

=uλu

‖u‖22

= λuu

‖u‖22

= λ.

Seien nun λ1 ≥ λ2 ≥ · · · ≥ λn die der Große nach geordneten Eigenwerte von A. Da Asymmetrisch ist, sind ja alle Eigenwerte reell. Die zugehorigen Eigenvektoren wahlenwir so, daß sie eine Orthonormalbasis bilden; die Eigenvektoren seien also normiertund zueinander orthogonal. Auch das ist bei symmetrischen Matrizen erreichbar. Einbeliebiger Vektor x = 0 laßt sich dann normieren und darstellen als

x0 :=x

‖x‖ = α1u1 + · · · + αnun mit |α1|2 + · · ·+ |αn|2 = 1.

Denn durch einfaches Ausrechnen der folgenden Klammern und Ausnutzen der ortho-normierten Eigenvektoren erhalt man

1 = ‖x0‖2 = x0 x0 = (α1u1 + · · ·+ αnun)(α1u1 + · · · + αnun) = α21 + · · ·α2

n.

Damit gestaltet sich unser Rayleigh–Quotient so:

R(x) =xAx

‖x‖2=

x

‖x‖Ax

‖x‖= (α1u1 + · · ·+ αnun) ·A · (α1u1 + · · ·+ αnun)= α2

1λ1 + · · ·+ α2nλn

≤ α21λ1 + · · ·+ α2

nλ1

= λ1

Zusammen mit dem Satz 2.44 erhalten wir damit eine bemerkenswerte Eigenschaftdes Rayleigh–Quotienten:

Satz 2.45 Fur eine symmetrische Matrix mit den Eigenwerten λ1 ≥ λ2 ≥ · · · ≥ λn

hat der Rayleigh–Quotient folgende Extremaleigenschaft:

λ1 = maxx∈Rn

x =0

R(x), λn = minx∈Rn

x =0

R(x). (2.32)

Page 152: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 139

Analog wie bei von Mises kommen wir so zum folgenden Algorithmus:

Rayleigh–Quotienten–Verfahren

Sei A eine reelle symmetrische (n× n)–Matrix mit den (betraglich der Große nachgeordneten) Eigenwerten

|λ1| > |λ2| ≥ |λ3| ≥ · · · ≥ |λn|

Wahle einen beliebigen Startvektor x(0) = 0.Bilde die Folge

x(1) = Ax(0), x(2) = Ax(1), . . .

und berechne daraus jeweils den zugehorigen Rayleigh–Quotienten:

R(x(0)) =(x(0))Ax(0)

‖x(0)‖2=

(x(0))x(1)

‖x(0)‖2

R(x(1)) =(x(1))x(2)

‖x(1)‖2,

R(x(2)) = · · ·Dann konvergiert die Folge dieser Rayleigh–Quotienten gegen den betraglich großtenEigenwert λ1 von A mit seinem richtigen Vorzeichen.

Der Zahler des Rayleigh–Quotienten xAx laßt sich also auffassen als das Skalarpro-dukt der beiden Vektoren x und Ax. Das sind aber gerade zwei aufeinander folgendeVektoren in der Iteration nach von Mises. Der Nenner ist das Quadrat der Norm vonx. Es bietet sich also an, wahrend der Ausrechnung nach von Mises den Rayleigh–Quotienten gleich mitzubestimmen. Daruber hinaus ist die Konvergenz der Rayleigh–Quotienten wesentlich schneller. Sind die Eigenwerte dem Betrage nach geordnet

|λ1| ≥ |λ2| ≥ · · · ≥ |λn|so hat das Restglied bei den Quotienten qi nach von Mises die Ordnung:

O(∣∣∣∣λ2

λ1

∣∣∣∣i)

,

wahrend die Ordnung des Restgliedes bei den Rayleigh–Quotienten R(xi) lautet

O(∣∣∣∣λ2

λ1

∣∣∣∣2i)

.

Beispiel 2.46 Wir berechnen mit Hilfe des Rayleigh–Quotienten, ausgehend vom Start-vektor x(0) = (1, 0, 0, 0), den betraglich großten Eigenwert der Matrix

Page 153: 3486584472_Mathem

140 2 Numerik fur Eigenwertaufgaben

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠ .

Das ist eine reine Rechenarbeit, bei der man kaum etwas erklaren muß. Wir beginnendamit, den Startvektor mit der Matrix A zu multiplizieren. Das fuhrt zum Vektorx(1). Mit ihm berechnen wir den Rayleigh–Quotienten

R(x(0)) =x(0) · x(1)

‖x(0)‖2= 1.

Wir geben jetzt die weiteren sieben Rayleigh–Quotienten an, um daran die Konver-genzgute zu erkennen. Die weiteren Vektoren x(2), . . . , x(7) entnehmen wir der bei vonMises durchgefuhrten Rechnung im Beispiel 2.41.

R(x(1)) = 5, R(x(2)) = 8.1644, R(x(3)) = 8.9061,R(x(4)) = 9.0141, R(x(5)) = 9.0289, R(x(6)) = 9.0309,R(x(7)) = 9.0312

Der letzte Wert ist bereits der auf vier Stellen exakte großte Eigenwert λ1.

2.5.3 Inverse Iteration nach Wielandt

Nach von Mises konnen wir nun den betragsgroßten Eigenwert naherungsweise bestim-men. Das Interesse der Ingenieure liegt aber haufig am betragskleinsten Eigenwert.Das sollte doch nicht schwer sein, jetzt ein Verfahren zu entwickeln, das auch dieseAufgabe lost. Die Idee lieferte Wielandt3. Wir schildern sie im folgenden Satz.

Satz 2.47 Ist A eine regulare Matrix und λ ein Eigenwert von A zum Eigenvektor u.Dann ist 1

λ Eigenwert zum Eigenvektor u von A−1.Ist λ der betraglich großte Eigenwert von A, so ist 1

λ der betraglich kleinste Eigenwertvon A−1.

Beweis: Das beweist sich fast von allein. Wir mussen nur die Eigenwertgleichunggeschickt umformen. Dabei ist zu beachten, daß eine regulare Matrix nur Eigenwerteungleich Null besitzt. Wir durfen also hemmungslos von jedem Eigenwert den Kehr-wert bilden.

Au = λu ⇐⇒ 1λ

u = A−1u.

Die zweite Gleichung ist aber gerade die Eigenwertgleichung des Eigenwertes 1λ zur

Matrix A−1. 3H. Wielandt: Bestimmung hoherer Eigenwerte durch gebrochene Iteration, Bericht der aerodynami-

schen Versuchsanstalt Gottingen, 44/J/37 (1944)

Page 154: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 141

Also das ist der Trick. Wir betrachten die inverse Matrix A−1 und berechnen von diesernach von Mises den betragsgroßten Eigenwert. Von dem bilden wir den Kehrwert undsind fertig. Aber um nichts in der Welt (nicht mal fur einen Lolly) sollte sich einNumeriker dazu hinreißen lassen, die inverse Matrix echt zu berechnen. Das umgehenwir raffiniert. Das Fachwort dafur lautet inverse Iteration und meint folgendes.Wir starten wie bei von Mises mit einem Startvektor x(0), den wir uns ausdenken. Imersten Schritt ist zu berechnen

x(1) = A−1x(0).

Das schreiben wir anders als

Ax(1) = x(0).

Das ist nun ein lineares Gleichungssystem fur den unbekannten Vektor x(1). Dasmussen wir losen. Im nachsten Schritt passiert das gleiche. Wieder fuhren wir dieoriginale Berechnung nach von Mises mit der unangenehmen inversen Matrix

x(2) = A−1x(1)

zuruck auf das Losen eines linearen Gleichungssystems

Ax(2) = x(1).

Schau an, dieses System enthalt dieselbe Systemmatrix A, die wir im vorigen Schrittschon bearbeitet haben. Nach Wielandt mussen wir also in jedem Iterationsschrittein lineares Gleichungssystem losen mit stets derselben Koeffizientenmatrix A. Dasist doch klar, daß hier unsere L–R–Zerlegung voll zum Zuge kommt. Einmal fuhrenwir die durch und benutzen diese Zerlegung dann bei jedem Schritt. Wir mussen alsostets nur Dreieckssysteme losen, in jedem Schritt zwei.

Beispiel 2.48 Wir wollen uns noch einmal mit der Matrix

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠

befassen und diesmal den betraglich kleinsten Eigenwert berechnen.

Wielandt sagt uns, wir mochten bitteschon den betraglich großten Eigenwert von A−1

mit von Mises berechnen. Wir werden aber um nichts in der Welt die inverse Matrixvon A ausrechnen, sondern statt dessen ein lineares Gleichungssystem bearbeiten.Starten wir wieder mit x(0) = (1, 0, 0, 0), so lautet unser erstes System

x(1) = A−1x(0) ⇐⇒ Ax(1) = x(0).

Page 155: 3486584472_Mathem

142 2 Numerik fur Eigenwertaufgaben

Verfahren von Wielandt

Sei A eine regulare n×n–Matrix. Nennen wir λ den betraglich kleinsten Eigenwertder Matrix A, so gilt also:

Ax = λx mit x = 0, λ = 0.

Diese Gleichung ist daher gleichbedeutend mit

A−1x =1λ

x.

Das ist aber gerade eine Eigenwertgleichung fur die Matrix A−1 zum Eigenwert1/λ. Offensichtlich ist, wenn λ der betraglich kleinste Eigenwert von A war, 1/λ

der betraglich großte Eigenwert von A−1. Unsere Aufgabe, den betraglich kleinstenEigenwert von A zu bestimmen, ist bei einer regularen Matrix A also aquivalent zuder Aufgabe:

Gesucht ist der betraglich großte Eigenwert von A−1.

Das nachste System ist dann

x(2) = A−1x(1) ⇐⇒ Ax(2) = x(1),

es hat also dieselbe Systemmatrix A. Das setzt sich so fort. Also ist es doch klug,einmal von der Matrix A ihre L–R–Zerlegung zu berechnen, um dann anschließendalle auftretenden Systeme leicht als zwei Dreieckssysteme bearbeiten zu konnen. Wirschenken uns hier die ausfuhrliche Durchrechnung und verweisen auf die Ubungsauf-gaben. Das Ergebnis lautet:

x(0) x(1) x(2) x(3) x(4) x(5) x(6)

1 1.5106 2.9593 5.8985 11.8403 23.7810 47.79210 −0.2553 −0.7243 −1.4696 −2.9709 −5.9703 −11.99560 0.7234 1.3997 2.8684 5.7589 11.5741 23.25100 0.2979 0.7741 1.6103 3.2564 6.5483 13.1572

Nun kommt der von Mises–Trick, wir dividieren jeweils zusammengehorige Kompo-nenten durcheinander, nein schon der Reihe nach. Wenn wir nur die letzten beidenVektoren x(5) und x(6) verwenden, so erhalten wir jedesmal den Quotienten

λ = 2.0096.

Das ist aber nicht das Endergebnis, also der betragskleinste Eigenwert, sondern vondieser Zahl mussen wir tunlichst noch ihren Kehrwert berechnen. Also sind wir sehr

Page 156: 3486584472_Mathem

2.5 Das partielle Eigenwertproblem 143

klug und berechnen gleich die umgekehrten Quotienten und erhalten

λmin =x

(5)1

x(6)1

= · · · = x(5)4

x(6)4

= 0.4978.

Das ist dann wirklich der betraglich kleinste Eigenwert von A.Eine interessante Kombination ergibt sich mit dem Shiften. Stellen wir uns vor, je-mand war so freundlich und hat uns eine Naherung λ fur einen Eigenwert λ derMatrix A verraten. Oder vielleicht hat Gerschgorin gute Dienste geleistet, und eineseiner Abschatzungen liefert einen recht guten Wert. (Oder wir haben beim Nachbarngeschlinzt.) Dann konnte man auf den Gedanken verfallen, die Matrix A um diesenNaherungswert zu shiften. Die neue Matrix A − λE hat dann den Eigenwert λ − λ.Wenn die Naherung gut war, ist das der betraglich kleinste Eigenwert von A− λE. Sohat uns das Shiften zur inversen Iteration gebracht.

Beispiel 2.49 Vielleicht wissen wir von jemanden, daß die Matrix

A =

⎛⎜⎜⎝

1 2 0 02 4 −4 30 −4 −1 −10 3 −1 5

⎞⎟⎟⎠

einen Eigenwert in der Nahe von 3 hat. Vielleicht sagt uns das Experiment ja auchsolches. Jedenfalls wollen wir den mit der Shifttechnik annahern.

Dazu bilden wir die Matrix

A− 3E =

⎛⎜⎜⎝−2 2 0 0

2 1 −4 30 −4 −4 −10 3 −1 2

⎞⎟⎟⎠ .

Behandeln wir sie mit Wielandt, so erhalten wir das Ergebnis bereits nach drei Itera-tionen; die Rechnung andert sich nicht mehr. Ab da waren auch die Zahlen furchtbargroß geworden, und wir hatten zwischendurch normieren mussen.

x(0) x(1) x(2) x(3)

1 −9.5 452.25 −222050 −9.0 447.50 −219790 5.0 −251.50 123540 16.0 −789.00 38752

Bilden wir hier, nachdem wir das im vorigen Beispiel gelernt haben, gleich die Quoti-enten

λmin =x

(2)1

x(3)1

= · · · = x(2)4

x(3)4

= −0.0204,

Page 157: 3486584472_Mathem

144 2 Numerik fur Eigenwertaufgaben

so muß dieses Ergebnis jetzt nur noch wieder um +3 geshiftet werden. So erhalten wireine Naherung fur einen Eigenwert

λ3 = −0.0204 + 3.0 = 2.9796,

und der ist auf vier Stellen exakt.

Wir fassen die Shifttechnik im Verein mit der Wielandt Iteration noch einmal zusam-men.

Shift und Wielandt

Sei λ eine Naherung fur den Eigenwert λ der Matrix A. Sodann betrachtet manstatt der Matrix A die Matrix A = A− λE. Man subtrahiert also von den Diagonal-elementen die Naherung λ. Das fuhrt zu einer Matrix, welche λ − λ als Eigenwerthat. Ist nun tatsachlich λ eine gute Approximation fur λ, so ist die Differenz λ− λklein. Das bedeutet also, wir suchen fur die neue Matrix A = A− λE den vermutlichkleinsten Eigenwert. Diesen bestimmen wir mit dem Verfahren von Wielandt.

Page 158: 3486584472_Mathem

Kapitel 3

Lineare Optimierung

3.1 Einfuhrung

Zu Beginn schildern wir eine typische Aufgabenstellung der linearen Optimierung.

Beispiel 3.1 Eine Firma, die aus aus einer Hauptniederlassung (H) und einem Zweig-werk (Z) besteht, stellt ein Produkt (P ) her, das zu drei Nebenstellen N1, N2, N3 trans-portiert werden muß. In H wurden gerade neun dieser Produkte und in Z sechs her-gestellt. Funf davon sollen nach N1, sechs nach N2 und die restlichen vier nach N3

transportiert werden. Die Transportkosten von H nach N1 betragen 60 e, nach N2

40 e, nach N3 55 e, wahrend die Kosten von Z nach N1 50 e, nach N2 45 e undnach N3 50 e betragen.Wie muß man die Transporte organisieren und verteilen, damit die Kosten moglichstniedrig gehalten werden?

Dies ist eine Transportaufgabe, wie sie naturlich in dieser einfachen Form kaum derPraxis entspricht, aber sie zeigt die wesentlichen Merkmale. Wir sollten nur im Hin-terkopf behalten, daß es sich eher um zehn Zweigstellen, um eine Palette von tausendProdukten und um mehrere hundert Nebenstellen weltweit handelt. Uns geht es hier

H, 9 Z, 6

N1, 5 N2, 6 N3, 4

xH yH zH xZ yZ zZ

Abbildung 3.1: Graphik zum Transportproblem

Page 159: 3486584472_Mathem

146 3 Lineare Optimierung

lediglich um die prinzipielle Behandlung. Auf Sonderprobleme, die wegen der großenZahlen den Anwender das Furchten lehren, konnen wir leider nicht eingehen undmussen auf eine umfangreiche Spezialliteratur verweisen. Zuerst werden wir die Pro-blemstellung so verallgemeinern, daß wir eine moglichst große Klasse von Aufgabenbeschreiben.

3.2 Die Standardform

Definition 3.2 Gegeben seien ein Vektor c ∈ Rn, eine reelle Zahl d ∈ R, eine (m×n)–

Matrix A und ein Vektor b ∈ Rm. Dann verstehen wir unter der Standardform die

folgende Aufgabe.Gesucht wird ein Vektor x ∈ R

n, der die folgende Zielfunktion

f(x) := c · x + d (3.1)

minimiert unter den Nebenbedingungen

Ax ≤ b, x ≥ 0. (3.2)

Hier erkennt man, warum wir in der Uberschrift nur von linearer Optimierung gespro-chen haben. Sowohl die Zielfunktion als auch die Nebenbedingungen sind linear.Bringen wir zuerst unser Transportproblem aus Beispiel 3.1 auf diese Standardform.In der Abbildung 3.1, Seite 145, haben wir die Beforderungswege eingetragen und dieBezeichnungen fur die unbekannten Anzahlen der Produkte eingefuhrt.Die Frage lautet: Wieviele Produkte werden jeweils von H bzw. Z zu den drei Neben-stellen befordert? Wir haben es im Prinzip mit sechs Unbekannten zu tun.

xH : H → N1 xZ : Z → N1

yH : H → N2 yZ : Z → N2

zH : H → N3 zZ : Z → N3

Das Ziel besteht darin, die Kosten zu minimieren. Die Gesamtkosten belaufen sich auf

K = 60xH + 40yH + 55zH + 50xZ + 45yZ + 50zZ . (3.3)

Die Unbekannten unterliegen nun aber etlichen Einschrankungen. Zunachst sind Hund Z in ihrer Produktivitat beschrankt. In H werden man gerade neun und in Zsechs Produkte hergestellt. Mehr konnen von dort also nicht transportiert werden.Das fuhrt auf die Gleichungen

xH + yH + zH = 9, xZ + yZ + zZ = 6. (3.4)

Außerdem verlangen die Nebenstellen nach festen Lieferungen. Wir bekommen weitereGleichungen:

xH + xZ = 5, yH + yZ = 6, zH + zZ = 4. (3.5)

Page 160: 3486584472_Mathem

3.2 Die Standardform 147

Damit haben wir insgesamt in der Kostenfunktion sechs Unbekannte und funf Ne-benbedingungen. Diese sind aber, wie man sofort sieht, nicht voneinander linear un-abhangig. Wenn wir die drei Gleichungen in (3.5) addieren und die erste Gleichung in(3.4) subtrahieren, erhalten wir die zweite Gleichung aus (3.4). Diese lassen wir somitfallen, um nicht uberflussigen Ballast mitzuschleppen.Damit bleiben vier Nebenbedingungen. Wir konnen also vier Unbekannte aus derKostenfunktion eliminieren. Wir entscheiden uns, daß wir xH und yH als Unbekanntebehalten wollen, und eliminieren die anderen Unbekannten aus der Kostenfunktion.Nach ein klein wenig Rechnung erhalten wir mit den Abkurzungen c = (5,−10), x =(xH , yH) die Zielfunktion

K(xH , yH) = c · x + d = 5xH − 10yH + 765. (3.6)

Betrachten wir noch ein weiteres Mal die erste Gleichung von (3.4) und die erstenzwei Gleichungen von (3.5) unter dem Gesichtspunkt, nur xH und yH als Unbekanntezuzulassen, so gewinnen wir, da ja alle Großen ≥ 0 sind, als Nebenbedingungen dieUngleichungen

xH + yH ≤ 9 Weglassen von zH

xH ≤ 5 Weglassen von xZ (3.7)yH ≤ 6 Weglassen von yZ

In der letzten Gleichung von (3.5) verwenden wir (3.4) und lassen zZ weg; das ergibtals vierte Nebenbedingung

xH + yH ≥ 5 (3.8)

Damit haben wir die Standardform erreicht, wobei in der Zielfunktion eine Konstanteauftaucht, die naturlich bei der Minimumsuche vergessen werden kann. Lediglich zurBerechnung der minimalen Kosten muß sie herangezogen werden.Zwei Bemerkungen durfen nicht fehlen, woran es manchmal bei der vorgelegten Auf-gabe hapert und wie man den Mangel beseitigt.Bemerkung:Die Standardform verlangt, das Minimum einer Zielfunktion zu suchen und nicht dasMaximum. Außerdem mussen die Nebenbedingungen in der Form vorliegen, daß einTerm, linear in den Variablen, kleiner oder gleich einer Zahl ist, nicht großer odergleich. Beide Einschrankungen sind recht unwesentlich. Durch harmlose Manipulatio-nen lassen sie sich erreichen.

1. Wird in der Aufgabe das Maximum einer Zielfunktion f(x) gesucht, so betrachtetman die Funktion f(x) := −f(x). Von dieser Funktion suchen wir dann ihrMinimum. Dort, wo es angenommen wird, hat die ursprungliche Funktion ihrMaximum, der Wert des Minimums muß allerdings noch mit −1 multipliziertwerden, um den richtigen maximalen Wert von f zu erhalten.

Page 161: 3486584472_Mathem

148 3 Lineare Optimierung

2. Ist eine Nebenbedingung mit dem falschen Ungleichheitszeichen versehen, somultiplizieren wir diese mit −1, und schon haben wir die Nebenbedingung inder verlangten Form.

Beispiel 3.3 Gesucht wird das Maximum von

f(x1, x2) := 2x1 + x2

unter den Nebenbedingungen:

x1 − x2 ≥ −1−x1 + 2x2 ≥ −2, x1 ≥ 0, x2 ≥ 0

x1 + 2x2 ≤ 2

Mit den obigen Bemerkungen fuhren wir diese Aufgabe flugs auf ihre Standardformzuruck:Gesucht wird das Minimum von

f(x1, x2) := −2x1 − x2

unter den Nebenbedingungen:

−x1 + x2 ≤ 1x1 − 2x2 ≤ 2, x1 ≥ 0, x2 ≥ 0x1 + 2x2 ≤ 2

3.3 Graphische Losung im 2D–Fall

Liegt ein solch einfach geartetes Problem wie in Beispiel 3.1 vor, so konnen wir uns dieLosung graphisch verschaffen. Gleichzeitig gibt uns diese Darstellung die Moglichkeit,verschiedene Sonderfalle zu betrachten, ihre Ursachen zu erkennen und auf Abhilfezu sinnen. In diesem Beispiel sind zwei Unbekannte xH und yH gegeben. Wir listendie Aufgabe in der Standardform noch einmal auf. Die Zielfunktion, deren Minimumgesucht wird, lautet:

K(xH , yH) = c · x + d = 5xH − 10yH + 765. (3.9)

Zu erfullen sind folgende Nebenbedingungen:

xH + yH ≤ 9xH ≤ 5, xH ≥ 0, yH ≥ 0 (3.10)yH ≤ 6

xH + yH ≥ 5

Also wird man das ganze in der Ebene skizzieren. Vielleicht schauen wir uns zuerst dieNebenbedingungen an. Diese Ungleichungen lassen sich leicht veranschaulichen. Als

Page 162: 3486584472_Mathem

3.3 Graphische Losung im 2D–Fall 149

xH

yH

yH = 6

xH = 5xH + yH = 9

Zielfkt.

1 5

1

6

grad K

xH + yH ≥ 5

Abbildung 3.2: Graphische Losung des Transportproblems

lineare Ungleichungen stellen sie jeweils eine Halbebene dar. Wir erhalten sie am leich-testen dadurch, daß wir sie als Gleichungen ansehen und uns anschließend uberlegen,welche der beiden durch jede Ungleichung entstehenden Halbebenen die gemeinte ist.In der Abbildung 3.2 haben wir das entstehende Gebiet, ein Polygongebiet, schraffiert.Die Zielfunktion haben wir ohne die Konstante 765 eingetragen.Wie finden wir nun die optimale Losung unseres Problems, also den Punkt im schraf-fierten Bereich, an dem die Kostenfunktion minimal wird?Hier hilft uns die Ruckbesinnung auf die Extremwertsuche bei Funktionen f : R

2 → R.Wir fassen zur Wiederholung im folgenden Hilfssatz zwei kleine Tatsachen uber denGradienten zusammen.

Lemma 3.4 Sei f : Rn → R eine Funktion aus C1(a, b). Dann gilt:

1. Der Gradient grad f(x1, . . . , xn) zeigt in die Richtung des starksten Anstiegs, dernegative Gradient in Richtung des starksten Abstiegs von f .

2. Der Gradient grad f(x1, . . . , xn) steht senkrecht auf den Aquipotentiallinien

f(x1, . . . , xn) = const.

Unsere Aufgabe besteht nun darin, die Zielfunktion so zu verandern, daß ihr Wertextremal wird. Noch deutlicher ausgedruckt, wir betrachten

f(x) = const (3.11)

und mochten die Konstante optimieren. Diese Gleichung (3.11) ist graphisch wegen derLinearitat eine Gerade bzw. in hoheren Dimensionen eine (Hyper–)Ebene und stelltdie Aquipotentiallinie (in hoheren Dimensionen die Aquipotentialflache) der Funktionf dar. Der Gradient steht aber senkrecht auf diesen Aquipotentiallinien, wie unserHilfssatz sagt. Wir werden also schlicht die Zielfunktion in senkrechter Richtung ver-schieben. Den Gradienten

grad K(xH , yH) = (5,−10)

Page 163: 3486584472_Mathem

150 3 Lineare Optimierung

H Z

N1 N2 N3

0 6 3 5 0 1

Abbildung 3.3: Losung des Transportproblems. Die Zahlen an den Pfeilen geben dieAnzahl der Produkte an, die jeweils zu transportieren sind.

haben wir in der Skizze eingetragen und verschieben jetzt also die Zielfunktion in dieandere Richtung, da wir ein Minimum suchen. Gleichzeitig erkennt man, daß der op-timale Wert stets in einer Ecke oder auf einer ganzen Randseite angenommen wird.Das werden wir spater im Abschnitt 3.4 auch fur den allgemeinen Fall so kennen-lernen. Damit sehen wir an unserem Transportbeispiel, daß wir zur Minimumsuchedie Zielfunktion nach oben zu verschieben haben und daß der minimale Wert bei(0, 6) angenommen wird. Das heißt, wenn wir uns die Bedeutung der Unbekannten insGedachtnis zuruckrufen:

Vom Hauptwerk H darf kein Produkt nach N1 befordert werden, sechsProdukte gehen von H nach N2 und drei Produkte nach N3.

Damit liegen auch die ubrigen Transporte fest: vom Zweigwerk Z werdendemnach funf Produkte nach N1, kein Produkt nach N2 und ein Produktnach N3 befordert.

Die Gesamtkosten lassen sich auf zweierlei Art ermitteln. Einmal setzenwir den Punkt (0, 6) in unsere Gesamtkostenfunktion (3.6) ein und erhalten

K(xH , yH) = 5 · 0− 10 · 6 + 765 = 705.

Die zweite Idee besteht darin, aus der Abbildung 3.3, S. 150, und derVorgabe der Kosten in der Aufgabenstellung direkt die Gesamtkosten zuberechnen. Wir erhalten

K(xH , yH) = 0 · 60 + 6 · 40 + 3 · 55 + 5 · 50 + 0 · 45 + 1 · 50 = 705.

Einige weitere Beispiele mogen den graphischen Losungsweg noch erlautern.

Beispiel 3.5 Skizzieren Sie graphisch die Losung des folgenden linearen Optimie-rungsproblems:

f(x1, x2) = x1 + 9x2 = max

unter den Nebenbedingungen 4x1 + 9x2 ≤ 36 und 8x1 + 3x2 ≤ 24, x1, x2 ≥ 0

Page 164: 3486584472_Mathem

3.3 Graphische Losung im 2D–Fall 151

x11 9

1

8

x2

8x1 + 3x2 = 24

4x1 + 9x2 = 36

Zielfkt.

Zielfkt.

Abbildung 3.4: Graphische Losung von Beispiel 3.5

Wir haben die Skizze in Abbildung 3.4 angedeutet. Mit den obigen Uberlegungenfinden wir das Maximum beim Punkt (0, 4). Damit ergibt sich als maximaler Wertder Zielfunktion f(0, 4) = 36.

Beispiel 3.6 Eine Fabrik produziert zwei Produkte mit der Stuckzahl X1 , X2 ineinem gewissen Zeitraum. Aus Kapazitatsgrunden muß gelten:

X1 ≤ 30.000, X2 ≤ 20.000.

Die Produkte werden teilweise auf denselben Maschinen gefertigt. Dies fuhrt zu derweiteren Einschrankung:

X1 + X2 ≤ 40.000.

Der Ertrag betragt eine Geldeinheit beim ersten und zwei Geldeinheiten beim zweitenProdukt. Man maximiere den Gesamtertrag (unter der vereinfachenden Annahme, daßalles abgesetzt wird und daß keine Ubertrage aus fruheren Produktionszeitraumen vor-liegen).Losen Sie diese Aufgabe graphisch.

Dies ist eine typische Anwendungsaufgabe, bei der die Einschrankungen bereits in derAufgabe genannt sind. Lediglich die Zielfunktion muß aus dem Text gewonnen werden:

f(X1,X2) = X1 + 2X2.

Das Bildchen zu malen, ist ja wohl puppig leicht. Wir zeigen das Ergebnis in Abbildung3.5. Den maximalen Ertrag finden wir im Punkt (20, 20). Er betragt

f(20, 20) = 20 + 2 · 20 = 60.

Page 165: 3486584472_Mathem

152 3 Lineare Optimierung

Zielfkt.

Zielfkt.

X1 · 103

X2 · 103

10

10

(20, 20)

Abbildung 3.5: Graphische Losung von Beispiel 3.6

3.4 Losbarkeit des linearen Optimierungsproblems

Vorgelegt sei die folgende lineare Optimierungsaufgabe im Rn:

Lineare Optimierungsaufgabe

Die lineare Zielfunktion

f(x) = c · x = c1x1 + c2x2 + . . . + cnxn (3.12)

ist zu minimieren unter Einhaltung der m Nebenbedingungen (A hat also m Zeilen):

Ax ≤ b, (3.13)

x ≥ 0. (3.14)

Fuhren wir fur jede Nebenbedingung eine sogenannte Schlupfvariable ein, so gehendie Ungleichungen in Gleichungen uber, und wir erhalten die Nebenbedingungen inder Form:

a11x1 + . . . + a1nxn + xn+1 = b1...

.... . .

...am1x1 + . . . + amnxn + xn+m = bm

(3.15)

xi ≥ 0, i = 1, . . . , n + m (3.16)

Die Matrix A, die in den Nebenbedingungen (3.15) auftaucht, hat nun also m Zeilenund m + n Spalten, und sie ist folgendermaßen gebaut:⎛

⎜⎝a11 · · · a1n 1...

.... . .

am1 · · · amn 1

⎞⎟⎠ . (3.17)

Page 166: 3486584472_Mathem

3.4 Losbarkeit des linearen Optimierungsproblems 153

Wir wollen von jetzt an voraussetzen, daß keine Nebenbedingung uberflussig ist, alsodurch die anderen Nebenbedingungen ausgedruckt werden kann. Das bedeutet, daßdie Matrix (3.17) den vollen Zeilenrang rgA = m hat. (3.15) ist ein lineares Glei-chungssystem mit m Gleichungen fur n + m Unbekannte.

Generalvoraussetzung

rgA = m (3.18)

Im Raum Rn+m ist damit ein n + m − m = n–dim. Unterraum beschrieben. Die

Nebenbedingungen (3.16) schranken diesen Unterraum weiter ein, so daß ein Polyeder(im R

2 im ersten Quadranten) entsteht. Von den n + m Unbekannten x1, . . . , xn+m

konnen wir demnach n frei wahlen, wodurch die restlichen festgelegt sind und sich ausdiesen berechnen lassen.

Definition 3.7 Ein zulassiger Punkt x = (x1, . . . , xn+m) ist ein Punkt, der den Ne-benbedingungen (3.15) und (3.16) genugt.

Die zulassigen Punkte bilden also das Polyeder. In alterer Literatur werden die zulassi-gen Punkte auch ’zulassige Losungen’ genannt. Wir werden diesen Begriff aber nichtweiter verwenden, da ein zulassiger Punkt eben noch keineswegs die Optimierungs-aufgabe zu losen braucht.

Wenn wir uns jetzt weiter an der graphischen Darstellung orientieren, so erinnernwir uns, daß die Randseiten des Polyeders von den als Gleichungen geschriebenenNebenbedingungen gebildet werden. Das bedeutet, die jeweilige Schlupfvariable istNull. Ein Eckpunkt ist dann aber Schnittpunkt von zwei solchen Gleichungen. Dortsind also mindestens zwei Variable Null. So kommen wir zu der nachsten Definition.

Definition 3.8 Ein Eckpunkt ist ein zulassiger Punkt, bei dem wenigstens n der n+mKoordinaten Null sind.Sind mehr als n Koordinaten eines Eckpunktes gleich Null, so heißt dieser Eckpunktentartet oder degeneriert.

Uben wir die Begriffe an unserem Beispiel 3.5 von Seite 150. Zur Betrachtung der Ek-ken benotigen wir die Darstellung der Nebenbedingungen als Gleichungen. Also flottdie Schlupfvariablen eingefuhrt

4x1 + 9x2 + x3 = 36 (3.19)8x1 + 3x2 + x4 = 24 (3.20)

und die Matrix angegeben:

A =(

4 9 1 08 3 0 1

).

Page 167: 3486584472_Mathem

154 3 Lineare Optimierung

x1

x2

2

2

−x1 + x2 = 1

x1 − 2x2 = 2

x1 + 2x2 = 2

x1 + x2 = 2Zielfkt.

Abbildung 3.6: Ein entartetes Problem

Hinzu kommen die beiden positiven Halbachsen x1, x2 ≥ 0, und wir verlangen weiterx3, x4 ≥ 0. Hier haben wir nun m = 2 Gleichungen als Nebenbedingungen und dien + m = 2 + 2 Variablen x1, x2, x3, x4. Je zwei davon setzen wir Null, um die Eckenzu bestimmen. x1 = x2 = 0 fuhrt zum Punkt (0, 0, 36, 24), dessen Darstellung in derEbene (nur die ersten m Koordinaten werden betrachtet) zum Koordinatenursprungfuhrt. x1 = x3 = 0 ergibt den Eckpunkt (0, 4, 0, 12), denn dieser Punkt erfullt auch(3.20), ist also zulassig. x1 = x4 = 0 ergibt den Punkt (0, 8,−36, 0). Dieser Punktverletzt aber (3.14), was wir an der negativen Koordinate x3 sehen, ist also nichtzulassig. Ich denke, wir konnen das Spielchen hier beenden. Die anderen Eckpunktebestimmt man auf die gleiche Weise. Sie sind alle nicht entartet.

Wir greifen auf unser Beispiel 3.3 von Seite 148 zuruck, das wir aber jetzt durch eineweitere Nebenbedingung erganzen.

Beispiel 3.9 Gesucht ist das Maximum der Zielfunktion

f(x1, x2) = 2x1 + x2

unter den Nebenbedingungen

−x1 + x2 ≤ 1x1 − 2x2 ≤ 2x1 + 2x2 ≤ 2x1 + x2 ≤ 2

, x1 ≥ 0, x2 ≥ 0

Die graphische Darstellung in Abbildung 3.6 zeigt uns, daß durch den Eckpunkt (2, 0)drei Geraden gehen. Zwei von diesen konnen wir getrost weglassen; sie schranken dasschraffierte Gebiet nicht ein, das geschieht allein durch die dritte Nebenbedingung.Durch den Eckpunkt (0, 1) gehen zwei Geraden. Auch hier ist eine uberflussig.Was wir an der Graphik erkennen, zeigt sich auch in der Rechnung: Beide Eckpunktesind entartet. Denn machen wir aus den Nebenbedingungen durch vier Schlupfvariable

Page 168: 3486584472_Mathem

3.4 Losbarkeit des linearen Optimierungsproblems 155

Gleichungen

−x1 +x2 + x3 = 1x1 −2x2 + x4 = 2x1 +2x2 + x5 = 2x1 +x2 + x6 = 2

(3.21)

so lautet die Matrix der Nebenbedingungen, erganzt durch Schlupfvariable,

A =

⎛⎜⎜⎝−1 1 1 0 0 0

1 −2 0 1 0 01 2 0 0 1 01 1 0 0 0 1

⎞⎟⎟⎠ .

Fur den Eckpunkt (2, 0) gilt dann tatsachlich x2 = x4 = x5 = x6 = 0, wie sich durchEinsetzen in obige Nebenbedingungen (3.21) ergibt. Dort verschwinden also mehr als6 − 4 = 2 der Variablen. Ebenso erhalt man fur den Eckpunkt (0, 1) die Werte derSchlupfvariablen zu x3 = 0, x4 = 4, x5 = 0, x6 = 1, also x1 = x3 = x5 = 0, wiederummehr als die verlangten zwei.

Vielleicht hat jemand Spaß an der rein algebraischen Bestimmung der Ecken mit Hilfedes folgenden Satzes:

Satz 3.10 Seien mit a1, . . . ,an+m die Spaltenvektoren der Matrix A = (aik) ∈ Rm,m+n

bezeichnet. x ∈ Rm+n sei ein zulassiger Punkt. Dann ist x genau dann Eckpunkt, wenn

die Spaltenvektoren von A, wie sie zur Numerierung der positiven Koordinaten vonx gehoren, linear unabhangig sind.

Nehmen wir als zulassigen Punkt im obigen Beispiel 3.5, den Punkt (1, 1, 23, 13), derin der Ebene als Punkt (1, 1) dargestellt ist. Hier sind alle vier Koordinaten positiv.Der Punkt ist also genau dann Eckpunkt, wenn die vier Spaltenvektoren a1, . . . ,a4

linear unabhangig sind. Diese sind aber Vektoren im R2, davon konnen doch nur

hochstens zwei linear unabhangig sein. Also, das war nichts, dieser Punkt ist wahrlichkein Eckpunkt.Betrachten wir den Punkt (3, 0, 24, 0), der in der Skizze ein Eckpunkt ist. Der ersteund der dritte Spaltenvektor (die Koordinaten x1 und x3 sind = 0) sind offenbar linearunabhangig. Der Satz 3.10 gibt uns also denselben Hinweis, daß wir einen Eckpunktgefunden haben.Wir stellen noch einige Bezeichnungen zusammen, die sich im Rahmen der linearenOptimierung in der Literatur eingeburgert haben.

Definition 3.11 Eine Basislosung ist ein zulassiger Punkt, in dem hochstens m Va-riable von Null verschiedene Werte besitzen.Diese Variablen nennt man dann Basisvariable. Die ubrigen Variablen heißen Nicht-basisvariable oder Nullvariable.

Page 169: 3486584472_Mathem

156 3 Lineare Optimierung

Nach Definition 3.8 gilt also:

Basislosung = Eckpunkt

Nun konnen wir den Satz formulieren, der gewissermaßen der Hauptsatz dieses Kapi-tels ist.

Satz 3.12 Es gelte rg (A) = m, und die Menge der zulassigen Punkte sei nicht leer.Dann nimmt die Zielfunktion ihren optimalen Wert in einem Eckpunkt an.

Damit bietet sich ein ganz harmlos erscheinender Weg an, das Optimum zu suchen.Wir checken einfach samtliche Ecken des gegebenen Polyeders der Reihe nach durchund suchen die Ecke mit dem optimalen Wert der Zielfunktion. Ja, aber wie findet mandenn die Ecken? Davon gibt es bei Problemen mit ein paar mehr Nebenbedingungenreichlich viel. Der Weg, den Herr G. B. Dantzig schon 1947/48 vorschlug, vermeidet aufgeschickte Weise weite Umwege und wahlt sich die Ecken, die schneller zum optimalenWert fuhren. Wir werden diesen Algorithmus im nachsten Abschnitt kennenlernen.Moglicherweise hat ein solches Problem mehr als eine Losung. Wenn aber zwei Eck-punkte den optimalen Wert der Zielfunktion liefern, so tut das auch jeder Punkt aufder Geraden zwischen diesen Eckpunkten. Um das zu demonstrieren, andern wir imBeispiel 3.5 die Zielfunktion ab.

Beispiel 3.13 Gesucht wird das Maximum der Zielfunktion

f(x1, x2) = 4x1 + 9x2 = max

unter den Nebenbedingungen

4x1 + 9x2 ≤ 36 und 8x1 + 3x2 ≤ 24, x1, x2 ≥ 0.

Wie man leicht feststellt, ist nun die Zielfunktion parallel zu einer ganzen Kante desPolyeders. Man vergleiche die Abbildung 3.4 von Seite 151. Die beiden Eckpunkte(0, 4) und (1.8, 3.2) liefern beide denselben Wert der Zielfunktion, namlich 36, unddieser Wert ist optimal. Offensichtlich liefert aber auch jeder Wert auf der Kante, dievon diesen beiden Eckpunkten bestimmt wird, denselben optimalen Wert.Nun kann es auch passieren, daß ein lineares Optimierungsproblem keine Losung be-sitzt. Schauen wir uns ein Beispiel dafur an.

Beispiel 3.14 Gesucht ist das Maximum der Zielfunktion

f(x1, x2) = 2x1 + x2

unter den Nebenbedingungen

−x1 + x2 ≤ 1x1 − 2x2 ≤ 2

, x1 ≥ 0, x2 ≥ 0

Eine graphische Darstellung zeigt die Abbildung 3.7 von Seite 157, aus der man dasentstandene Argernis abliest. Der Bereich, in dem das Maximum gesucht wird, istnicht beschrankt.

Page 170: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 157

0 1 2 3 4 x1

234

x2

x1 − 2x2 = 2

−x1 + x2 = 1

f(x1, x2) = 0

Abbildung 3.7: Ein nicht losbares Optimierungsproblem

3.5 Der Simplex–Algorithmus

Zur Beschreibung des oben bereits angekundigten Algorithmus fuhren wir die Ta-bleau–Schreibweise ein.

Definition 3.15 Unter einem Simplex–Tableau verstehen wir die folgende Tabelle:

−x1 −x2 . . . −x . . . −xn

f α00 α01 α02 . . . α0 . . . α0,n

xn+1 α10 α11 α12 . . . α1 . . . α1,n...

......

......

...xn+µ αµ0 αµ1 αµ2 . . . αµ . . . αµ,n

......

......

......

xn+m αm0 αm1 αm2 . . . αm . . . αm,n

Zunachst wahlen wir eine Ecke und bestimmen damit, welche Variablen wir zu Ba-sisvariablen und welche zu Nullvariablen machen. Die erste Zeile enthalt die Nichtba-sisvariablen oder auch Nullvariablen, die wir samtlich mit dem negativen Vorzeichenversehen. Das vereinfacht die Rechnung ein wenig. In der zweiten Zeile finden wir dieKoeffizienten der Zielfunktion. α00 ist der Wert der zu minimierenden Funktion. Ge-hen wir von der Basislosung x1 = · · · = xn = 0 aus, so ist also α00 = f(x1, . . . , xn) = 0.In den weiteren Spalten stehen die Koeffizienten der Nullvariablen, wobei wir diese –wie darubergesetzt – negativ fuhren. Die folgenden Zeilen enthalten die Koeffizientender Nebenbedingungen, wobei diese Gleichungen jeweils nach den Basisvariablen, furdie wir ja im ersten Schritt die Schlupfvariablen wahlen konnen, aufgelost wurden unddie Nullvariablen wieder negativ gefuhrt werden.

Der eigentliche Simplexalgorithmus wurde bereits 1947/48 von G. D. Dantzig ent-wickelt, aber erst 1960 in einer Arbeit schriftlich vorgestellt. Es handelt sich im we-sentlichen darum, nicht samtliche Ecken des Polyeders zu betrachten, sondern, von

Page 171: 3486584472_Mathem

158 3 Lineare Optimierung

einem ersten Eckpunkt ausgehend, eine weitere Ecke so zu bestimmen, daß die Ziel-funktion (bei einer Maximumsuche) ihren großten Zuwachs dort annimmt. Die Suchenach weiteren solchen Ecken geschieht dann stets auf die gleiche Weise. Da ein solchesPolyeder nur endlich viele Ecken besitzt, endet die Suche nach endlich vielen Schrit-ten. Die Anzahl dieser Schritte ist im Normalfall wesentlich kleiner als die Anzahl derEcken.

Erlauterung: Im wesentlichen verlauft der Algorithmus in zwei Schritten.

• Bestimmung einer Anfangsecke

• Austausch mit einer Nachbarecke.

Das Simplexverfahren

1 Bestimme einen Eckpunkt und das zugehorige Simplextableau.

2 Falls α0j ≤ 0, j = 1, . . . , n, gehe zu Schritt 4 , sonst bestimme ∈ 1, . . . , n,so daß α0 > 0. Falls mehrere der α0 > 0 sind, so wahle das großte.

3 Falls αi ≤ 0, i = 1, . . . ,m, gehe zu Schritt 5 , sonst bestimme die zueliminierende µ-te Basisvariable: bestimme µ so, daß αµ0/αµ minimal ist,µ = 1, . . . ,m, αµ > 0. Tausche die µ-te Basisvariable und die -te Nichtbasis-variable und berechne das neue Simplextableau mit der Formel:

αij :=

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩

1/αµ i = µ, j =

αµj/αµ i = µ, j =

−αi/αµ i = µ, j =

(αijαµ − αiαµj)/αµ i = µ, j =

(3.22)

Gehe zu Schritt 2 .

4 Stop: Das vorliegende Simplextableau ist optimal.

5 Stop: Die Zielfunktion ist nach unten unbeschrankt.

Der erste Schritt, eine Anfangsecke zu bestimmen, fallt uns bei der Standardaufgabein den Schoß. Offensichtlich ist 0 = x0 = x1 = · · · = xn, xn+1, . . . , xn+m eine passendeWahl. So haben wir das erste Tableau bereits angelegt.

Der zweite Schritt wird im Algorithmus in mehrere Schritte unterteilt. In 2 wird ausden jeweiligen Basisvariablen die ausgesucht, die zum Austausch freigegeben wird.

Page 172: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 159

In 3 wird der beste Tauschpartner gesucht und mit der Gleichung (3.22) der Tauschvollzogen. Wir wollen am Beispiel der Transportaufgabe im einzelnen erlautern, woherdiese Formeln ihren Sinn beziehen.

3.5.1 Der Algorithmus am Beispiel der Transportaufgabe

Wir erlautern diesen Algorithmus am obigen Transportproblem, wie wir es in denGleichungen (3.6) und (3.7) schon in einer reduzierten Form vorgestellt haben. Daserste Tableau gibt genau die Standardform der Aufgabe wieder. Wir wahlen xH , yH

als Nullvariable und damit (0, 0) als ersten Eckpunkt.In der ersten Zeile stehen gerade nur die Nullvariablen mit negativem Vorzeichen.In der zweiten Zeile finden wir die Koeffizienten der Zielfunktion. Sie lautete fur dasTransportproblem, wenn wir die negativen Variablen bedenken

K(xH , yH) = 5xH − 10yH + 765 = (−5)(−xH) + 10(−yH) + 765.

Die ersten beiden Zeilen des Tableaus lauten damit:

−xH −yH

K 765 −5 10

Die weiteren Zeilen entstammen den Nebenbedingungen. Fur jede der drei fuhren wireine Schlupfvariable ein und schreiben sie in der Form:

xH + yH + x3 = 9 (3.23)xH + x4 = 5 (3.24)yH + x5 = 6 (3.25)

−xH − yH + x6 = −5 (3.26)

Das sind ubrigens die alten Gleichungen aus (3.4) und (3.5). Aus dieser Form konnenwir die Matrix A und den Vektor b direkt ablesen:

A =

⎛⎜⎜⎝

1 1 1 0 0 01 0 0 1 0 00 1 0 0 1 0

−1 −1 0 0 0 1

⎞⎟⎟⎠ , b =

⎛⎜⎜⎝

956

−5

⎞⎟⎟⎠ .

Die Spalten drei bis sechs der Matrix A zeigen uns direkt, daß die Matrix den Rangvier hat, also den vollen Zeilenrang. Die Voraussetzung rgA = m, wobei m die Zei-lenzahl bedeutete, ist also erfullt. Gleichzeitig erkennen wir, daß bei der Form derNebenbedingungen als Ungleichungen diese Bedingung stets erfullt ist. Denn durchEinfuhrung von Schlupfvariablen sehen die hinteren Spalten gerade so aus wie inobiger Matrix, und deren lineare Unabhangigkeit sieht man mit einem halben Auge.Diese Voraussetzung wird also erst relevant, wenn wir allgemeinere Nebenbedingungenin Gleichungsform vorgeben.

Page 173: 3486584472_Mathem

160 3 Lineare Optimierung

Jetzt losen wir die entstandenen Gleichungen jeweils nach der Schlupfvariablen aufund berucksichtigen wieder die Vorzeichenumkehr.

x3 = 9 + 1(−xH) + 1(−yH)x4 = 5 + 1(−xH)x5 = 6 + 1(−yH)x6 = −5− 1(−xH)− 1(−yH)

Genau die hier entstandenen Zahlen bilden die weiteren Zeilen des Tableaus, das wirnun vervollstandigen konnen.

1. Tableau:

−xH −yH

K 765 −5 10x3 9 1 1x4 5 1 0x5 6 0 1x6 −5 −1 −1

Damit ist der Schritt 1 getan. Allerdings war es bis hierher nur ein anderes Auf-schreiben der Aufgabe. Jetzt setzt der Algorithmus ernsthaft ein.Im Schritt 2 werden die Koeffizienten der Zielfunktion auf ihr Vorzeichen hin be-trachtet. Ist keiner mehr positiv, so sind wir fertig. Der Koeffizient von −yH ist hier10 > 0. Wir wahlen also = 2 (yH ist ja die zweite Koordinate unseres Problems). Inder Graphik bedeutet diese Wahl, daß wir auf der yH–Achse einen weiteren Eckpunktdes Polyeders suchen wollen. Die jetzt zu berechnenden Quotienten αµ0/αµ sind,wenn wir die Geradengleichungen richtig deuten, die Schnittpunkte der das Polyederbildenden Geraden mit der yH–Achse. Davon wahlen wir nur von den positiven denkleinsten, damit also den dem Nullpunkt am nachsten liegenden Eckpunkt im erstenQuadranten auf der yH–Achse. Diesen Koeffizienten, der zur Basisvariablen x5 gehort,haben wir vorsorglich schon umrahmt. Haufig wird er ’Pivotelement’ genannt. Die sobestimmte Basisvariable wird nun gegen yH getauscht. Das geschieht dadurch, daßwir die Nebenbedingung, in der x5 enthalten ist, nach yH auflosen und damit in allenanderen Gleichungen yH ersetzen. yH = 6− x5 impliziert

K(xH , yH) = K(xH , y5) = 5xH − 60 + 10x5 + 765= 705 − 5(−xH)− 10(−x5)

x3 = 3− xH + x5

= 3 + 1(−xH)− 1(−x5)x4 = 5 + 1(−xH) + 0(−x5)x6 = −5− (−xH)− (−6 + x5)

Genau diese Gleichungen sind es, die in das nachste Tableau ubertragen werden. DieseAufloserei verbirgt sich hinter den Formeln (3.22) im Schritt 3 unseres Algorithmus,dessen Berechnungsvorschrift sich kurz so zusammenfassen laßt:

Page 174: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 161

Tableaurechnung

1. Elemente außerhalb der Pivotzeile und Pivotspalte:Determinante einer (2× 2)–Matrix berechnen, Division durch Pivotelement

2. Pivotzeile: Division durch Pivot–Element

3. Pivot–Spalte: Division durch Pivotelement, Vorzeichenumkehr

4. Pivotelement: Kehrwert

So gelangt man mit leichtem Schritt und frohem Sinn zum

2. Tableau:

−xH −x5

K 705 −5 −10x3 3 1 −1x4 5 1 0yH 6 0 1x6 1 −1 1

Wir sind bereits fertig; denn die Koeffizienten der Zielfunktion in der ersten Zeile sindalle negativ. Damit gelangen wir im Algorithmus zum Punkt 4 , und unser Tableauist optimal.

Die Auswertung des letzten Tableaus geht nun folgendermaßen vor sich:

In der ersten Zeile stehen die Variablen, die im gegenwartigen Zeitpunkt Nullvaria-ble sind, hier ist also xH = x5 = 0. Aus der Skizze oder aus den Nebenbedingun-gen konnen wir damit entnehmen, welche Geraden zum gesuchten Eckpunkt fuhren,namlich genau die, die mit diesen Variablen gebildet werden. Das sind die Geradenaus der Nebenbedingung (3.25) und der xH–Achse. Die zweite Zeile enthalt die Ziel-funktion. Der gesuchte minimale Wert ist 705. Von den weiteren Zeilen ist jeweils nurdie erste und die zweite Spalte interessant. Dort stehen die Werte, die die ubrigenVariablen in diesem Eckpunkt annehmen. Wir entnehmen also yH = 6, und wennwir noch an den anderen Variablen interessiert sind, x3 = 3, x4 = 5. So haben wirdenn auf rechnerischem Wege unsere Losung des Transportproblems von Seite 150wiedergefunden.

Page 175: 3486584472_Mathem

162 3 Lineare Optimierung

Tableauauswertung

1. Variable der ersten Zeile = 0

2. Variable der ersten Spalte: Wert in zweiter Spalte

3. Zielfunktion: zweite Zeile

4. minimaler Wert der Zielfunktion: Element (2, 2)

3.5.2 Sonderfalle

In diesem Abschnitt wollen wir uns mit drei Sonderfallen befassen, zunachst mit einemunlosbaren Problem (Beispiel 3.16), danach mit einem Problem, das mehrere Losungenbesitzt (Beispiel 3.13) und schließlich eine entartete Ecke mit dem Simplexalgorithmusangehen (Beispiel 3.18).Wir kommen zuruck auf das nichtlosbare Problem aus Beispiel 3.14 von Seite 156. Wirkonnen auch am Simplexalgorithmus ablesen, daß dieses Problem leider keine Losungbesitzt.

Beispiel 3.16 Dazu betrachten wir die Standardform, suchen also das Minimum derFunktion

f(x1, x2) = −2x1 − x2

unter den obigen Nebenbedingungen, die wir durch Einfuhrung von zwei Schlupfvaria-blen x3, x4 auf die Gleichungsform bringen:

−x1 + x2 + x3 = 1x1 − 2x2 + x4 = 2

Das erste Tableau lautet dann:

1. Tableau:

−x1 −x2

f 0 2 1x3 1 −1 1x4 2 1 −2

Da bei x1 ein großerer Wert steht als bei x2, tauschen wir x1 aus. Nur bei x4 findenwir einen Wert ≥ 0, also wird x1 gegen x4 getauscht. Wir haben diesen Punkt bereitsdurch Umrahmung hervorgehoben. Daraus berechnen wir nach dem Algorithmus daszweite Tableau:

2. Tableau:

−x4 −x2

f −4 −2 5x3 3 1 −1x1 2 1 −2

Page 176: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 163

Klar, daß wir hier nun x2 austauschen wollen. Aber gegen welche Variable sollenwir tauschen? In der Spalte unter x2 sind nur negative Werte zu finden. Genau zudiesem Fall gibt uns der Algorithmus die Antwort: Beende das Verfahren, denn dieZielfunktion ist unbeschrankt.Als zweites Beispiel betrachten wir die Aufgabe 3.13 von Seite 156, bei der eine ganzePolygonseite den maximalen Wert erbrachte. Wie wirkt sich das im Algorithmus aus?

Beispiel 3.17 Gesucht wird das Maximum der Zielfunktion

f(x1, x2) = 4x1 + 9x2 = max

unter den Nebenbedingungen

4x1 + 9x2 ≤ 36 und 8x1 + 3x2 ≤ 24, x1, x2 ≥ 0.

Wir sind ja nun schon so erfahren, daß wir uns auf die Wiedergabe der Tableausbeschranken konnen.

1. Tableau:

−x1 −x2

f 0 4 9x3 36 4 9x4 24 8 3

−→ 2. Tableau:

−x1 −x3

f −36 0 −1x2 4 4/9 1/9x4 12 20/3 −1/3

Wir sind bereits am Ende. Alle Koeffizienten der ersten Reihe sind negativ oder gleichNull. Basisvariable sind dann x1 und x3. Beide gleich Null liefert den Eckpunkt (0, 4)mit dem minimalen Wert f(0, 4) = −36, also dem maximalen Wert der Ausgangsziel-funktion f(0, 4) = 36, wie das Gesetz es befahl, nein, wie es die Graphik ergab.Betrachten wir nun noch zum zweiten Mal das Beispiel 3.9, das uns aus der graphischenDarstellung (vgl. S. 154) zwei entartete Eckpunkte bescherte.

Beispiel 3.18 Gesucht ist das Maximum der Zielfunktion

f(x1, x2) = 2x1 + x2

unter den Nebenbedingungen

−x1 + x2 ≤ 1x1 − 2x2 ≤ 2x1 + 2x2 ≤ 2x1 + x2 ≤ 2

, x1 ≥ 0, x2 ≥ 0

Bei der praktischen Berechnung mit dem Simplexalgorithmus wird eine solche Entar-tung fast unmerklich ubergangen. Der Algorithmus bleibt einfach an dieser Ecke eineoder mehrere Runden lang stehen. Schließlich wird er aber weitergefuhrt und findetseinen optimalen Wert. Wir schreiben die Tableaus kurz auf, um das Verhalten zudemonstrieren.

Page 177: 3486584472_Mathem

164 3 Lineare Optimierung

Das erste Tableau lautet, wenn wir das Minimum der Funktion f(x1, x2) = −2x1−x2

suchen:

1. Tableau:

−x1 −x2

f 0 2 1x3 1 −1 1x4 2 1 −2x5 2 1 2x6 2 1 1

Der Koeffizient von f ist bei x1 am großten, also wird x1 getauscht. Die Quotientenim zweiten Schritt des Algorithmus sind hier nun alle gleich, namlich gleich 2. Oh-ne irgendeinen Grund wahlen wir als zu tauschende Variable x4. Wir werden gleichanschließend zeigen, wie sich die Wahl x5 auswirken wurde. Mit dieser Wahl der Ba-sisvariablen x2 und x4 haben wir die entscheidende Ecke bereits erreicht. Aber derAlgorithmus will noch etwas arbeiten.

2. Tableau:

−x4 −x2

f −4 −2 5x3 3 1 −1x1 2 1 −2x5 0 −1 4x6 0 −1 3

Hier muß also noch einmal x2 getauscht werden. Als Quotienten erhalten wir in dervorletzten und in der letzten Zeile des Tableaus jeweils den Wert 0. Wir entscheidenuns, x5 auszutauschen. Das fuhrt zum

3. Tableau:

−x4 −x5

f −4 −3/4 −5/4x3 3 3/4 1/4x1 2 2/4 1/2x2 0 −1/4 1/4x6 0 −1/4 −4/4

Jetzt meldet der Algorithmus, das Ende sei erreicht, da die Koeffizienten in der Ziel-funktion negativ sind. Der Wert der Zielfunktion war schon im 2. Tableau −4. DiesesMinimum wird an der Stelle (x1, x2) = (2, 0) angenommen, wie wir es aus der Skizzeentnommen haben.Hatten wir uns oben fur die Variable x5 als auszutauschende entschieden, ware uns

Page 178: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 165

eine Runde Simplex erspart geblieben. Das zweite Tableau lautet dann namlich:

2. Tableau:

−x5 −x2

f −4 −2 −3x3 3 1 3x4 0 −1 −4x1 2 1 2x6 0 −1 −1

Der minimale Wert wird bei (x1, x2) = (2, 0) angenommen, und er betragt −4 wieoben.Wir schließen dieses Kapitel mit einem Anwendungsbeispiel, wie man es zwar in Schul-buchern findet, aber wohl kaum noch ernstlich in der Praxis. Dort handelt man nichtmit zwei Unbekannten und drei Nebenbedingungen, sondern hat tausend Unbekannte,die vielleicht zwanzigtausend Nebenbedingungen genugen mussen. Die Probleme, diesich bei der Behandlung solcher umfangreicher Aufgaben auftun, konnen wir hiernaturlich nicht erortern. Sie sind Gegenstand der modernen Forschung. Unser Beispielsoll lediglich demonstrieren, wie man aus praktischen Vorgaben das mathematischeModell entwirft, um es anschließend mit unserem Algorithmus zu losen.

Beispiel 3.19 Eine Fabrik stellt Kuchenmaschinen in den Modellen K1 und K2 her.Fur die Herstellung werden drei Maschinen M1,M2 und M3 mit folgendem Zeitauf-wand (in Stunden) verwendet:

M1 M2 M3

K1 1 2/3 1K2 1 4/3 2/3

Werden an einem achtstundigen Arbeitstag x1 Stuck von dem Modell K1 und x2 Stuckvon dem Modell K2 hergestellt, so errechnet sich der Tagesgewinn nach

G(x1, x2) = 15x1 + 20x2.

Bestimmen Sie graphisch, wieviel Stuck von K1 und K2 taglich (also in 8 Stunden)hergestellt werden mussen, damit der hochste Gewinn erzielt wird?

Dies ist eine weitere typische Anwendungsaufgabe, bei der uns die Gewinnfunktionvorgegeben ist, aber die Nebenbedingungen mussen noch aus der Tabelle fur denZeitaufwand in mathematische Form gegossen werden.Nun, jede Maschine hat acht Stunden pro Tag zu schaffen. Die Tabelle sagt uns, wievielZeit jede Maschine fur ein Stuck benotigt. Daraus gewinnen wir die Nebenbedingun-gen:

x1 + x2 ≤ 8 ⇐⇒ x1 + x2 ≤ 8

23x1 + 4

3x2 ≤ 8 ⇐⇒ 2x1 + 4x2 ≤ 24

x1 + 23x2 ≤ 8 ⇐⇒ 3x1 + 2x2 ≤ 24

(3.27)

Page 179: 3486584472_Mathem

166 3 Lineare Optimierung

x

y

2

1

8

8

G

Abbildung 3.8: Losung von Beispiel 3.10

Wir haben wieder mit Schulkenntnissen die zugehorige Abbildung 3.8 bereitgestellt.Wir sehen, daß die Aufgabe entartet ist. Durch den Eckpunkt (8, 0) gehen mehrereGeraden, die von den Nebenbedingungen herruhren. Die Abbildung zeigt uns weiter,daß der maximale Gewinn im Eckpunkt (4, 4) angenommen wird. Der Gewinn betragtdort

G(4, 4) = 15 · 4 + 20 · 4 = 140.

Wir kommen zum Simplexalgorithmus fur diese Aufgabe.Durch Einfuhrung von drei Schlupfvariablen x3, x4, x5 werden aus den UngleichungenGleichungen. Die Matrix A fur die Nebenbedingungen lautet

A =

⎛⎝ 1 1 1 0 0

2 4 0 1 03 2 0 0 1

⎞⎠ . (3.28)

Offensichtlich hat auch diese Matrix den vollen Zeilenrang 3. Statt den hochsten Ge-winn der Gewinnfunktion G zu suchen, werden wir uns auf den minimalen Wert derFunktion

f(x) = −15x1 − 20x2 (3.29)

spitzen, um damit die Standardform zu bearbeiten.Das erste Tableau lautet so:

1. Tableau:

−x1 −x2

f 0 15 20x3 8 1 1x4 24 2 4x5 24 3 2

Page 180: 3486584472_Mathem

3.5 Der Simplex–Algorithmus 167

Wir tauschen x2 gegen x4 und erhalten das

2. Tableau:

−x1 −x4

f −120 5 −5x3 2 1/2 −1/4x2 6 1/2 1/4x5 12 2 −1/2

Hier tauschen wir noch einmal x1 gegen x3, um damit das Endtableau zu erhalten:

3. Tableau:

−x3 −x4

f −140 −10 −5/2x1 4 2 −1/2x2 4 −1 1/2x5 4 −4 1/2

Als Losung entnehmen wir diesem Tableau, daß x1 = x2 = 4 der Eckpunkt mit demminimalen Wert der Zielfunktion

f(4, 4) = −140 ⇐⇒ G(4, 4) = 140

ist, was wir oben an der Zeichnung bereits gesehen haben.Auch hier sieht man, daß der Entartungsfall dem Algorithmus gar nicht aufgefallenist. Er arbeitet uber diesen Punkt ohne Hindernis hinweg.

Page 181: 3486584472_Mathem
Page 182: 3486584472_Mathem

Kapitel 4

Interpolation

4.1 Polynominterpolation

4.1.1 Aufgabenstellung

Eine haufig in den Anwendungen zu findende Aufgabe besteht darin, gegebene Punktein der Ebene durch eine Kurve zu verbinden. Dahinter verbirgt sich mathematisch eineInterpolationsaufgabe, die wir folgendermaßen charakterisieren:

Definition 4.1 Unter einer Interpolationsaufgabe mit Polynomen verstehen wir dasfolgende Problem:Gegeben seien N+1 Punkte in der Ebene: (x0, y0), (x1, y1), . . . , (xN , yN ). Wir nennenx0, . . . , xN die Stutzstellen.Gesucht wird ein Polynom p moglichst niedrigen Grades mit der Eigenschaft:

p(x0) = y0, p(x1) = y1, . . . , p(xN ) = yN (4.1)

Da ein Polynom N–ten Grades tatsachlich N + 1 unbekannte Koeffizienten aufweistund in obiger Aufgabe genau N +1 Punkte vorgegeben sind, wird man intuitiv erwar-ten, daß es in der Regel genau ein solches Polynom N–ten Grades geben wird, welchesunsere Aufgabe lost. Schließlich entsteht ja bei der Interpolation ein einfaches linearesGleichungssystem. Mit dem Ansatz

p(x) = a0 + a1x + a2x2 + · · ·+ aNxN (4.2)

erhalten wir die folgenden N + 1 Gleichungen:

p(x0) = a0 + a1x0 + a2x20 + · · ·+ aNxN

0 = y0

p(x1) = a0 + a1x1 + a2x21 + · · ·+ aNxN

1 = y1

p(x2) = a0 + a1x2 + a2x22 + · · ·+ aNxN

2 = y2...

...p(xN ) = a0 + a1xN + a2x

2N + · · · + aNxN

N = yN

(4.3)

Page 183: 3486584472_Mathem

170 4 Interpolation

In diesem (quadratischen) System sind die ai, i = 0, . . . , N , die Unbekannten. Nachdem Alternativsatz fur lineare Systeme hat es genau eine Losung dann und nur dann,wenn die Determinante des Systems nicht verschwindet. Schauen wir uns also zuerstdie Systemmatrix genauer an.

A =

⎛⎜⎜⎜⎝

1 x0 x20 · · · xN

0

1 x1 x21 · · · xN

1...

...1 xN x2

N · · · xNN

⎞⎟⎟⎟⎠ (4.4)

Definition 4.2 Die in Gleichung (4.4) auftretende Matrix heißt Vandermonde–Matrix.

Fur diese Matrix konnen wir unter einer leichten Einschrankung an die Stutzstellenihre Regularitat beweisen.

Satz 4.3 Die Vandermonde–Matrix des Systems (4.3) ist regular, falls die Stutzstellenpaarweise verschieden sind.

Hier wollen wir den Beweis vorfuhren; denn einmal ist er ganz pfiffig gemacht, undzum zweiten entnimmt man erst dem Beweis den wahren Grund fur die Einschrankungan die Stutzstellen.Wir zeigen, daß die Determinante dieser Matrix nicht verschwindet. Dazu entwickelnwir sie nach der letzten Zeile. Das ergibt

det A = (−1)N+1 · 1∣∣∣ · · · ∣∣∣+ (−1)N+2 · xN

∣∣∣ · · · ∣∣∣+ · · ·+ (−1)2N · xNN

∣∣∣∣∣∣∣1 x0 . . . xN−1

0...

...1 xN−1 . . . xN−1

N−1

∣∣∣∣∣∣∣Das ist ein Polynom in xN vom Grad N . Der Vorfaktor vor dem letzten Summandenist dabei 1, da 2N eine gerade Zahl ist. Bezuglich dieser Variablen xN hat das Polynomdie Nullstellen x0, x1, . . . , xN−1; denn setzt man xN = x0, so sind in der Matrix A dieerste und die letzte Zeile identisch, ihre Determinante verschwindet also. Das gleichepassiert fur xN = x1, . . . , xN = xN−1. Das Polynom ist also von der Form

det A = c · (xN − x0) · · · (xN − xN−1).

Klammert man das alles aus, so entsteht als erstes ein Term c · xNN . Das ist fein, denn

oben hatten wir die Determinante ja auch schon in der Form hingeschrieben. Jetztkonnen wir also einen Koeffizientenvergleich durchfuhren und erhalten

c =

∣∣∣∣∣∣∣1 x0 · · · xN−1

0...

......

1 xN−1 · · · xN−1N−1

∣∣∣∣∣∣∣.

Das ist eine um eine Zeile und Spalte kleinere Vandermonde–Matrix. Nach dem glei-chen Schluß wie oben ist diese Determinante von der Form

d(xN−1 − x0) · · · (xN−1 − xN−2).

Page 184: 3486584472_Mathem

4.1 Polynominterpolation 171

Abbildung 4.1: Tunneldaten

Jetzt wiederholen wir die Schlußweise (ein Mathematiker ist aufgefordert, hier eineleichte Induktion durchzufuhren) und bekommen als Endresultat

det A =∏

0≤i<j≤N

(xj − xi). (4.5)

Nun kann endlich die Frage beantwortet werden, warum die Voraussetzung uber dieStutzstellen gemacht werden muß. Hier sieht man, daß diese Determinante nur un-gleich 0 ist, wenn die Stutzstellen paarweise verschieden sind. Damit ist der Beweisvollstandig erbracht.

Damit haben wir aber sogleich nach dem Alternativsatz fur lineare Gleichungssystemedie Bedingung dafur gefunden, daß unsere Interpolationsaufgabe losbar ist.

Satz 4.4 Genau dann, wenn die Stutzstellen x0, . . . , xN paarweise verschieden sind,gibt es genau ein Polynom p vom Grad kleiner oder gleich N , das unsere Interpolati-onsaufgabe (4.1) lost.

Beispiel 4.5 Wir betrachten die folgende Interpolationsaufgabe.Gegeben seien in der (x, y)–Ebene die 13 Punkte:

xi −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6

yi 1 1 1 1 1 +√

5 1 +√

8 4 1 +√

8 1 +√

5 1 1 1 1

Bestimmen Sie das Polynom p(x), welches diese Punkte interpoliert.

Hier ist es ganz instruktiv, sich die gegebenen Punkte in der Ebene zu veranschauli-chen, wie wir es in der Abbildung 4.1 getan haben.

1 3 5−1−3−5

4

y

x

Page 185: 3486584472_Mathem

172 4 Interpolation

Die Daten beschreiben den Querschnitt durch einen Tunnel. Besonders hinterhaltigist der senkrechte Anstieg bei x = −3 und x = 3. Da hat naturlich jede Interpolationihre Probleme.Versuchen wir erst mal, mit der Originalmethode ans Ziel zu gelangen. In den Ansatz(4.2) setzen wir obige Punkte ein und erhalten mit N = 12 das System

p(−6) = a0 + a1(−6) + a2(−6)2 + a3(−6)3 + · · ·+ a12(−6)12 = 1p(−5) = a0 + a1(−5) + a2(−5)2 + a3(−5)3 + · · ·+ a12(−5)12 = 1p(−4) = a0 + a1(−4) + a2(−4)2 + a3(−4)3 + · · ·+ a12(−4)12 = 1

......

p(1) = a0 + a11 + a212 + a313 + · · · + a12112 =√

8 + 1...

...p(6) = a0 + a16 + a262 + a363 + · · · + a12612 = 1

Ehrlich, wer hat schon Lust, solch ein Gleichungssystem zu losen? Dies ware noch keinschwerwiegender Einwand, obwohl sehr viel neue Erkenntnis auch aus einer gewissenFaulheit herruhrt. Der entscheidendere Grund, hier nicht weiter zu arbeiten, liegt imSystem begrundet. Wir finden kleine Zahlen neben sehr großen Elementen in der Ma-trix. Das bereitet in der Regel große Probleme bei der numerischen Berechnung. DieseVandermonde–Matrizen sind sehr schlecht konditioniert. Obige mit der Reihenzahl 13hat die Kondition

cond (A) =480 132 009 101 824

51 975≈ 1010.

Ihre Determinante ist zwar fur die Numerik nicht sehr wesentlich, aber die Zahl ist soeindrucksvoll (Dank an Maple):

det (A) = 127 313 963 299 399 416 749 559 771 247 411 200 000 000 000 ≈ 1045.

Ohne guten Rechner und ein noch besseres Programm wird man hier wohl die Segelstreichen mussen.Wir werden uns also zunachst nach besseren Methoden umsehen, ehe wir dieses Bei-spiel losen.

4.1.2 Lagrange–Interpolation

Der Satz 4.4 sagt uns nicht nur, daß es eine Losung der Interpolationsaufgabe (4.1)gibt, sondern er ist in seinem Beweis sogar konstruktiv und gibt ein Verfahren an,mit dem man die Aufgabe tatsachlich losen kann, wie wir im Beispiel 4.5 gesehenhaben. Aber wie das so geht im Leben, nicht jede Moglichkeit ist eine gute Idee.Diese hier ist sogar ausgesprochen schlecht, vergleichbar mit der Cramerschen Regelzur Losung von linearen Gleichungssystemen. Bose Zungen vergleichen wegen solcherRegeln Mathematiker mit Eunuchen, die zwar wissen, wie ”es“ geht, ”es“ aber nichtkonnen.

Page 186: 3486584472_Mathem

4.1 Polynominterpolation 173

In diesem Abschnitt setzen wir noch eins drauf, indem wir ein Verfahren schildern, dasden gleichen Nachteil besitzt, namlich praktisch vollig unbrauchbar zu sein, obwohl essehr einfach zu erklaren und zu durchschauen ist. Joseph Louis de Lagrange hat sichdas vor ca. zweihundert Jahren einfallen lassen.

Definition 4.6 Die Polynome

ϕN,j(x) =(x− x0)(x− x1) · · · (x− xj−1)(x− xj+1) · · · (x− xN )

(xj − x0)(xj − x1) · · · (xj − xj−1)(xj − xj+1) · · · (xj − xN ), (4.6)

j = 0, 1, . . . , N.

heißen Lagrange–Grundpolynome zu den Stutzstellen x0, . . . , xN .

Die nachste Eigenschaft dieser Lagrange–Grundpolynome fallt geradezu ins Auge:

Satz 4.7 Das Lagrange–Grundpolynom ϕN,j hat an der Stutzstelle xj den Wert 1, anallen anderen Stutzstellen verschwindet es. Mit dem Kroneckersymbol

δi,j :=

1 fur i = j0 fur i = j

, (4.7)

schreibt sich dies

ϕN,j(xi) = δi,j , i, j = 0, . . . , N. (4.8)

Damit ist es nun leicht, das Interpolationspolynom, welches der Interpolationsaufgabe(4.1) genugt, anzugeben. Benutzt man fur ϕ zur Abkurzung die Produktschreibweise,so gilt:

Satz 4.8 Das einzige Polynom, welches die Interpolationsaufgabe (4.1) lost, lautet

pN (x) =N∑

j=0

yj

N∏k=0k =j

x− xk

xj − xk.

Dieses Interpolationspolynom heißt Lagrangesches Interpolationspolynom.

Beweis: Der Beweis erubrigt sich fast. Offensichtlich handelt es sich um ein PolynomN–ten Grades. Die Interpolationseigenschaften ergeben sich direkt mit (4.8).

Damit haben wir quasi durch Konstruktion des Polynoms seine Existenz gezeigt, dieEinzigkeit wurde ja schon im Satz 4.4 nachgewiesen.Hier wird die Parallelitat zur unnutzbaren Cramerschen Regel fur Gleichungssystemenoch deutlicher. Offensichtlich ist es kein Thema, das Polynom direkt hinzuschreiben,wie wir es im folgenden Beispiel vorfuhren. Fur theoretische Zwecke leistet Lagrangealso Gutes. Wir werden aber anschließend uber die Nachteile dieser Methode einigessagen.

Page 187: 3486584472_Mathem

174 4 Interpolation

Beispiel 4.9 Seien die folgenden Punkte in der Ebene gegeben:

xi −3 −1 1 3 5

yi −14 6 2 22 114

Wir bestimmen das diese Punkte interpolierende Polynom nach Lagrange.

Die Antwort bedarf keiner weiteren Erlauterung, wir schreiben die Losung einfach auf:

p4(x) = −14(x + 1)(x − 1)(x − 3)(x− 5)

(−3 + 1)(−3 − 1)(−3 − 3)(−3− 5)

+6(x + 3)(x− 1)(x− 3)(x − 5)

(−1 + 3)(−1− 1)(−1 − 3)(−1 − 5)+ 2

(x + 3)(x + 1)(x− 3)(x− 5)(1 + 3)(1 + 1)(1 − 3)(1− 5)

+22(x + 3)(x + 1)(x− 1)(x − 5)(3 + 3)(3 + 1)(3 − 1)(3 − 5)

+ 114(x + 3)(x + 1)(x − 1)(x− 3)(5 + 3)(5 + 1)(5 − 1)(5 − 3)

Hier nun noch eine Umordnung nach Potenzen von x vorzunehmen, fuhrt mit Si-cherheit zu einer Unordnung – es sei denn, man laßt das einen dummen Rechnerdurchfuhren.

Beispiel 4.10 Gegeben sei die Interpolationsaufgabe von Beispiel 4.5.

xi −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6

yi 1 1 1 1 1 +√

5 1 +√

8 4 1 +√

8 1 +√

5 1 1 1 1

Wie lautet das Interpolationspolynom nach Lagrange?

Wir mussen hier lediglich eine ziemlich lange Summe von Lagrange–Grundpolynomenmit den zugehorigen y–Werten als Vorfaktoren hinschreiben. Jeder Summand ist dabeiein Polynom 12. Grades. Wir deuten das nur mal an; denn es ist schrecklich:

p12(x) = 1 · (x + 5)(x + 4)(x + 3)(x + 2)(x + 1)x(−6 + 5)(−6 + 4)(−6 + 3)(−6 + 2)(−6 + 1)(−6)

·

· (x− 1)(x− 2)(x− 3)(x− 4)(x − 5)(x − 6)(−6− 1)(−6 − 2)(−6− 3)(−6− 4)(−6 − 5)(−6− 6)

+ · · ·

Vielleicht mochte jemand dieses Polynom nach Potenzen von x sortieren. Naturlichgibt es dafur Programme. Aber man sieht auch so, welch Ungetum da entsteht. Diesist einer der wesentlichen Nachteile der Lagrange–Interpolation.Ein zweiter Nachteil zeigt sich, wenn vielleicht durch eine weitere Messung ein zusatz-licher Datenpunkt gewonnen wird und nun in das Polynom eigearbeitet werden muß.Dann ist die gesamte Rechnung neu durchzufuhren; denn jetzt besteht ja jeder Sum-mand aus einem Polynom 13. Grades. Also diese Idee hat theoretisch ihr Gutes, aberpraktisch ist sie wirklich nicht.

Page 188: 3486584472_Mathem

4.1 Polynominterpolation 175

4.1.3 Newton–Interpolation

Vor ungefahr dreihundert Jahren, also hundert Jahre vor Lagrange hat Sir Isaac New-ton die folgende Idee vorgestellt.

Definition 4.11 Der Newton–Ansatz zur Losung der Interpolationsaufgabe (4.1)lautet:

p(x) = a0 + a1(x− x0) + a2(x− x0) · (x− x1) + · · ·· · ·+ aN (x− x0) · (x− x1) · . . . · (x− xN−1) (4.9)

Man beachte hier, daß im letzten Summanden die Stutzstelle xN nicht explizit vor-kommt. Es durfen ja auch nur N Faktoren sein, um ein Polynom N–ten Grades zuerzeugen. Die Stutzstelle xN spielt naturlich trotzdem ihre Rolle, indem sie zur Be-rechnung der Koeffizienten a0, . . . ,aN herhalten muß, wie wir jetzt zeigen werden.Wenn wir in obigen Newton–Ansatz die Stutzstelle x0 einsetzen, so folgt (das ist jagerade der Witz dieses Ansatzes!)

p(x0) = a0.

Die verlangte Interpolationseigenschaft bedeutet dann

a0 = y0, (4.10)

womit wir schon den ersten Koeffizienten bestimmt haben.Setzen wir nun x1 in den Ansatz ein, so folgt

p(x1) = a0 + a1(x1 − x0) = y1.

Aufgelost nach a1 folgt

a1 =y1 − y0

x1 − x0. (4.11)

Diesen Term nennt man aus leicht ersichtlichen Grunden den ersten Differenzen-quotienten. Dieser Erfolg ermuntert uns, so fortzufahren und p(x2) zu berechnen:

p(x2) = y0 + a1(x2 − x0) + a2(x2 − x0) · (x2 − x1) = y2.

Daraus ermitteln wir

a2 =

y2 − y0

x2 − x0− a1

x2 − x1. (4.12)

In dieser Form findet man diesen zweiten Differenzenquotienten tatsachlich inder Literatur. Wir wollen ihn noch etwas verandern, um das anschließende Schemaplausibel zu machen. Aus dem ersten Differenzenquotienten entnehmen wir

y0 = y1 − a1(x1 − x0),

Page 189: 3486584472_Mathem

176 4 Interpolation

und damit geht folgende Umformung:

a2 =y2 − y1 + a1(x1 − x0)(x2 − x0)(x2 − x1)

− a1

x2 − x1

=y2 − y1

(x2 − x0)(x2 − x1)+

a1(x1 − x2 + x2 − x0)(x2 − x0)(x2 − x1)

− a1

x2 − x1

=y2 − y1

(x2 − x0)(x2 − x1)− a1

x2 − x0+

a1

x2 − x1− a1

x2 − x1

=

y2 − y1

x2 − x1− y1 − y0

x1 − x0

x2 − x0.

Hier sieht man, warum dieser Quotient zweiter Differenzenquotient heißt; im Zahlersteht die Differenz von zwei ersten Differenzenquotienten und im Nenner die zugehorigeDifferenz der Stutzstellen. Durch vollstandige Induktion laßt sich nun zeigen, daß auchdie weiteren Koeffizienten a3, . . . ,aN als Differenzenquotienten berechenbar sind. Wirschenken uns die durchaus aufwendige Herleitung. Als Bezeichnung hat sich folgendeSchreibweise mit eckigen Klammern eingeburgert:

Differenzenquotienten

[x0] := a0 = y0

[x1, x0] := a1 =y1 − y0

x1 − x0

[x2, x1, x0] := a2 =[x2, x1]− [x1, x0]

x2 − x0

[x3, x2, x1, x0] := a3 =[x3, x2, x1]− [x2, x1, x0]

x3 − x0

[xN , . . . , x0] := aN =[xN , . . . , x1]− [xN−1, . . . , x0]

xN − x0

Mit diesen Bezeichnungen schreibt sich nun der Newton–Ansatz so:

p(x) = [x0] + [x1, x0](x− x0) + · · ·· · ·+ [xN , . . . , x0](x− x0) · (x− x1) · . . . · (x− xN−1). (4.13)

Die Berechnung der Differenzenquotienten geschieht dabei nach folgendem Schema.Wir schreiben die gegebenen Stutzstellen untereinander als Spalte; als zweite Spalteschreiben wir daneben die gegebenen y–Werte. In die dritte Spalte, jeweils versetztzwischen die y–Werte, kommen die ersten Differenzenquotienten, wieder versetzt indie vierte Spalte die zweiten Differenzenquotienten und so fort. Die gesuchten Koeffi-

Page 190: 3486584472_Mathem

4.1 Polynominterpolation 177

zienten haben wir im folgenden Schema umrahmt:

x0 [x0]

[x1, x0]

x1 y1 [x2, x1, x0]

[x2, x1] [x3, x2, x1, x0]

x2 y2 [x3, x2, x1] [x4, x3, x2, x1, x0][x3, x2] [x4, x3, x2, x1]

x3 y3 [x4, x3, x2][x4, x3]

x4 y4

Hier erkennt man neben der leichten Berechenarkeit auch zugleich den zweiten großenVorteil der Newton–Interpolation. Wird ein weiterer Stutzpunkt gegeben mit zugehori-gem y–Wert, so kann die bisherige Rechnung vollstandig ubernommen werden. Anobiges Schema wird schlicht eine Zeile unten angefugt, dann werden die neuen Dif-ferenzenquotienten gebildet und als Ergebnis ein weiterer Term additiv an das altePolynom angehangt.

Beispiel 4.12 Versuchen wir uns an den Vorgabepunkten von Beispiel 4.9 (Seite 174)

xi −3 −1 1 3 5

yi −14 6 2 22 114

und bestimmen das zugehorige Interpolationspolynom nach Newton.Anschließend fugen wir einen weiteren Interpolationspunkt, namlich x5 = 2, y5 = 9hinzu und berechnen das Newton–Polynom erneut.

−3 −1410

−1 6 −3−2 1

1 2 3 010 1

3 22 946

5 114

Daraus lesen wir direkt das gesuchte Interpolationspolynom nach Newton ab:

p(x) = −14 + 10(x + 3)− 3(x + 3)(x + 1) + (x + 3)(x + 1)(x− 1)

Weil der vierte Differenzenquotient verschwindet, hat es lediglich den Grad 3.

Page 191: 3486584472_Mathem

178 4 Interpolation

Fugen wir nun den neuen Punkt x5, y5 hinzu, so sehen wir den weiteren großen Vorteilder Idee von Sir Isaac. Die alte Rechnung wird ubernommen und lediglich um eine Zeileerweitert. Dabei ist es uns schnurz egal, daß die neue Stutzstelle aus der aufsteigendenReihenfolge der alten Stutzstellen ausschert.

−3 −1410

−1 6 −3−2 1

1 2 3 0

10 1 115

3 22 9 13

46 25 114 11

352 9

Das neue Interpolationspolynom nach Newton lautet nun:

p(x) = −14 + 10(x + 3)− 3(x + 3)(x + 1) + (x + 3)(x + 1)(x − 1) +

+115

(x + 3)(x + 1)(x− 1)(x− 3)(x − 5)

Beispiel 4.13 Wagen wir uns mit diesem Schema auch noch an die Tunnelpunkteaus Beispiel 4.5.

Um den Leser nicht mit langen Zahlenkolonnen zu langweilen, geben wir nur diewesentlichen Newton–Koeffizienten an und zeigen in Abbildung 4.2 das Ergebnis.

a0 a1 a2 a3 a4 a5 a6

1 0 0 0 0.0932 −0.0696 0.0272

a7 a8 a9 a10 a11 a12

−0.00735 0.00153 −0.0002636 0.00005079 −0.00000633 0.000001055

Nun ja, ein Tunnel ist das nun gerade nicht, aber es interpoliert. Wir kommen inAbschnitt 4.2.1 darauf zuruck.

4.1.4 Auswertung von Interpolationspolynomen

Hat man nach den oben beschriebenen Verfahren das Interpolationspolynom aufge-stellt, so fragt man haufig nach Zwischenwerten außerhalb der Stutzstellen. Klar, daßman auch dafur nicht mit dem Lagrangepolynom arbeiten wird. Mit dem Newtonpoly-nom laßt sich das viel einfacher bewerkstelligen. Man erinnere sich nur an die Idee des

Page 192: 3486584472_Mathem

4.1 Polynominterpolation 179

-2

-1

0

1

2

3

4

5

-6 -4 -2 0 2 4 6

♦ ♦ ♦ ♦

♦♦ ♦ ♦

♦ ♦ ♦ ♦

Abbildung 4.2: Interpolationspolynom p(x) der Tunneldaten aus Beispiel 4.1. Im In-tervall [3, 6] hat dies mit einem Tunnel nichts zu tun.

Hornerschemas, um auch hier auf die folgende geschickte Klammerung zu kommen:

pN (x) = a0 + (x− x0)(a1 + (x− x1)(a2 + · · ·· · ·+ (x− xN−2)(aN−1 + (x− xN−1)aN ) · · · ). (4.14)

Die Anzahl der Operationen zur Auswertung des Polynoms laßt sich nicht weiterverringern. Diese Formel liefert den schnellsten Zugang.

Der Algorithmus von Neville–Aitken

Ist man nur am Wert des Interpolationspolynoms an einer einzigen Stelle x interes-siert, so ist folgender Algorithmus von Neville–Aitken eventuell hilfreich. Er ist zwarnumerisch aufwendiger als das Hornerschema — wer kann das schon schlagen? — laßtsich aber einfach programmieren. Man muß nur in das Newton–Schema ein kleinesUnterprogramm dazupacken.

Page 193: 3486584472_Mathem

180 4 Interpolation

Algorithmus von Neville–Aitken

Wir setzen

ϕ0i(x) := yi, i = 0, . . . , N, (4.15)

ϕki(x) = ϕk−1,i(x) + (x− xi)ϕk−1,i+1(x)− ϕk−1,i(x)

xk+i − xi(4.16)

k = 1, . . . , N, i = 0, 1, . . . , N − k

Dann gilt

pN (x) = ϕN,0(x). (4.17)

Beispiel 4.14 Wir greifen unser Beispiel 4.9 von Seite 174 wieder auf und fragennun lediglich nach dem Wert des Interpolationspolynoms an der Stelle x = 0.

Es bietet sich hier an, das Schema von Newton etwas zu erweitern. In der Formel (4.16)steckt ja offenkundig ein Differenzenquotient. Dieser wird mit dem Faktor (x−xi) mul-tipliziert und anschließend zum ersten Funktionswert, der beim Differenzenquotientenverwendet wird, hinzuaddiert. Wir schreiben also folgendes Schema auf:

i x ϕ0 ϕ1 ϕ2 ϕ3 ϕ4

0 −3 −1416

1 −1 6 74 4

2 1 2 1 4−8 4

3 3 22 19−116

4 5 114

Als Wert an der Stelle x = 0 erhalten wir dann den rechts außen stehenden Wert, also

p4(0) = 4,

was man durch Einsetzen in das Newton–Polynom auch direkt bestatigt.

4.1.5 Der punktweise Fehler

In den Stutzstellen stimmt das Interpolationspolynom mit dem vorgegebenen Wertuberein, so haben wir das eingerichtet. Da erhebt sich die Frage, wie gut sieht es dennzwischen den Stutzstellen aus. Dazu denken wir uns eine Funktion f gegeben, die anden Stutzstellen gerade die Werte yj = f(xj) annimmt.

Page 194: 3486584472_Mathem

4.1 Polynominterpolation 181

Definition 4.15 Der punktweise Fehler zwischen einer Funktion f(x) und der siein den Stutzstellen interpolierenden Funktion pN (x) ist definiert durch:

RN (x) := f(x)− pN (x). (4.18)

Fur diesen Fehler gibt es eine sogenannte Restglieddarstellung, die von Cauchy stammt.Wir stellen sie im folgenden Satz vor.

Satz 4.16 Es seien x, x0, x1, . . . , xN ∈ [a, b] N+2 paarweise verschiedene Punkte undf in dem Intervall [a, b] (N + 1)–mal stetig differenzierbar. Dann gibt es im Intervall

(minx0, x1, . . . , xN , x,maxx0, x1, . . . , xN , x) ⊆ [a, b] (4.19)

einen Punkt ξ = ξ(x) mit

RN (x) = f(x)− pN (x) =f (N+1)(ξ)(N + 1)!

N∏j=0

(x− xj). (4.20)

Beweis: Wir betrachten nun also eine beliebige Stelle x ∈ [a, b], wobei wir x =xi, i = 0, . . . , N voraussetzen; denn dort gibt es ja nichts zu beweisen. Zur Abkurzungdefinieren wir das Stutzstellenpolynom

ω(x) = (x− x0) · · · · · (x− xN ) (4.21)

und betrachten die folgende Hilfsfunktion

F (t) := f(t)− pN (t)− f(x)− pN (x)ω(x)

· ω(t). (4.22)

Diese Funktion ist dann auch (N + 1)–mal stetig differenzierbar in [a, b], und es gilt

F (xi) = f(xi)− pN (xi)︸ ︷︷ ︸=0

−f(x)− pN (x)ω(x)

· ω(xi)︸ ︷︷ ︸=0

= 0,

F (x) = f(x)− pN (x)− f(x)− pN (x)ω(x)

· ω(x) = 0.

Im Intervall (4.19) hat also F mindestens die N + 2 Nullstellen x0, . . . , xN , x. Nunkommt der Satz von Rolle zum Einsatz. Es gibt also mindestens N + 1 Stellen imInnern dieses Intervalls, wo die erste Ableitung von F verschwindet. Der gleiche Schlußauf die erste Ableitung angewendet, liefert fur die zweite Ableitung noch mindestens NNullstellen usw., bis wir zur (N + 1)–ten Ableitung kommen und von der also wissen,daß sie mindestens noch eine Nullstelle im Innern des Intervalls (4.19) besitzt. Nennenwir diese ξ. Sie hangt naturlich von der Wahl des Punktes x ab. Aber das haben wir imSatz ja zugelassen. Wir schreiben daher ξ = ξ(x). Bilden wir die (N +1)–te Ableitung,so folgt

F (N+1)(t) = f (N+1)(t)− 0− f(x)− pN (x)ω(x)

· (N + 1)!

Page 195: 3486584472_Mathem

182 4 Interpolation

und damit wegen F (N+1)(ξ(x)) = 0

f (N+1)(ξ(x)) =f(x)− pN (x)

ω(x)· (N + 1)!,

also erhalten wir die gesuchte Darstellung

RN (x) = f(x)− pN (x) =

∏Nj=0(x− xj)f (N+1)(ξ)

(N + 1)!.

4.1.6 Hermite–Interpolation

In technischen Anwendungen gibt es Aufgaben, wo nicht nur die Funktionswerte, son-dern auch die Werte der Ableitungen eingehen. Manchmal weiß z. B. der Anwenderaußer dem Aufenthaltsort eines Teilchens aus dem Experiment auch noch etwas uberseine augenblickliche Geschwindigkeit und kann vielleicht sogar die Beschleunigung anspeziellen Stellen messen. Mathematisch gesprochen heißt das, er kennt den Funkti-onswert, die erste und die zweite Ableitung. Dann mochte man naturlich diese Wertebei der Interpolation berucksichtigt wissen.

Allgemeiner stellt sich die Aufgabe so dar:

Definition 4.17 Unter einer Hermiteschen Interpolationsaufgabe verstehen wirdas folgende Problem:Gegeben seien N + 1 Stutztstellen x0 < x1 < · · · < xN , zusatzlich naturliche Zahlenm0, . . . ,mN > 0 und zugehorige reelle Werte

y(k)i , i = 0, . . . , N, k = 0, . . . ,mi − 1. (4.23)

Diese Werte stehen fur die Funktionswerte (k = 0) und die Ableitungswerte (k = 1, . . .,mi − 1), falls wir uns die Interpolationsvorgaben aus einem funktionalen Zusammen-hang mit einer Funktion gegeben denken.Gesucht wird ein Polynom p mit der Eigenschaft:

p(k)(xi) = y(k)i , i = 0, . . . , N, k = 0, . . . ,mi − 1. (4.24)

Gemeint ist also, daß an jeder Stutzstelle eventuell unterschiedlich viele Vorgaben furFunktions– und Ableitungswert gegeben sind. Wichtig ist aber, daß in der Folge derVorgabewerte keine Lucke auftritt. Es darf also nicht z. B. an einer Stelle Funkti-onswert und erste und dritte Ableitung gegeben sein, wahrend die zweite Ableitungfehlt.Fur diese Aufgabe gilt der folgende Satz:

Page 196: 3486584472_Mathem

4.1 Polynominterpolation 183

Satz 4.18 (Existenz und Einzigkeit) Zu den den Stutzstellen

x0 < x1 < · · · < xN

zugeordneten naturlichen Zahlen

m0,m1, . . . ,mN > 0

und beliebigen reellen Zahlen

y(k)i ∈ R, i = 0, . . . , N, k = 0, . . . ,mi − 1

gibt es genau ein Polynom p ∈ IPm hochstens m–ten Grades mit

m =

(N∑

i=0

mi

)− 1, (4.25)

das die folgenden Interpolationseigenschaften besitzt:

p(k)(xi) = y(k)i i = 0, . . . , N, k = 0, . . . ,mi − 1. (4.26)

Der Satz laßt sich ahnlich wie der Satz 4.4 beweisen. Man kann auch die Lagrange–Polynome verallgemeinern und damit die Existenz konstruktiv beweisen. Da das abernicht zu einem praktikablen Verfahren fuhrt, wollen wir das nicht vorfuhren, sondernstatt dessen auf S. 184 ein Konstruktionsverfahren angeben, das in einfacher Form dasVorgehen von Newton verallgemeinert.

Wir uben den Algorithmus gleich an einem Beispiel, wodurch wohl alles sehr klar wird.Allerdings sei noch einmal expressis verbis auf die Punkte 4 und 5 hingewiesen, wonoch durch Fakultaten dividiert wird. Warum das?Der Grund liegt in folgender Formel: Berechnet man fur eine (k mal stetig differen-zierbare) Funktion f ihren k–ten Differenzenquotienten, so gilt

[xi, . . . , xi+k] =

⎧⎪⎪⎪⎨⎪⎪⎪⎩

y(k)i

k!fur xi = · · · = xi+k

[xi+1, . . . , xi+k]− [xi, . . . , xi+k−1]xi+k − xi

fur xi < xi+k

(4.27)

In die Hermite–Tabelle werden nur Differenzenquotienten eingetragen. Wenn wir dieVorgabewerte verwerten wollen bzw. mussen, also auch die Ableitungen, so durfen wirnicht vergessen, diese erst in Differenzenquotienten umzuwandeln, indem wir sie durchdie jeweilige Fakultat dividieren, bevor sie in das Schema aufgenommen werden.

Page 197: 3486584472_Mathem

184 4 Interpolation

Interpolation nach Hermite

1 Wir schreiben in die erste Zeile die Stutzstellen, aber jede so oft, wie dortWerte vorgegeben sind, also mi oft, i = 0, . . . , N .

2 In die zweite Zeile schreiben wir die zugehorigen gegebenen Funktionswerte,indem wir sie eventuell mehrfach niederschreiben.

3 Die nachste Zeile enthalt die Differenzenquotienten, soweit sie aus dem Schemaberechenbar sind. Gelangt man an einen Platz, wo der Nenner des Quotienten0 wurde wegen gleicher Stutzstellen, so schreiben wir an diese Stelle den vorge-gebenen Ableitungswert zu dieser Stutzstelle, auch diesen eventuell mehrfach.

4 Die vierte Zeile enthalt die zweiten Differenzenquotienten, soweit man sie ausdem Schema berechnen kann, ansonsten aber die vorgegebenen zweiten Ablei-tungen, allerdings dividiert durch 2!.

5 In gleicher Weise enthalt die funfte Zeile entweder die dritten Differenzenquo-tienten oder, falls man bei deren Berechnung auf eine Division durch 0 stoßt,die dritte Ableitung zu dieser Stutzstelle, dividiert durch 3! usw.

6 In der ersten Schragzeile stehen dann wie bei der Newton–Interpolation dieKoeffizienten des gesuchten Interpolationspolynoms.

Beispiel 4.19 Gegeben seien folgende Werte:

xi f(xi) f ′(xi) f ′′(xi)0 1 3 −−1 6 14 203 406 618 −−

Wir suchen das diese Vorgaben interpolierende Polynom nach Hermite.

Wir gehen nach obigem Schema vor:

N = 2, m0 = 2,m1 = 3,m2 = 2.

Page 198: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 185

xi 0 0 1 1 1 3 3f [xi] 1 1 6 6 6 406 406

3 5 14 14 200 618

2 9 10 93 209

7 1 41.5 58

-6 13.5 8.25

6.5 −1, 75

-2.75

In obiger Tabelle haben wir die gegebenen Werte unterstrichen.Durch Ubernahme der umrahmten Werte erhalten wir folgendes Polynom 6. Grades,das die vorgegebenen Werte interpoliert:

p(x) = 1 + 3(x− 0) + 2(x− 0)2 + 7(x− 0)2(x− 1)− 6(x− 0)2(x− 1)2

+6.5(x− 0)2(x− 1)3 − 2.75(x − 0)2(x− 1)3(x− 3)= 1 + 3x− 25.75x2 + 66x3 − 58.5x4 + 23x5 − 2.75x6

4.2 Interpolation durch Spline–Funktionen

4.2.1 Arger mit der Polynom–Interpolation

Bereits im Jahre 1901 untersuchte Carl Runge (1856 – 1927), der von 1886 bis 1904 alsordentlicher Professor an der Technischen Hochschule in Hannover lehrte, die folgendeFunktion:

f(x) =1

1 + x2, x ∈ [−5, 5].

Er verwendete zur Interpolation die n + 1 aquidistanten Stutzstellen

xi = −5 + i · h, h := 10/n, i = 0, 1, . . . , n

Die Abbildung 4.3 auf Seite 186 zeigt diese Funktion zusammen mit den interpolie-renden Polynomen 4. und 10. Grades. Man sieht deutlich zu den Randern hin dieAbweichung der Polynome. Vergroßert man die Anzahl der Stutzstellen, so wird auchdie Auslenkung am Rand immer großer, wahrend im Intervall [−3.6, 3.6] Konvergenzeintritt.Der folgende Satz gibt ein wenig Anlaß zur Hoffnung; fur eine in der ganzen komplexenEbene holomorphe Funktion, also eine ganze Funktion laßt sich die Konvergenz der

Page 199: 3486584472_Mathem

186 4 Interpolation

-0.5

0

0.5

1

1.5

2

-2 0 2-3.6 3.6

f(x) = 11+x2

p4 . . .

· ···· · · · · · ·

······· ················ ·

· · · · · · · · · · ················ · ······ · · · · · ·····

p10

Abbildung 4.3: Der Graph der Runge–Funktion. Die Runge–Funktion und die mit funfbzw. elf Knoten interpolierenden Polynome p4(x) und p10(x). Man kann zeigen, daßim Intervall [−3.6, 3.6] die Interpolationspolynome immer besser die Runge–Funktionannahern. Außerhalb dieses Intervalls aber herrscht Heulen und Zahneknirschen, wiees in der Abbildung angedeutet ist.

Interpolationspolynome zeigen. Ganze Funktionen sind um jeden Punkt z0 ∈ C in einePotenzreihe

∞∑i=0

ai(z − z0)i

entwickelbar, und diese Reihe konvergiert fur alle z. Als Beispiele seien die Polynomeund die Exponentialfunktion, aber auch sinx und cos x genannt.

Satz 4.20 (Konvergenzsatz) Sei f eine in der komplexen Ebene ganze Funktion,deren Potenzreihenentwicklung nur reelle Koeffizienten hat. Dann konvergiert die Fol-ge (QN )N→∞ der Interpolationspolynome bei beliebig vorgegebenen Stutzstellen, wennwir deren Anzahl N + 1 gegen unendlich wachsen lassen, gleichmaßig gegen f .

Dagegen gibt der nachste Satz ein ausgesprochen negatives Ergebnis wider.

Satz 4.21 (Satz von Faber) Zu jedem vorgegebenen Stutzstellenschema S, xNν ∈[a, b] fur N = 0, 1, . . . und 0 ≤ ν ≤ N kann eine Funktion f ∈ C[a, b] angegebenwerden, so daß die Folge (pN )N∈IN der Interpolationspolynome nicht gleichmaßig gegenf konvergiert.

Page 200: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 187

Im Beispiel von Runge sind wir ja schon fundig geworden. Dort waren aquidistanteStutzstellen vorgegeben. Dazu hat Carl Runge eine Funktion angegeben und gezeigt,daß die Folge der Interpolationspolynome nicht gegen diese Funktion konvergiert. Al-lerdings kann man zu dieser bosartig erscheinenden Runge–Funktion wiederum einanderes Stutzstellenschema finden, so daß doch wieder eitel Sonnenschein herrscht,wie der folgende Satz zeigt.

Satz 4.22 (Satz von Marcinkiewicz) Zu jeder Funktion f ∈ C[a, b] kann ein Stutz-stellenschema S, xNν ∈ [a, b] fur N = 0, 1, . . . und 0 ≤ ν ≤ N , angegeben werden, sodaß die Folge (pN )N∈IN der Interpolationspolynome gleichmaßig gegen f konvergiert.

4.2.2 Lineare Spline–Funktionen

Nach den negativen Ergebnissen des vorangegangenen Abschnittes wollen wir nunnach Methoden forschen, die uns diese Interpolationsargernisse nicht mehr bereiten.Als sehr einfach, aber auch sehr effektiv hat sich die Methode herausgestellt, diegegebenen Punkte geradlinig zu verbinden. So etwas lernt man schon in der Schule.Mit Hilfe der Zwei–Punkte–Form laßt sich diese Darstellung berechnen. Wir gehenetwas systematischer vor und beschreiben diese Funktionen als Vektoren eines linearenRaumes, fur den wir anschließend eine Basis angeben.

Der Vektorraum der linearen Spline–Funktionen

Wir betrachten eine fest vorgegebene Stutzstellenmenge

x0 < x1 < · · · < xN , (4.28)

auf die wir im weiteren unsere Aussagen beziehen, ohne dies jedesmal ausdrucklich zuerwahnen.

Definition 4.23 Unter dem Vektorraum der linearen Spline–Funktionen ver-stehen wir die Menge

S10 := s ∈ C[x0, xN ] : s|[xi,xi+1] ∈ IP1, i = 0, . . . , N − 1 (4.29)

Ganz offensichtlich ist die Summe zweier solcher stuckweise linearen Polynome wiederein stuckweise lineares Polynom; die Multiplikation mit einer reellen Zahl fuhrt auchnicht aus dieser Menge heraus. Also haben wir es wirklich mit einem Vektorraum zutun. Und schon fragen wir nach seiner Dimension und noch genauer nach einer Basis.Fragen wir zunachst nach den moglichen Freiheiten, die uns die Aufgabe laßt. In jedemTeilintervall haben wir fur eine lineare Funktion zwei Parameter frei wahlbar, in NTeilintervallen also 2N freie Parameter. Diese werden aber dadurch eingeschrankt, daßunsere Spline–Funktion stetig sein mochte. An jeder inneren Stutzstelle verlieren wiralso eine Freiheit. Wir haben N − 1 innere Stutzstellen und damit frei zur Verfugung

2N − (N − 1) = N + 1.

Wir halten das im folgenden Satz fest.

Page 201: 3486584472_Mathem

188 4 Interpolation

Satz 4.24 Der Raum der linearen Spline–Funktionen fur N + 1 Stutzstellen (4.28)hat die Dimension

dimS10 = N + 1 (4.30)

Eine Basis laßt sich sehr leicht angeben, wenn wir folgendes Konstruktionsprinzipbeachten.Wir geben speziell folgende Werte an den Stutzstellen vor:

Die lineare Spline–Funktion ϕi(x) habe an der Stutzstelle xi den Wert 1, an allenanderen Stutzstellen den Wert 0, und das gelte fur i = 0, . . . N .

Damit sind die Funktionen ϕ0, . . . , ϕN eindeutig charakterisiert. Ihre graphische Dar-stellung zeigen wir in der Abbildung 4.4 auf Seite 189.

Interpolation mit linearen Spline–Funktionen

Nachdem wir uns uber die Zahl der Freiheiten, also die Dimension des linearen Spline-raumes klargeworden sind, konnen wir an die Interpolation denken. Das paßt naturlichexakt: wir haben N + 1 Stutzstellen, und unser Raum laßt N + 1 Freiheiten zu. Wirwerden uns also gar nicht lange besinnen und schlicht an jeder Stutzstelle einen Funk-tionswert vorgeben.

Definition 4.25 (Interpolationsaufgabe mit linearen Splines) Gegeben seiendie Stutzstellen (4.28) und an jeder Stelle ein Wert yi, i = 0, . . . , N , der vielleicht derFunktionswert einer unbekannten Funktion ist.Gesucht ist dann eine lineare Spline–Funktion s(x) ∈ S1

0 , die diese Werte interpoliert,fur die also gilt:

s(xi) = yi, i = 0, . . . , N (4.31)

In jedem Teilintervall sind damit zwei Werte vorgegeben. Allein schon die Anschauungsagt uns, daß damit die Aufgabe genau eine Losung hat. Wir halten dieses einfache Er-gebnis in einem Satz fest, um den Aufbau dieses Abschnittes in den nachsten Kapitelnubernehmen zu konnen.

Satz 4.26 Die Aufgabe 4.25 hat genau eine Losung.

Page 202: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 189

a = x0 x1 x2 x3 x4 x5 x6 x7 = b

a = x0 x1 x2 x3 x4 x5 x6 x7 = b

a = x0 x1 x2 x3 x4 x5 x6 x7 = b

a = x0 x1 x2 x3 x4 x5 x6 x7 = b

1

1

1

1

ϕ0(x) = x1−x

x1−x0, x0 ≤ x ≤ x1

0, x1 ≤ x ≤ xN

ϕ1(x) = x−x0

x1−x0, x0 ≤ x ≤ x1

x2−xx2−x1

, x1 ≤ x ≤ x2

ϕ4(x) = x−x3

x4−x3, x3 ≤ x ≤ x4

x5−xx5−x4

, x4 ≤ x ≤ x5

ϕ7(x) = x−x6

x7−x6, x6 ≤ x ≤ x7

0, x0 ≤ x ≤ x6

Abbildung 4.4: Darstellung der linearen Basisfunktionen, der sogenannten Hutfunktio-nen, bei gegebenen acht Stutzstellen x0, . . . ,x7. Wir haben lediglich exemplarisch ϕ0,ϕ1, ϕ4 und ϕ7 gezeichnet. Außerhalb der angegebenen Intervalle sind die Funktionenidentisch Null.

Page 203: 3486584472_Mathem

190 4 Interpolation

a = x0 x1 x2 x3 x4 x5 x6 x7 = b

1 s(x)

Abbildung 4.5: Eine die Vorgaben des Beispiels 4.27 interpolierende lineare Spline–Funktion

Konstruktion linearer Spline–Funktionen

Die Konstruktion der interpolierenden linearen Spline-Funktion s(x) geschieht uberden Ansatz

s(x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩

a0 + b0(x− x0) fur x ∈ [x0, x1)a1 + b1(x− x1) fur x ∈ [x1, x2)

......

...aN−1 + bN−1(x− xN−1) fur x ∈ [xN−1, xN )

(4.32)

Man sieht unmittelbar

ai = yi, i = 0, . . . , N − 1. (4.33)

Die anderen Koeffizienten erhalt man dann aus

ai + bi(xi+1 − xi) = yi+1, i = 0, . . . , N − 1. (4.34)

Beispiel 4.27 Als Beispiel wahlen wir folgende Vorgaben

i 0 1 2 3 4 5 6 7xi 0.5 1.3 2.5 3.2 4.3 5.7 6.3 8.2yi 0.5 1 −0.6 0.1 0.3 1.6 0.8 0.5

Die zugehorige stuckweise lineare Funktion, die diese Werte interpoliert, haben wir inder Abbildung 4.5 auf Seite 190 dargestellt.Bilden wir mit den Basis–Funktionen von Seite 189 in Fortfuhrung unseres Beispiels4.27 die Linearkombination

s(x) = 0.5 · ϕ0(x) + 1 · ϕ1(x) + (−0.6) · ϕ2(x) + 0.1 · ϕ3(x) + 0.3 · ϕ4(x)+1.6 · ϕ5(x) + 0.8 · ϕ6(x) + 0.5 · ϕ7(x),

Page 204: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 191

so laßt sich unschwer feststellen, daß dadurch gerade die auf Seite 190 in der Abbil-dung 4.5 vorgestellte lineare Spline–Funktion erzeugt wird. Hier wirkt sich aus, daßjede der Basisfunktionen an genau einer Stutzstelle den Wert 1 hat und an allen an-deren Stutzstellen den Wert 0. Die Faktoren fur jede Basis–Funktion sind gerade dieVorgabewerte an den Stutzstellen.

Konvergenzeigenschaft

Im folgenden Satz wird von der Funktion lediglich zweimalige stetige Differenzierbar-keit vorausgesetzt. Daraus laßt sich dann bereits auf Konvergenz schließen, wie wiranschließend erlautern werden.

Satz 4.28 Fur die Stutzstellen (4.28) sei

h := max0≤i<N

|xi+1 − xi|. (4.35)

Sei f ∈ C2[a, b], und sei s die f in den Stutzstellen (4.28) interpolierende lineareSplinefunktion. Dann gilt:

‖f − s‖∞ ≤ h2

8‖f ′′‖∞. (4.36)

Beweis: Betrachten wir zunachst fur ein festes i = 0, . . . , N − 1 im Intervall [xi, xi+1]die Hilfsfunktion

ω(x) := (x− xi) · (x− xi+1).

Diese Parabel ist nach oben geoffnet und nimmt in [xi, xi+1] nur Werte kleiner odergleich 0 an. Ihr Minimum liegt in der Mitte des Intervalls [xi, xi+1], also bei x =(xi + xi+1)/2 und hat den Wert

ω

(xi + xi+1

2

)= −(xi+1 − xi)2

4. (4.37)

Die Funktion

ϑ(x) := f(x)− s(x)− κ · ω(x) (4.38)

hat die zwei Nullstellen xi und xi+1. Wahlen wir nun ein x aus dem offenen Intervall(xi, xi+1) und halten es fest, so konnen wir κ so wahlen, daß ϑ bei diesem festgehal-tenen x eine weitere Nullstelle hat, also

ϑ(x) = f(x)− s(x)− κ · ω(x) = 0.

Dann existiert aber nach dem Satz von Rolle eine Zwischenstelle ξ = ξ(x), so daß gilt

ϑ′′(ξ(x)) = f ′′(ξ(x))− s′′(ξ(x))− κ · ω′′(ξ(x)) = f ′′(ξ(x))− 2κ = 0.

Page 205: 3486584472_Mathem

192 4 Interpolation

Hier haben wir ausgenutzt, daß s eine lineare Funktion ist und ω eine Parabel. Darauskonnen wir κ bestimmen:

κ =f ′′(ξ(x))

2.

Das bedeutet nun, daß wir zu einem beliebigen x ∈ (xi, xi+1) stets ein ξ(x) ∈ (xi, xi+1)finden konnen mit

f(x)− s(x) =f ′′(ξ(x))

2· ω(x).

Diese Gleichung gilt naturlich auch fur x = xi oder x = xi+1, wie man sofort sieht.Da kann man ξ(x) beliebig wahlen. Damit konnen wir zunachst in jedem Teilintervallfolgendermaßen abschatzen:

maxx∈[xi,xi+1]

|f(x)− s(x)| = maxx∈[xi,xi+1]

∣∣∣∣f′′(ξ(x))

2· ω(x)

∣∣∣∣≤ max

x∈[xi,xi+1]

∣∣∣∣∣sup[xi,xi+1] |f ′′(x)|

2· ω(x)

∣∣∣∣∣≤ sup[xi,xi+1] |f ′′(x)|

2· max

x∈[xi,xi+1]|ω(x)|

≤ sup[xi,xi+1] |f ′′(x)|2

· (xi+1 − xi)2

4

=sup[xi,xi+1] |f ′′(x)|

2· h2

i

4

≤ 18

supx∈[x0,xN ]

|f ′′(x)| · h2

=‖f ′′‖∞

8· h2.

Dies war die Abschatzung in jedem Teilintervall, wobei wir im vorletzten Schritt dasMaximum von |f ′′| im ganzen Intervall [x0, xN ] gebildet und im letzten Schritt hi zuh geandert haben. Dadurch haben wir die Abschatzung eventuell vergroßert.Im Satz wird aber eine Abschatzung uber das Gesamtintervall behauptet. Da wirnur mit endlich vielen Teilintervallen zu tun haben und die rechte Seite von diesenTeilintervallen vollig unabhangig ist, konnen wir links das Maximum uber diese endlichvielen Teilintervalle bilden und erhalten die gewunschte Abschatzung:

‖f − s‖∞ = maxx∈[x0,xN ]

|f(x)− s(x)| ≤ ‖f ′′‖∞8

· h2

Page 206: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 193

Betrachten wir nun eine Folge von Zerlegungen so, daß der großte Stutzstellenabstand,den wir ja mit h bezeichnet haben, gegen 0 strebt. Die zugehorigen linearen Spline–Funktionen interpolieren dann an immer mehr Stutzstellen, woraus aber noch nichtsfolgt fur die Werte zwischen den Stutzstellen. Der obige Satz sagt aber, daß auch dortKonvergenz sogar mit quadratischer Ordnung eintritt. Das ist doch ein vorzeigbaresErgebnis, wenn wir an das Dilemma mit den Polynomen zuruckdenken. Im nachstenAbschnitt zeigen wir, daß wir es sogar noch besser konnen.

4.2.3 Hermite–Spline–Funktionen

Ahnlich wie bei der Interpolation mit Polynomen fragen wir auch hier nach einerMoglichkeit, außer den Funktionswerten auch Werte der Ableitungen in die Spline–Interpolation einfließen zu lassen. Fur die ganz allgemeine Aufgabe verweisen wir denfreundlichen Leser auf die Spezialliteratur uber ”Lakunare Spline–Interpolation“. Wirwerden hier lediglich den Spezialfall behandeln, daß an jeder Stutzstelle die Funkti-onswerte und die Werte der ersten Ableitung vorgegeben sind. Dafur laßt sich mitsehr einfachen Mitteln eine kubische Spline–Funktion ermitteln.

Der Vektorraum der Hermite1–Spline–Funktionen

Wieder betrachten wir die fest vorgegebene Stutzstellenmenge

x0 < x1 < · · · < xN . (4.39)

Definition 4.29 Unter dem Vektorraum der Hermite–Spline–Funktionen ver-stehen wir die Menge

S31 := s ∈ C1[x0, xN ] : s|[xi,xi+1] ∈ IP3, i = 0, . . . , N − 1 (4.40)

Die Vektorraumeigenschaften sieht man unmittelbar (oder glaubt sie doch wenigstens).Wir mussen lediglich zahlen, wieviel Freiheiten zur Verfugung stehen, um dadurch dieDimension zu erkennen. Nun, Polynome dritten Grades benotigen vier Koeffizientenzur vollen Beschreibung. In N Teilintervallen haben wir daher 4N Koeffizienten zubestimmen. Durch die Forderung nach einmaliger Differenzierbarkeit gehen an jederinneren Stutzstelle aber wieder zwei Freiheiten verloren; es soll ja dort Funktionswertund erste Ableitung ubereinstimmen. Nun ist

4N − 2(N − 1) = 2N + 2,

und wir erhalten den Satz:

Satz 4.30 Der Raum der Hermite–Spline–Funktionen fur N + 1 Stutzstellen (4.28)hat die Dimension

dimS31 = 2(N + 1) (4.41)

1C. Hermite (1822 – 1901)

Page 207: 3486584472_Mathem

194 4 Interpolation

Nun wollen wir auch fur diesen Raum eine Basis angeben. Erinnern wir uns an dasKonstruktionsprinzip fur die linearen Splines Seite 188, so liegt es nicht fern, hierfolgendermaßen zu verfahren.

Die Hermite–Spline–Funktion h0i (x) habe an der Stutzstelle xi den Wert 1, aber den

Wert der ersten Ableitung 0, an allen anderen Stutzstellen den Wert 0 und auch denAbleitungswert 0, und das gelte fur i = 0, . . . N .

Damit haben wir insgesamt 2N + 2 Werte fur die Funktion h0i vorgeschrieben und

konnen sie konstruieren oder auch berechnen. Im Intervall [x0, xi−1] und im Intervall[xi+1, xN ] verschwindet sie identisch. Fur das verbleibende Intervall [xi−1, xi+1] habenwir die Funktionsgleichung unten angegeben, selbstverstandlich aufgesplittet in diebeiden Teilintervalle [xi−1, xi] und [xi, xi+1], da unsere Funktion ja stuckweise definiertist. Wie man sieht, ist sie in der Tat in jedem Stuck ein Polynom dritten Grades. Wirhaben noch die beiden Sonderfalle fur i = 0 und i = N hinzugefugt. Der obere Index0 verweist auf die Vorgabe des Funktionswertes, also der nullten Ableitung.

h00(x) =

⎧⎨⎩ 2

(x− x0

x1 − x0

)3

− 3(

x− x0

x1 − x0

)2

+ 1

0

x ∈ [x0, x1]

x ∈ [x1, xN ]

h0i (x) =

⎧⎪⎪⎨⎪⎪⎩

−2(

x− xi−1

xi − xi−1

)3

+ 3(

x− xi−1

xi − xi−1

)2

2(

x− xi

xi+1 − xi

)3

− 3(

x− xi

xi+1 − xi

)2

+ 1

x ∈ [xi−1, xi]

x ∈ [xi, xi+1]

h0N (x) =

⎧⎨⎩ −2

(x− xN−1

xN − xN−1

)3

+ 3(

x− xN−1

xN − xN−1

)2

0

x ∈ [xN−1, xN ]

x ∈ [x0, xN−1]

(4.42)

Damit haben wir N + 1 Basisfunktionen angegeben. In der Abbildung 4.6 auf Seite195 sind sie skizziert.Weitere N + 1 Basis–Funktionen erhalten wir, wenn wir an den Stutzstellen jeweilsden Ableitungswert 1 setzen.

Die Hermite–Spline–Funktion h1i (x) habe an der Stutzstelle xi den Wert 0, aber den

Wert der ersten Ableitung 1, an allen anderen Stutzstellen den Wert 0 und auch denAbleitungswert 0, und das gelte fur i = 0, . . . N .Auch damit ist die Funktion h1

i eindeutig festgelegt. Wir geben ihre Funktionsglei-chung an und haben zugleich die Sonderbehandlung an den Randpunkten beachtet

Page 208: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 195

-0.2

0

0.2

0.4

0.6

0.8 h00(x)

1

1.2

a = x0 x1 xi−1 xi xi+1

h0i (x) h0

N (x)

xN−1 xN = b

Abbildung 4.6: Graphen der Basisfunktionen h00 und h0

N , deren Trager die Intervalle[a, x1] bzw. [xN−1, b] sind, und der allgemeinen Basisfunktion hi mit dem Tragerinter-vall [xi−1, xi+1].

und die Funktionen h10 und h1

N hinzugefugt.

h10(x) =

⎧⎨⎩(

x1 − x

x1 − x0

)2

(x− x0)

0

x ∈ [x0, x1]

x ∈ [x1, xN ]

h1i (x) =

⎧⎪⎪⎨⎪⎪⎩

(x− xi−1

xi − xi−1

)2

(x− xi)(xi+1 − x

xi+1 − xi

)2

(x− xi)

x ∈ [xi−1, xi]

x ∈ [xi, xi+1]

h1N (x) =

⎧⎨⎩(

x− xN−1

xN − xN−1

)2

(x− xN )

0

x ∈ [xN−1, xN ]

x ∈ [x0, xN−1]

(4.43)

Eine graphische Darstellung dieser Basis–Funktionen ist in Abbildung 4.7 auf Seite196 zu finden.

Page 209: 3486584472_Mathem

196 4 Interpolation

-0.05

-0.04

-0.03

-0.02

-0.01

0

0.01

0.02

0.03

0.04

0.05

a = x0

h10

x1 xi−1 xi xi+1

h1i

xN−1

h1N

xN = b

Abbildung 4.7: Graphen der Basisfunktionen h10 und h1

N , deren Trager die Intervalle[a, x1] bzw. [xN−1, b] sind, und der allgemeinen Basisfunktion h1

i mit dem Tragerin-tervall [xi−1, xi+1].

Interpolation mit Hermite–Spline–Funktionen

Definition 4.31 (Interpolationsaufgabe mit Hermite–Splines)Gegeben seien wieder die Stutzstellen (4.28) und an jeder Stelle ein Wert yi, i =0, . . . , N , der vielleicht der Funktionswert einer unbekannten Funktion ist, und einWert y1

i , der dann der Wert der ersten Ableitung der unbekannten Funktion an dieserStelle ist.Gesucht ist eine Hermite–Spline–Funktion h(x) ∈ S3

1 , die diese Werte interpoliert, furdie also gilt:

h(xi) = yi, h′(xi) = y1i , i = 0, . . . , N (4.44)

In jedem Teilintervall sind damit vier Werte vorgegeben. Allein schon die Anschauungsagt uns, daß damit die Aufgabe genau eine Losung hat.

Satz 4.32 Die Aufgabe 4.31 hat genau eine Losung.

Page 210: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 197

Konstruktion von Hermite–Spline–Funktionen

Die Konstruktion einer interpolierenden Hermite–Spline-Funktion s(x) geschiehtuber den Ansatz

s(x) =

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩

a0 + b0(x− x0) + c0(x− x0)2 + d0(x− x0)3 fur x ∈ [x0, x1)a1 + b1(x− x1) + c1(x− x1)2 + d1(x− x1)3 fur x ∈ [x1, x2)

...aN−1 + bN−1(x− xN−1) + cN−1(x− xN−1)2 +dN−1(x− xN−1)3

fur x ∈ [xN−1, xN )

(4.45)

Man sieht unmittelbar

ai = yi, bi = y1i , i = 0, . . . , N − 1. (4.46)

Die anderen Koeffizienten ci und di erhalt man dann fur i = 0, . . . , N −1 jeweils ausdem linearen Gleichungssystem

ci(xi+1 − xi)2 + di(xi+1 − xi)3 = yi+1 − ai − bi(xi+1 − xi)

2ci(xi+1 − xi) + 3di(xi+1 − xi)2 = y1i+1 − bi

(4.47)

Beispiel 4.33 Eine Funktion f sei durch folgende Wertetabelle beschrieben:

xi 1 2 4f(xi) 0 1 1f ′(xi) 1 2 1

.

Um den Unterschied zwischen Hermite–Interpolation und Hermite–Spline–Interpolationdeutlich herauszuarbeiten, berechnen wir

(a) das Interpolationspolynom p(x) nach Hermite,

(b) die Hermite–Spline–Interpolierende.

Page 211: 3486584472_Mathem

198 4 Interpolation

Zu (a) Beginnen wir mit der Interpolation nach Hermite. Das Schema haben wir obenerlautert, also geben wir ohne weitere Erklarung das Ergebnis an.

xi 1 1 2 2 4 4f [xi] 0 0 1 1 1 1

1 1 2 0 1

0 1 −112

1 −23

34

−59

1736

37108

Damit lautet das Interpolationspolynom

p(x) = 0 + 1(x− 1) + 0(x− 1)2 + 1(x− 1)2(x− 2)− 59(x− 1)2(x− 2)2 +

+37108

(x− 1)2(x− 2)2(x− 4)

= x− 1 + (x− 1)2(x− 2)− 59(x− 1)2(x− 2)2 +

37108

(x− 1)2(x− 2)2(x− 4)

Zu (b) Weil das so schon ging, starten wir frohgemut mit den Hermite–Splines. Dasgeht namlich ebenso leicht.Wie es sich fur einen Spline gehort, gehen wir intervallweise vor. Im Intervall [1, 2]machen wir den Ansatz

s(x) = a0 + b0(x− 1) + c0(x− 1)2 + d0(x− 1)3.

Die Ableitung lautet

s′(x) = b0 + 2c0(x− 1) + 3d0(x− 1)2

Die Interpolationsbedingung s(1) = 0 ergibt sofort

a0 = 0,

die weitere Bedingung s′(1) = 1 bringt

b0 = 1.

Jetzt nutzen wir die Interpolationsbedingungen am rechten Rand aus und erhaltenzwei Gleichungen

s(2) = 1 ⇒ 1 + c0 + d0 = 1s′(2) = 2 ⇒ 1 + 2c0 + 3d0 = 2

Page 212: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 199

Daraus erhalt man

c0 = −1, d0 = 1,

und so lautet die Spline–Funktion im Intervall [1, 2]

s(x) = (x− 1)− 1(x− 1)2 + (x− 1)3 in [1, 2]

Ein analoges Vorgehen im Intervall [2, 4] fuhrt zur Funktionsgleichung im Intervall[2, 4]

s(x) = 1 + 2(x− 2)− 104

(x− 2)2 +34(x− 2)3 in [2, 4]

Konvergenzeigenschaft

In der Spezialliteratur sind viele Konvergenzaussagen zu finden. Wir beschranken unswie schon bei den linearen Spline–Funktionen darauf, etwas uber die fur die Anwen-dungen wohl gebrauchlichste Norm, namlich die Maximum–Norm zu erzahlen.

Satz 4.34 Fur die Stutzstellen (4.28) sei

h := max0≤i<N

|xi+1 − xi|. (4.48)

Sei f ∈ C4[a, b], und sei s die f in den Stutzstellen (4.28) interpolierende Hermite–Splinefunktion. Dann gilt:

‖f − s‖∞ ≤ h4

384‖f (iv)‖∞. (4.49)

Beweis: Die Beweisfuhrung ist ganz ahnlich zu der von Satz 4.28. Jedoch betrachtenwir hier fur ein festes i = 0, . . . , N − 1 die Hilfsfunktion

ω(x) := (x− xi)2 · (x− xi+1)2.

Dies ist eine nach unten geoffnete Parabel 4. Ordnung mit dem Maximum in der Mittedes Intervalls [xi, xi+1], also bei x = (xi + xi+1)/2 und dem Wert

ω

(xi + xi+1

2

)=

(xi+1 − xi)4

16. (4.50)

Die Funktion

ϑ(x) := f(x)− s(x)− κ · ω(x) (4.51)

hat die zwei doppelten Nullstellen xi und xi+1. Wahlen wir nun ein x aus dem offenenIntervall (xi, xi+1) und halten es fest, so konnen wir κ so wahlen, daß ϑ bei diesemfestgehaltenen x eine weitere Nullstelle hat, also

ϑ(x) = f(x)− s(x)− κ · ω(x) = 0.

Page 213: 3486584472_Mathem

200 4 Interpolation

Dann existiert aber nach dem Satz von Rolle eine Zwischenstelle ξ = ξ(x), so daß gilt

ϑ(iv)(ξ(x)) = f (iv)(ξ(x))− s(iv)(ξ(x))− κ · ω(iv)(ξ(x)) = f (iv)(ξ(x))− 4!κ = 0.

Hier haben wir ausgenutzt, daß s eine kubische Funktion ist und ω eine Parabel vierterOrdnung. Daraus konnen wir κ bestimmen:

κ =f (iv)(ξ(x))

4!.

Das bedeutet nun, da wir x beliebig gewahlt haben, daß wir zu einem beliebigenx ∈ (xi, xi+1) stets ein ξ(x) ∈ (xi, xi+1) finden konnen mit

f(x)− s(x) =f (iv)(ξ(x))

4!· ω(x).

Diese Gleichung gilt naturlich auch fur x = xi oder x = xi+1, wie man sofort sieht. Dakann man ξ(x) beliebig wahlen. Damit konnen wir nun folgendermaßen abschatzen:

maxx∈[xi,xi+1]

|f(x)− s(x)| = maxx∈[xi,xi+1]

∣∣∣∣∣f (iv)(ξ(x))

24· ω(x)

∣∣∣∣∣≤ max

x∈[xi,xi+1]

∣∣∣∣∣sup[xi,xi+1] |f (iv)(x)|

24· ω(x)

∣∣∣∣∣=

sup[xi,xi+1] |f (iv)(x)|24

· maxx∈[xi,xi+1]

|ω(x)|

=sup[x0,xN ] |f (iv)(x)|

24· |xi+1 − xi|4

16

≤ sup[xi,xi+1] |f (iv)(x)|384

· h4i

≤ ‖f (iv)‖∞384

· h4.

Dies war die Abschatzung in jedem Teilintervall, wobei wir im vorletzten Schritt dasSupremum von |f (iv)| im ganzen Intervall [x0, xN ] gebildet und im letzten Schritt hi

zu h geandert haben. Dadurch haben wir die Abschatzung eventuell vergroßert.Im Satz wird aber eine Abschatzung uber das Gesamtintervall behauptet. Da wirnur mit endlich vielen Teilintervallen zu tun haben und die rechte Seite von diesenTeilintervallen vollig unabhangig ist, konnen wir links das Maximum uber diese endlichvielen Teilintervalle bilden und erhalten die gewunschte Abschatzung:

‖f − s‖∞ = maxx∈[x0,xN ]

|f(x)− s(x)| ≤ ‖f (iv)‖∞384

· h4

Page 214: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 201

4.2.4 Kubische Spline–Funktionen

Die Uberschrift konnte Verwirrung stiften; denn auch die Hermite–Spline–Funktionenbestanden ja stuckweise aus kubischen Polynomen. Es hat sich aber eingeburgert, dienun zu erklarenden Spline–Funktionen mit dem Zusatz kubisch zu versehen.

Der Vektorraum der kubischen Spline–Funktionen

Auch hier betrachten wir die fest vorgegebene Stutzstellenmenge

x0 < x1 < · · · < xN mit hk := xk+1 − xk, k = 0, . . . , N − 1. (4.52)

Definition 4.35 Unter dem Vektorraum der kubischen Spline–Funktionen ver-stehen wir die Menge

S32 := s ∈ C2[x0, xN ] : s|[xi,xi+1] ∈ IP3, i = 0, . . . , N − 1 (4.53)

Der Unterschied zu den Hermite–Splines liegt also in der großeren Glattheit; noch diezweite Ableitung mochte stetig sein.Vielleicht sollten wir an dieser Stelle auf die Verallgemeinerung fur beliebige Spline–Funktionen hinweisen.

Definition 4.36 Unter dem Vektorraum der Spline–Funktionen vom Grad nund der Differenzierbarkeitsklasse k verstehen wir die Menge

Snk := s ∈ Ck[x0, xN ] : s|[xi,xi+1] ∈ IPn, i = 0, . . . , N − 1 (4.54)

Die Differenz n− k zwischen dem verwendeten Polynomgrad und der Differenzierbar-keitsklasse heißt der Defekt. Unsere kubischen Splines haben den Defekt 1, wahrenddie Hermite–Splines den Defekt 2 haben.Um etwas uber die Dimension des kubische Spline–Raumes zu erfahren, uberlegenwir uns, wieviel Freiheiten vorliegen. Wie schon bei den Hermite–Splines haben wir4N Koeffizienten frei zur Verfugung. Durch das Verlangen nach C2 erhalten wir dieEinschrankungen:

Stetigkeit an inneren Knoten −→ N − 1 Bedingungen1. Abl. an inneren Knoten −→ N − 1 Bedingungen2. Abl. an inneren Knoten −→ N − 1 Bedingungen

Fassen wir zusammen, so folgt

4N − 3(N − 1) = N + 3.

Satz 4.37 Der Raum der kubischen Spline–Funktionen fur N + 1 Stutzstellen (4.28)hat die Dimension

dimS32 = N + 3 (4.55)

Page 215: 3486584472_Mathem

202 4 Interpolation

Zur Bestimmung einer Basis konnte man versucht sein, die Idee der Hermite–Splineszu verwerten, also nach kubischen Splines zu fahnden, die jeweils an einer Stutzstelleden Wert 1, aber an samtlichen anderen den Wert 0 haben. Abgesehen davon, daß wirdamit nur N + 1 Bedingungen vorschreiben, wo wir doch N + 3 Freiheiten haben, dieFunktionen also nicht eindeutig festgelegt waren, fuhrt diese Idee leider auch nicht zubrauchbaren Funktionen. Der entscheidende Vorteil der Basis bei den linearen Splinesund den Hermite–Splines lag darin, daß die Funktionen nur auf einer kleinen Teil-menge des Intervalls [x0, xN ] von Null verschieden waren. Bei den kubischen Splinesentstehen Funktionen, die auf dem gesamtem Intervall bis auf die Stutzstellen Werteungleich Null haben. Diese fur den Praktiker nicht nutzbaren Basisfunktionen heißenKardinal–Splines.Eine kaum bessere Basis gewinnt man mit den Abschneide–Funktionen.

Definition 4.38 Sei xi einer der Knoten x0, . . . , xN . Die folgende Funktion heißtAbschneide–Funktion zum Knoten xi:

(x− xi)3+ :=

(x− xi)3 fur x ≥ xi

0 fur x < xi(4.56)

1 xi x

1

Satz 4.39 Die Abschneide–Funktionen sind kubische Spline–Funktionen aus S32 .

Beweis: Das ist fast trivial. Naturlich ist jede Abschneide–Funktion stuckweise, alsoin jedem Teilintervall [xi, xi+1] ein Polynom hochstens 3. Grades; denn entweder ist esdirekt ein solches Polynom oder es ist die Nullfunktion, die man ebenfalls als Polynomauffassen kann. Ein klein bißchen nachdenken sollte man uber die zweimalige steti-ge Differenzierbarkeit. An der Stelle xi, wo ja zwei Stucke der Abschneide–Funktionzusammengefugt werden, konnte diese Eigenschaft verloren gehen. Aber naturlich istdie zweite Ableitung an der Stelle xi, von rechts kommend, gleich 0, von links ist diezweite Ableitung identisch 0. Also ist alles klar.

Mit Hilfe dieser Abschneide–Funktion bilden wir nun als Ansatz die folgende Dar-stellungsformel

s(x) = a0 + a1x + a2x2 + a3x

3 + b1(x− x1)3+ + . . . + bN−1(x− xN−1)3+ (4.57)

und halten im folgenden Satz fest, daß sich jede kubische Spline–Funktion auf genaueine Weise in dieser Form darstellen laßt.

Satz 4.40 (Darstellungssatz) Die Elemente 1, x, x2, x3, (x−x1)3+, . . . , (x−xN−1)3+bilden eine Basis von S3

2 zu den Stutzstellen (4.28).

Der Beweis dieses Satzes ist nicht ganz einfach. Wir ubergehen ihn hier und verweisenauf die Spezialliteratur; denn ahnlich wie die Cramersche Regel fur lineare Gleichungs-systeme ist auch diese Basis nur fur Theoretiker von Interesse.

Page 216: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 203

Dagegen ist die folgende Basis von großtem praktischen Nutzen. Es sind die bereits1946 von I. J. Schoenberg eingefuhrten B–Splines. Nur um die Definition leichterfassen zu konnen, werden zu den vorgelegten Stutzstellen (4.28) weitere Stutzstellenhinzugefugt:

x−3 < x−2 < x−1 < x0 < . . . < xN < xN+1 < xN+2 < xN+3 (4.58)

Dies kann z. B. dadurch geschehen, daß man die neuen Stutzstellen aquidistant legt mitdem Abstand gerade gleich der ersten bzw. letzten Intervallange der ursprunglichenStutzstellen, also

xi+1 − xi = x1 − x0, i = −1,−2,−3,xj+1 − xj = xN − xN−1, j = N,N + 1, N + 2.

Dann erklaren wir die B–Splines so:

Definition 4.41 Die folgenden kubischen Spline–Funktionen

Ni(x) =i+4∑k=i

(xk − x)3+i+4∏j=ij =k

(xk − xj), i = −3,−2, . . . , N − 1 (4.59)

heißen B–Splines.

Wir haben in die Definition locker vom Hocker einfließen lassen, daß es sich bei denso definierten Funktionen um kubische Spline–Funktionen handelt. Nun, wenn wirakzeptieren, daß die Abschneide–Funktionen von dieser Art sind (vgl. Satz 4.39), dannsind wir auf der sicheren Seite.

Wir konnen aus der Definition eine direkte Beschreibung der B–Splines herleiten.Wenn wir uns aus Vereinfachungsgrunden auf aquidistante Stutzstellen mit der Schritt-weite h > 0 beschranken, so gilt fur i = −3,−2,−1, . . . , N − 1:

Ni(x) =1

6h3

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

(x− xi)3 fur xi ≤ x < xi+1

h3 + 3h2(x− xi+1) + 3h(x − xi+1)2

−3(x− xi+1)3 fur xi+1 ≤ x < xi+2

h3 + 3h2(xi+3 − x) + 3h(xi+3 − x)2

−3(xi+3 − x)3 fur xi+2 ≤ x < xi+3

(xi+4 − x)3 fur xi+3 ≤ x < xi+4

0 sonst

(4.60)

Page 217: 3486584472_Mathem

204 4 Interpolation

-1

-0.5

0

0.5

1

1.5

2

-3 -2 -1 0 1 2 3

B–Spline N−2

Abbildung 4.8: Der B–Spline N−2 fur eine aquidistante Stutzstellenverteilung

Diese Funktionsgleichung versetzt uns zugleich in die Lage, die B–Splines zu skizzieren,wie wir es in der Abbildung 4.8 getan haben.Man sieht, daß der B–Spline Ni(x) nur auf dem Intervall [xi, xi+4] ungleich Null ist.Das war es, was wir uns wunschten und den anderen Basisfunktionen angekreidethaben. Diese Eigenschaft macht sie so erfolgreich bei Anwendungen.Durch diese Definition haben wir N + 3 B–Splines festgelegt. Das sind, falls sie linearunabhangig waren, genug fur eine Basis von S3

2 . Auch diese Aussage wolle wir lediglichals Satz zitieren und verweisen zum Beweis auf die Spezialliteratur.

Satz 4.42 Jede kubische Spline–Funktion s(x) ∈ S32 besitzt genau eine Darstellung

durch B–Splines der Form

s(x) =N+1∑i=−1

αiNi(x), α−1, . . . , αN+1 ∈ R. (4.61)

Interpolation mit kubischen Spline–Funktionen

Unsere Interpolationsaufgabe gestaltet sich hier etwas komplizierter, weil wir N +3 Freiheiten haben, aber nur N + 1 Stutzstellen. Wir werden also auf jeden Fallzur Interpolation alle Stutzstellen verwenden. Damit haben wir schon mal N + 1Bedingungen.

Definition 4.43 (Interpolationsaufgabe mit kubischen Splines)Gegeben seien wieder die Stutzstellen (4.28) und an jeder Stelle ein Wert yi, i =0, . . . , N , der vielleicht der Funktionswert einer unbekannten Funktion ist.

Page 218: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 205

Gesucht ist eine kubische Spline–Funktion s(x) ∈ S32 , die diese Werte interpoliert, fur

die also gilt:

s(xi) = yi, i = 0, . . . , N (4.62)

Fur das weitere Vorgehen wahlen wir einen ahnlichen Ansatz wie bei den Hermite–Spline-Funktionen. Allerdings werden wir eine kleine Modifikation vornehmen.

Definition 4.44 Ansatz zur Interpolation mit kubischen Spline–Funktionen:

s(x) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩

a0 + b0(x− x0) + c0(x− x0)2 + d0(x− x0)3 fur x ∈ [x0, x1)a1 + b1(x− x1) + c1(x− x1)2 + d1(x− x1)3 fur x ∈ [x1, x2)

...aN + bN (x− xN ) + cN (x− xN )2 + dN (x− xN )3 fur x ∈ [xN , xN+1)

(4.63)

Die Modifikation besteht also darin, daß wir den Ansatz uber das Intervall [x0, xN ]hinaus weiterfuhren bis zur Stutzstelle xN+1. Die haben wir ja oben schon eingefuhrt,um die B–Splines beschreiben zu konnen. Dadurch erhalten wir allerdings auch vierUnbekannte aN , bN , cN und dN hinzu. Der Gewinn liegt wieder in einer einheitlichenBeschreibung, die sich jetzt ergibt.Es gibt sicherlich sehr viele Moglichkeiten, die zwei zusatzlichen Freiheiten sinnvollfur eine Interpolationsaufgabe zu nutzen. Eine verbreitete Idee bezieht sich auf denUrsprung der Spline–Funktionen im Schiffbau.

Definition 4.45 Unter einer naturlichen kubischen Spline–Funktion verstehenwir eine Spline–Funktion s(x) ∈ S3

2 , die außerhalb der vorgegebenen Knotenmengex0, . . . , xN als Polynom ersten Grades, also linear fortgesetzt wird mit C2–stetigemUbergang an den Intervallenden.

Man stelle sich einen Stab vor, der gebogen wird und durch einige Lager in dieser gebo-genen Stellung gehalten wird. So wurden genau die Straklatten im Schiffbau eingesetzt,um den Schiffsrumpf zu bauen. Außerhalb der außeren Stutzstellen verlauft der Stabdann gerade, also linear weiter. So erklart sich auch die Bezeichnung ”naturlich“.Mathematisch betrachtet mussen die zweiten Ableitungen am linken und rechten In-terpolationsknoten dann verschwinden, d. h. s′′(x0) = s′′(xN ) = 0. Aus der Definitionder naturlichen kubischen Spline–Funktionen erhalten wir daher folgende Randvorga-ben zum Aufstellen des linearen Gleichungssystems:

s′′0(x0) = 2c0 + 6d0 (x0 − x0)︸ ︷︷ ︸=0

= 0 ⇔ c0 = 0

s′′N (xN ) = 2cN + 6dN (xN − xN )︸ ︷︷ ︸=0

= 0 ⇔ cN = 0

Page 219: 3486584472_Mathem

206 4 Interpolation

Satz 4.46 Bei naturlichen kubischen Spline–Funktionen sind die Koeffizienten c0 undcN gleich Null.

Damit ist schon einer unserer vier zusatzlichen Koeffizienten, namlich cN festgelegt.Wir werden sehen, daß wir aN leicht erhalten, bN und dN fur die weitere Rechnunguberhaupt nicht mehr benotigen.

Algorithmus zur Berechnung kubischer Spline–Funktionen

1 ak = yk fur k = 0, . . . , N

2 ck−1 hk−1 + 2ck(hk−1 + hk) + ck+1hk =3hk

(ak+1 − ak)− 3hk−1

(ak − ak−1)

fur k = 1, . . . , N − 1

3 bk =ak+1 − ak

hk− 1

3(2ck + ck+1)hk fur k = 0, . . . , N − 1

4 dk =1

3hk(ck+1 − ck) fur k = 0, . . . , N − 1

Der Schritt 1 folgt unmittelbar aus der Interpolationsbedingung. Interessant ist derSchritt 2 . Hier ensteht ein lineares Gleichunssystem zur Bestimmung der Koeffizien-ten c0, . . . , cN . Wie gesagt, um dieses System so leicht hinschreiben zu konnen, habenwir die Spline-Funktion uber xN hinaus fortgesetzt. Wenn wir nun aber einbeziehen,daß wir nur an naturlichen kubischen Splines interessiert sind, und daher die erste unddie letzte Spalte des Systems fortlassen, sieht die Matrix, die zu dem System gehort,folgendermaßen aus:

S =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2(h0 + h1) h1 0 . . . . . . 0

h1 2(h1 + h2) h2. . .

...

0 h2. . . . . . . . .

......

. . . . . . . . . . . . 0...

. . . . . . 2(hN−3 + hN−2) hN−2

0 . . . . . . 0 hN−2 2(hN−2 + hN−1)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

Diese Matrix ist offensichtlich quadratisch, symmetrisch, tridiagonal und stark diago-naldominant, da alle hi > 0 fur i = 0, . . . , N − 1. Bekanntlich ist sie damit regular,und das System hat genau eine Losung.

Satz 4.47 (Existenz und Einzigkeit kubischer Spline–Funktionen)In der Klasse der naturlichen kubischen Spline–Funktionen gibt es genau eine Funk-tion, welche die Interpolationsaufgabe 4.43 lost.

Page 220: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 207

-1

0

1

2

3

4

5

-6 -4 -2 0 2 4 6

♦ ♦ ♦ ♦

♦♦ ♦ ♦

♦ ♦ ♦ ♦

Abbildung 4.9: Interpolation der Tunneldaten aus Beispiel 4.5 mit einer naturlichenkubischen Splinefunktion

Mit dem Satz von Gerschgorin erkennt man sogar, daß alle Eigenwerte positiv sindund damit unsere Matrix sogar positiv definit ist. Man kann also auch das Verfahrenvon Cholesky zur Losung einsetzen. Der L-R-Algorithmus fur Tridiagonalsysteme istaber stabiler.

Beispiel 4.48 Wir kommen noch einmal zuruck auf den schonen Tunnel aus unseremBeispiel 4.5.

Wenn wir die Daten nun mit naturlichen kubischen Splines interpolieren, wird dasErgebnis wesentlich glatter als bei der Interpolation mit Polynomen. Auch hier wollenwir den Leser nicht mit langwierigen Rechnungen argern, sondern zeigen das Ergebnisin der Abbildung 4.9.Um den bei −3 und 3 senkrechten Anstieg zu bewaltigen, muß auch die Splinefunk-tion vorher ausholen. Sie schwenkt zwar nur sehr wenig nach unten aus, aber alsTunnel kauft uns dieses Gebilde auch noch niemand ab. Durch die unten folgendeKonvergenzaussage wissen wir naturlich, daß wir nur die Anzahl der Vorgabepunkteerhohen mussen, um ein besseres Ergebnis zu erzielen. Es ist aber vorstellbar, daß sol-che Vorgabepunkte nur begrenzt zur Verfugung stehen oder vielleicht nur mit großemAufwand zu beschaffen sind. Dann ist die schonste Konvergenzaussage Makulatur. Ab-hilfe schafft eine Interpolation mit kubischen Beziersplines. Den interessierten Lesermussen wir dafur auf die Spezialliteratur verweisen.Wir stellen noch einmal zum unmittelbaren Vergleich die Abbildungen mit Polyno-minterpolation und Splineinterpolation etwas verkleinert nebeneinander; so sieht mansehr deutlich die Unterschiede.

Page 221: 3486584472_Mathem

208 4 Interpolation

-1

0

1

2

3

4

5

-6 -4 -2 0 2 4 6

♦ ♦ ♦ ♦

♦♦ ♦ ♦

♦ ♦ ♦ ♦

-1

0

1

2

3

4

5

-6 -4 -2 0 2 4 6

♦ ♦ ♦ ♦

♦♦ ♦ ♦

♦ ♦ ♦ ♦

Abbildung 4.10: Interpolation der Tunneldaten mit einem Polynom 12. Grades (links)und einer naturlichen kubischen Splinefunktion (rechts)

Konvergenzeigenschaft

Mit einem recht komplizierten Beweisverfahren kann man auch fur die kubischen Spli-nefunktionen eine Konvergenzaussage herleiten, die sicherstellt, dass mit der Erhohungder Knotenzahl eine immer bessere Annaherung einhergeht. Wir verweisen fur den Be-weis auf Spezialliteratur und zitieren lediglich die Hauptaussage.

Satz 4.49 Fur die Stutzstellen (4.28) sei

h := max0≤i<N

|xi+1 − xi|. (4.64)

Sei f ∈ C4[a, b], und sei s die f in den Stutzstellen (4.28) interpolierende kubische Spli-nefunktion mit den zusatzlichen Randbedingungen s ′(x0) = f ′(x0), s ′(xN ) = f ′(xN ).Dann gilt:

‖f − s‖∞ ≤ 5384

h4‖f (iv)‖∞. (4.65)

Der Faktor 5384 ist dabei nicht zu verbessern. Der entscheidende Punkt liegt in der

4–ten Potenz des Stutzstellenabstandes h. Genau die gleiche Potenz war auch fur dieKonvergenz der kubischen Hermitesplines verantwortlich.

Extremaleigenschaft

Schon zuvor hatten wir auf die Bedeutung der Spline–Funktionen im Schiffbau mitden Straklatten hingewiesen. Das schien aber eher zufallig ubereinzustimmen. Die1957 von Holladay entdeckte Extremaleigenschaft der Spline–Funktionen zeigt nun,daß dies mit Methode geschah. Wir geben zunachst die mahematische Formulierungvon Holladay wieder.

Page 222: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 209

Extremaleigenschaft der Spline–Funktionen

‖s′′‖2 :=∫ xN

x0

s′′(x)2 dx ≤∫ xN

x0

f ′′(x)2 dx =: ‖f ′′‖2

Die genaue Formulierung dieses wichtigen Ergebnis geben wir im folgenden Satz:

Satz 4.50 Ist f eine beliebige Funktion mit f ∈ C2[x0, xN ] und ist s die naturlichekubische Splinefunktion, die f in den Punkten x0,. . . , xN interpoliert, so ist die Normder zweiten Ableitung der Spline–Funktion kleiner oder gleich der Norm von f ′′.

Die naturliche kubische Splinefunktion s(x) ist also dadurch ausgezeichnet, daß sie un-ter allen Funktionen, die unsere Interpolationsaufgabe losen, die kleinste Norm bezgl.der zweiten Ableitung besitzt.

Beweis: Wir haben zu zeigen:∫ xN

x0

[f ′′(x)2 − s′′(x)2

]dx ≥ 0.

Dazu betrachten wir die Differenz

g(x) := f(x)− s(x).

Offensichtlich ist dann wegen der Interpolationsvorgaben

g(xi) = 0, i = 0. . . . , N.

Mit dem kleinen binomischen Satz erhalt man:∫ xN

x0

(f ′′(x))2 dx−∫ xN

x0

(s′′())2 dx =∫ xN

x0

(g′′(x))2 dx + 2∫ xN

x0

s′′(x) · g′′(x) dx

Das erste Integral rechts ist ja wegen des Quadrates stets großer oder gleich Null. Alsomussen wir uns nur noch um das zweite kummern, und wir werden sogar zeigen:

∫ xN

x0

s′′(x) · g′′(x) dx = 0.

Das folgt mit partieller Integration:∫ xN

x0

[s′′(x) · g′′(x)

]dx =

N−1∑i=0

∫ xi+1

xi

s′′(x) · g′′(x) dx

=N−1∑i=0

[s′′(xi+1) · g′(xi+1)− s′′(xi) · g′(xi)

]−N−1∑i=0

∫ xi+1

xi

s′′′(x) · g′(x) dx

Page 223: 3486584472_Mathem

210 4 Interpolation

Die in der letzten Zeile auftretende erste Summe hat eine spezielle Eigenschaft. Wennwir die ersten drei Glieder aufschreiben, wird das sehr deutlich:

s′′(x1) · g′(x1) − s′′(x0) · g′(x0) + s′′(x2) · g′(x2)− s′′(x1) · g′(x1)+ s′′(x3) · g′(x3)− s′′(x2) · g′(x2) + . . .

Das zweite Glied fallt von vorneherein weg, da wir ja eine naturliche Splinefunkti-on verlangen. Dann wird das erste Glied vom vierten aufgefressen, das dritte Gliedvom sechsten, das funfte vom achten, usw. Man nennt so etwas manchmal eine Tele-skopsumme. Von der ganzen Summe bleibt nichts ubrig, denn am Schluß nutzen wirerneut die Naturlichkeit unserer Splinefunktion aus, so daß auch das vorletzte Gliednoch wegfallt. Damit erhalten wir weiter:

∫ xN

x0

[s′′(x) · g′′(x)

]dx = −

N−1∑i=0

∫ xi+1

xi

s′′′(x) · g′(x) dx

= −N−1∑i=0

6di

∫ xi+1

xi

g′(x) dx

= −N−1∑i=0

6di[g(xi+1)− g(xi)]

= 0

Dabei haben wir brutal ausgenutzt, daß s(x) eine kubische Splinefunktion, ihre dritteAbleitung also stuckweise konstant ist. Hier tauchen dann kurzzeitig die Koeffizientendi wieder auf. g(x) war nun aber gerade die Differenz f(x)− s(x), die an den Stutz-stellen verschwindet. Damit folgt dann die Behauptung.

Wir sollten noch einmal betonen, daß der Beweis sehr wesentlich den naturlichenkubischen Spline benutzt hat. Das laßt eine schone geometrische Interpretation zu:Unter der Krummung κ eines Funktionsgraphen y = g(x) versteht man die Große:

κ(x) :=g′′(x)

(1 + g′(x)2)3/2.

Falls nun |g′(x)| 1 ist fur x ∈ [a, b], so folgt:

‖κ(x)‖2 ≈∫ b

ag′′(x)2 dx,

d. h. unter allen Funktionen, die gegebene Daten interpolieren, hat die naturlichekubische Spline–Funktion die kleinste Krummungsnorm.Mechanisch laßt diese Eigenschaft folgende Deutung zu.Betrachten wir einen homogenen, isotropen Stab. Dessen Biegelinie sei gegeben durch

Page 224: 3486584472_Mathem

4.2 Interpolation durch Spline–Funktionen 211

y = g(x). Dann erhalt man aus der Mechanik:

Biegemoment: M(x) := c1 · g′′(x)(1 + g′(x)2)3/2

,

Biegeenergie: E(g) := c2 ·∫ b

aM(x)2 dx.

Man weiß, daß ein Stab, der durch Lager in gewissen Interpolationspunkten so fest-gehalten wird, daß dort nur Krafte senkrecht zur Biegelinie aufgenommen werdenkonnen, eine solche Endlage einnimmt, daß die aufzuwendende Biegeenergie minimalist. Falls nun |g′(x)| 1 ist fur x ∈ [a, b], was eine kleine Biegung bedeutet, so wirddiese Lage gerade durch die naturliche kubische Spline–Funktion angenommen.

Damit haben wir also drei verschiedene Deutungen der Extremaleigenschaft, die wirnoch einmal zusammenfassen:

1. Mathematische Deutung: Unter allen Funktionen, die eine gegebene C2–Funktion in den Stutzstellen x0, . . . , xN interpoliert, hat die naturliche kubischeSplinefunktion die kleinste Norm bzgl. der zweiten Ableitung.

2. Geometrische Deutung: Unter allen Funktionen, die eine gegebene C2–Funk-tion in den Stutzstellen x0, . . . , xN interpoliert, hat die naturliche kubische Spli-nefunktion die kleinste Krummung.

3. Mechanische Deutung: Ein Stab, der durch Lager in eine feste Form ge-zwungen wird, nimmt eine Endlage an, die genau einer naturlichen kubischenSplinefunktion entspricht, die die Lagerpunkte als Interpolationspunkte besitzt.

Gerade diese Extremaleigenschaft ist es, die in neuerer Zeit zur Approximation gege-bener oder durch Messung gewonnener Punkte mit Spline–Funktionen herangezogenwird. Leider mussen wir fur Einzelheiten auf die Spezialliteratur verweisen.

Page 225: 3486584472_Mathem
Page 226: 3486584472_Mathem

Kapitel 5

Numerische Quadratur

Gerne benutzen Journalisten die Metapher, jemand habe die Quadratur des Kreisesversucht. Damit wollen sie ausdrucken, daß man etwas Unmogliches angestrebt hat.Denn den Kreis zu quadrieren, bedeutet, daß man zu einem vorgegebenen Kreis le-diglich mit Zirkel und Lineal ein flachengleiches Quadrat konstruieren sollte. DiesesJahrtausende alte Problem konnte 1882 Ferdinand Lindemann, der ubrigens in Han-nover geboren wurde, dahingehend losen, daß er die Transzendenz von π nachwies unddamit zeigte, daß diese Quadratur unmoglich ist.Die Bezeichnung Quadratur hat man beibehalten fur die Berechnung von Flachenin-halten und ihn ubertragen auf die Berechnung von bestimmten Integralen. Die exakteBerechnung stoßt dabei oftmals an unuberwindliche Hurden. So ist z. B. fur

∫ x

0e−ξ2

keine Stammfunktion bekannt. Da bleibt nur der Ausweg, sich numerisch an den ge-suchten Flacheninhalt heranzutasten.Die naherungsweise Berechnung von bestimmten Integralen versieht man heute mitdem Begriff ’Numerische Quadratur’.

5.1 Allgemeine Vorbetrachtung

5.1.1 Begriff der Quadraturformel

Als allgemeine Form einer Quadraturformel wahlen wir einen linearen Ansatz, umdamit das eventuell komplizierte Integral anzunahern.

Definition 5.1 Gegeben sei ein bestimmtes Integral

I =∫ b

af(x) dx (5.1)

Page 227: 3486584472_Mathem

214 5 Numerische Quadratur

Unter einer Quadraturformel verstehen wir die Gleichung

∫ b

af(x) dx = Qn(f) + Rn(f) mit Qn(f) :=

n∑i=1

Aif(xi) (5.2)

und dem Restglied Rn(f). Hierin heißen A1, A2,. . . , An die Gewichte , x1, x2,. . . ,xn

die Stutzstellen der Quadraturformel.

Diese Formeln sind so zu verstehen, daß eine Funktion f vorgegeben ist, deren be-stimmtes Integral uber das Intervall [a, b] gesucht ist. Zur Anwendung der Quadra-turformel braucht man deren Stutzstellen und die zugehorigen Gewichte. Dann kannman den Naherungswert Qn(f) leicht aus (5.2) ermitteln. Um etwas uber den Fehleraussagen zu konnen, mussen wir Genaueres uber das Restglied wissen.Damit ist unser Programm abgesteckt. Im folgenden wollen wir verschiedene Vorge-hensweisen vorstellen und miteinander vergleichen. Wir werden also fur verschiedeneGrundideen jeweils die Stutzstellen, die Gewichte und das Restglied angeben.Man beachte, daß wir die Summation hier bei Eins beginnen lassen. Will man unsereFormeln mit denen in anderen Buchern vergleichen, empfiehlt sich dringend ein Blickauf diese Summation. Die Bezeichnung geht hier leider ziemlich durcheinander.

5.1.2 Der Exaktheitsgrad von Quadraturformeln

Fur den Vergleich verschiedener Quadraturformeln hat sich ein etwas eigenwilligerMaßstab herausgebildet. Man stellt bei jeder neuen Quadraturformel fest, Polynomewelchen Grades noch exakt integriert werden mit dem Hinterkopfgedanken, daß manstetige Funktionen ja durch Polynome gut annahern kann. Wenn man nun Polynomevom hohen Grad exakt integrieren kann, so wird die Formel wohl auch gute Dienstebei beliebigen stetigen Funktionen leisten.

Definition 5.2 Unter dem algebraischen Exaktheitsgrad oder der Ordnung einer Qua-draturformel verstehen wir die naturliche Zahl k, fur die alle Polynome vom Gradkleiner oder gleich k exakt integriert werden.

Fur diesen Exaktheitsgrad konnen wir leicht eine Hochstzahl angeben. Es gilt namlichder

Satz 5.3 Eine Quadraturformel der Gestalt (5.2) mit n Stutzstellen hat hochstensden Exaktheitsgrad 2n− 1.

Beweis: Das uberlegen wir uns ganz schnell, indem wir ein Polynom vom Grad 2nangeben, das durch die Quadraturformel (5.2) nicht exakt integriert wird, dessen Rest-glied also nicht verschwindet.Betrachten wir das Polynom vom Grad 2n

p(x) = (x− x1)2 · . . . · (x− xn)2,

Page 228: 3486584472_Mathem

5.1 Allgemeine Vorbetrachtung 215

das mit den in der Quadraturformel vorgegebenen Stutzstellen gebildet ist. Anwen-dung der Quadraturformel fuhrt zu

∫ b

ap(x) dx =

n∑ν=1

Aν · p(xν) + Rn(p).

Aus der Definition von p(x) erkennt man sofort: p(x1) = · · · = p(xn) = 0. Damitverschwindet in der Quadraturformel die gesamte Summe:

n∑ν=1

Aν · p(xν) = 0.

Nun ist das Polynom p(x) als Produkt von quadratischen Termen uberall bis auf dieendlich vielen Stutzstellen, die ja zugleich die Nullstellen sind, echt positiv. Damitist das Integral uber dieses Polynom ebenfalls echt positiv, endlich viele Nullstellenandern daran nichts. Die linke Seite ist also eine positive Zahl. Damit Gleichheitherrscht, muß auch die rechte Seite eine positive Zahl sein, das Restglied kann alsonicht verschwinden, womit wir gezeigt haben, daß die Quadraturformel nicht die Ord-nung 2n hat.

5.1.3 Einige klassische Formeln

Wir beginnen mit drei Formeln, die sich schon seit langer Zeit als nutzlich erwiesenhaben. Allerdings lassen sie in der Fehlerbetrachtung deutliche Wunsche offen. Wirwerden im Abschnitt 5.2.3 zeigen, wie man diesem Mangel beikommen kann.

Zunachst eine Formel, bei der lediglich einFunktionswert in der Mitte des Intervallsherangezogen wird. Die beiden schraffier-ten Flachen scheinen sich hier gegenseitigzu kompensieren.

Die Rechteckregel (Regel von MacLaurin)

QR(f) = (b− a)f(

a + b

2

)

a a+b2 b

AB

Abbildung 5.1: Die Rechteckregel

Im folgenden Bild zeigen wir den Nachteil dieses einfachen Vorgehens. Mit der Kom-pensation klappt das nur in Spezialfallen.

Page 229: 3486584472_Mathem

216 5 Numerische Quadratur

Wir wahlen eine konvexe Funktion, die ge-rade in der Mitte ihr Minimum hat. Dieschraffierte Flache geht bei der Inhaltsbe-rechnung glatt verloren. Wir werden unshier eine raffiniertere Methode einfallenlassen, um mit der so schon einfachen Re-gel weiterzukommen.

a a+b2 b

BA

Abbildung 5.2: Nachteil derRechtreckregel

Die folgende Regel benutzt beide End-punkte des Integrationsintervalls unddie dortigen Funktionswerte. Aus diesenPunkten wird zusammen mit den bei-den Abszissenpunkten das Trapez gebil-det und dessen Flache als Naherung desgesuchten Integrals verwendet. Das siehtbesser aus, kann aber naturlich auch nichtallzu genau annahern. Von nix kommteben nix.

Die Trapezregel

QT (f) = (b− a)f(a) + f(b)

2Abbildung 5.3: Zur Trapezregel

Wie wir oben schon angedeutet haben, liefern diese Regeln nur grobe Annaherungenan den gesuchten Integralwert. Bevor wir zu Verbesserungen kommen, wollen wirzunachst das allgemeine Prinzip zur Entwicklung dieser Formeln vorstellen.

5.2 Interpolatorische Quadraturformeln

Wie der Name andeutet, werden diese Formeln mit Hilfe der Interpolation gewonnen.Der Hauptgedanke lautet:

Ersetze die zu integrierende Funktion an vorgegebenen Stutzstellen durchdas zugehorige Interpolationspolynom, und integriere dieses.

,a a+b

2 b

Page 230: 3486584472_Mathem

5.2 Interpolatorische Quadraturformeln 217

Die folgende Regel entwickelte derberuhmte Astronom Johannes Kepler,als er im Jahre 1613 anlaßlich seinerWiedervermahlung einige Fasser Weinkaufte. Bei der Bezahlung fuhlte er sichubers Ohr gehauen und dachte daraufhinuber eine neue Methode nach, den Inhaltvon Weinfassern zu bestimmen. So fander die nach ihm benannte Faßregel. Dabeiwird mit den Intervallendpunkten unddem Mittelpunkt die interpolierendeParabel 2. Ordnung gebildet und derenFlache als Naherung fur die gesuchteFlache verwendet.

Die Keplerregel

QK(f) =b− a

6

(f(a) + 4f(

a + b

2) + f(b)

)

a a+b2 b

f(x)

Abbildung 5.4: Zur Keplerregel

Zwei Teilgruppen erhalt man durch die unterschiedliche Wahl der Stutzstellen.

Bei Newton–Cotes verwendet man die Intervallgrenzen als Stutzstellen.Bei MacLaurin verwendet man die Intervallgrenzen nicht als Stutzstellen.

5.2.1 Newton–Cotes–Formeln

Diese Gruppe verwendet also die Intervallgrenzen a und b als Stutzstellen. Wir wollenexemplarisch zeigen, wie die Trapezregel zustande kommt. Dazu bestimmen wir dasInterpolationspolynom, welches die vorgegebene Funktion f in den Punkten (a, f(a))und (b, f(b)) interpoliert. Das ist ja nun sehr einfach. Es lautet, als Newton–Polynomgeschrieben:

p1(x) = f(a) +f(b)− f(a)

b− a(x− a). (5.3)

Wir wissen aus dem Interpolationskapitel (vgl. Gleichung (4.20) auf Seite 181) auchetwas uber den Fehler:

R1(x) =f ′′(ξ)

2!(x− a)(x− b), (5.4)

wobei ξ ein Zwischenwert im Intervall [a, b] ist, der aber von x abhangt, was wir nichtvergessen durfen.

Page 231: 3486584472_Mathem

218 5 Numerische Quadratur

Damit konnen wir die Funktion f folgendermaßen darstellen:

f(x) = p1(x) +f ′′(ξ)

2!(x− a)(x− b), (5.5)

Es ist uns ein Leichtes, diese Funktion zu integrieren. Dabei nutzen wir aus, daß derTerm (x−a)(x−b) auf dem Intervall [a, b] sein Vorzeichen nicht wechselt. Dann konnenwir namlich den verallgemeinerten Mittelwertsatz der Integralrechnung heranziehenund aus dem zu berechnenden Integral den Term f ′′(ξ)/2!, gebildet an einer Zwi-schenstelle, die wir ξ∗ nennen wollen, herausziehen. Hier haben wir also beachtet, daßunser ξ von x abhangt. Wir erhalten so:

∫ b

af(x) dx =

∫ b

a

[f(a) +

f(b)− f(a)b− a

(x− a) +f ′′(ξ)

2!(x− a)(x− b)

]dx

= f(a)(b− a) +f(b)− f(a)

b− a

12(x− a)2

∣∣∣ba

+f ′′(ξ∗)

2

∫ b

a(x2 − ax− bx + ab) dx

=(b− a)

2(f(a) + f(b)) +

f ′′(ξ∗)2

(13x3 − 1

2ax2 − 1

2bx2 + abx

) ∣∣∣ba

=(b− a)

2(f(a) + f(b))− f ′′(ξ∗)

12(b− a)3

Das ist aber genau die Trapezregel, wie wir sie oben vorgestellt haben, mit einemZusatzterm, den wir oben als Restglied eingefuhrt haben.Leider hat die Sache den Haken mit dem verallgemeinerten Mittelwertsatz der Integral-rechnung. Zu seiner Anwendung darf der im Integral verbleibende Rest sein Vorzeichennicht wechseln. Wenn wir aber mehrere Stutzstellen zulassen, wird das zwangslaufigeintreten, und unsere einfache Rechnung geht so nicht mehr. Es gibt starkere Hilfs-mittel, am besten hat sich der Peano’sche Kernsatz bewahrt. Wir mussen da aber aufdie Spezialliteratur verweisen.Wir stellen unten einige Formeln mit ihren Restgliedern zusammen zur Ubersicht.Bei Betrachtung dieser Restglieder fallt bei der Keplerregel eine Besonderheit insAuge. Obwohl wir zu ihrer Herleitung lediglich ein Interpolationspolynom zweitenGrades verwenden, erscheint im Restglied die vierte Ableitung der zu integrierendenFunktion. Wenn wir also hier ein Polynom dritten Grades einsetzen, verschwindetdas Restglied. Also werden noch Polynome bis zum dritten Grad einschließlich exaktintegriert. Die mit vier Stutzstellen hergeleitete 3/8–Regel kann da nichts Besseres.Auch ihr Restglied enthalt die vierte Ableitung. Obwohl sie von Newton wohl wegenihres symmetrischen Aufbaus als die ”pulcherrima“, die schonste bezeichnet wurde,wird man der Keplerregel der einfacheren Anwendung wegen den Vorzug geben.Das setzt sich so fort bei den Newton–Cotes–Regeln. Bei Verwendung von einer un-geraden Anzahl von Stutzstellen gewinnt man einen Exaktheitsgrad hinzu.

Page 232: 3486584472_Mathem

5.2 Interpolatorische Quadraturformeln 219

Satz 5.4 Die Newton–Cotes–Regeln haben bei Verwendung von n Stutzstellen folgen-den Exaktheitsgrad:

# Stutzstellen Exaktheitsgradn gerade n− 1

n ungerade n

5.2.2 Formeln vom MacLaurin-Typ

MacLaurin verwendet nicht die Intervallgrenzen, sondern Punkte im Innern als Stutz-stellen. Die einfachste seiner Regeln mit einer Stutzstelle in der Mitte des Intervallshaben wir oben bereits als Rechteckregel vorgestellt. Manchmal wird sie auch als Mit-telpunktsregel bezeichnet. Hier bietet sich eine andere Methode als bei den Newton–Cotes–Formeln an, um auf den Exaktheitsgrad zu schließen.

Herleitung des Restgliedes fur die Rechteckregel Dazu setzen wir f ∈ C2[a, b]voraus, um dann eine Taylorentwicklung anzugeben.

f(x) = f

(a +

b− a

2

)+ f ′

(a +

b− a

2

)·[x−

(a +

b− a

2

)]

+12f ′′(ξ) ·

[x−

(a +

b− a

2

)]2

(5.6)

mit einer Zwischenstelle ξ ∈ (a, b). Hier integrieren wir beide Seiten und werden sodirekt auf die Rechteckregel gefuhrt:

∫ b

af(x) dx = f

(a +

b− a

2

)(b− a) + f ′

(a +

b− a

2

)12

(x− a + b

2

)2∣∣∣∣∣b

a

+12f ′′(ξ) · 1

3

(x− a + b

2

)3∣∣∣∣∣b

a

der erste Summand fuhrt gerade zur Rechteckregel, der zweite verschwindet und derdritte ist das Restglied

= (b− a)f(

a + b

2

)+

13

(b− a

2

)3

f ′′(ξ) (5.7)

Das Restglied enthalt die zweite Ableitung (an einer Zwischenstelle), woraus folgt, daßPolynome ersten Grades noch exakt integriert werden. Der Exaktheitsgrad ist also 1.

5.2.3 Mehrfachanwendungen

Allein schon die kleinen Skizzen auf Seite 216 und 217 deuten an, daß mit diesen ein-fachen Formeln keine Meisterschaft zu gewinnen ist. Es zeigt sich außerdem, daß For-meln mit mehr als sieben Stutzstellen zu negativen Gewichten fuhren. Dann konnen

Page 233: 3486584472_Mathem

220 5 Numerische Quadratur

durch Ausloschung der einzelnen Terme vollig irrelevante Ergebnisse entstehen. Imfolgenden schildern wir den wahren Trick, der obige Formeln zu einer sinnvollen An-wendung fuhrt. Dabei ist dieses Vorgehen gar nicht neu. Schon bei der Einfuhrung desRiemannschen Integrals wird derselbe Trick angewendet.

Wir unterteilen das Gesamtintervall in kleine Teilabschnitte und wendenin jedem ein und dieselbe Quadraturformel an.

Wir demonstrieren das Vorgehen an der Trapezregel. Sie lautet in ihrer einfachen Form(ohne Restglied):

QT (f) = (b− a)f(a) + f(b)

2

Wir unterteilen das Integrationsintervall [a, b] in N gleiche Teile, bilden also mit

h := (b− a)/N (5.8)

folgende Stutzstellen:

x0 = a, x1 = a + h, x2 = a + 2h, . . . , xN−1 = a + (N − 1)h, xN = a + Nh = b

Aus der Linearitat des Integrals erhalten wir dann die Zerlegung∫ b

af(x) dx =

∫ x1

af(x) dx +

∫ x2

x1

f(x) dx + · · · +∫ xN=b

xN−1

f(x) dx

Auf jedes der so gewonnenen Teilintegrale wenden wir die Trapezregel an∫ b

af(x) dx ≈ h

2(f(a) + f(a + h)) +

h

2(f(a + h) + f(a + 2h)) + · · ·

+h

2(f(a + (N − 1)h) + f(a + Nh))

=h

2(f(a) + 2f(a + h) + · · ·+ 2f(a + (N − 1)h) + f(a + Nh)) ,

wobei wir die zweite Zeile durch Ausklammern und Zusammenfassen der Terme ge-bildet haben.In der Abbildung 5.5 zeigen wir fur N = 5, wie sich die Flache der Trapeze dergesuchten Flache annahert.Wie sieht es mit dem Restglied aus, wenn wir zur summierten Trapezregel ubergehen?In jedem Teilintervall [xi, xi+1] gibt es eine Zwischenstelle ξi i = 0, . . . , N −1, und wirerhalten als gesamten Rest

RN (f) = −N−1∑i=0

h3

12f ′′(ξi) = −h3

12

N−1∑i=0

f ′′(ξi) = −h3

12

N−1∑i=0

f ′′(ξi)

NN

Page 234: 3486584472_Mathem

5.2 Interpolatorische Quadraturformeln 221

a=x0 x1=a+h x5=a+5h=b

Abbildung 5.5: Zur summierten Trapezregel. Fur N = 5 sind die Trapeze in die zuberechnende Flache eingezeichnet.

Hier ist∑N−1

i=0 f ′′(ξi)/N ein Zahlenwert, der zwischen minif ′′(ξi) und maxif ′′(ξi)liegt:

minif ′′(ξi) ≤

N−1∑i=0

f ′′(ξi)/N ≤ maxif ′′(ξi)

Wenn wir f ′′(x) als stetig voraussetzen, so gibt es nach dem Zwischenwertesatz eineStelle ξ, an der dieser Zahlenwert angenommen wird: f ′′(ξ) =

∑N−1i=0 f ′′(ξi)/N . Dann

erhalten wir als neues Restglied

RN (f) = −b− a

12h2f ′′(ξ), (5.9)

wobei wir den Stutzstellenabstand h := b−aN verwendet haben.

Der Faktor h2 ist nun interessant. Er sagt aus, wenn wir mehr und mehr Stutzstellenwahlen, geht das Restglied quadratisch gegen Null, wir konnen also von quadratischerKonvergenz sprechen. Damit lautet die gesamte summierte Trapezregel:

∫ b

af(x) dx =

h

2(f(a) + 2f(a + h) + · · ·+ 2f(a + (N − 1)h) + f(b))− b− a

12h2f ′′(ξ)

Beispiel 5.5 Wir wollen das Integral

∫ 2

1

dx

1 + x

naherungsweise mit der summierten Trapezregel berechnen.

Page 235: 3486584472_Mathem

222 5 Numerische Quadratur

Dabei uberlegen wir uns zunachst, wieviele Stutzstellen wir denn wohl benotigen,wenn wir einen Fehler kleiner als 2.5 · 10−3 zulassen wollen.Im Restglied erscheint die zweite Ableitung des Integranden an einer Zwischenstelle,die wir naurlich nicht kennen. Also versuchen wir, sie abzuschatzen. Es ist

f ′′(x) =2

(1 + x)3> 0 in [1, 2],

der Nenner wachst im Intervall [1, 2] monoton, nimmt also sein Minimum fur x = 1an. Also folgt

maxx∈[1,2]

|f ′′(x)| = 223

=14

Unsere Forderung an den Fehler fuhrt somit zur Gleichung

|RT (f)| =∣∣∣∣−b− a

12h2f ′′(ξ)

∣∣∣∣ ≤ h2

48!< 2.5 · 10−3,

aus der wir sofort die Forderung

h < 0.346

gewinnen. Wir werden daher die Schrittweite

h = 1/3

wahlen und unser Intervall [1, 2] in drei Teile aufteilen, also die Stutzstellen

x0 = 1, x1 = 1.3, x2 = 1.6, x3 = 2

einfuhren und damit obige Formel anwenden:∫ 2

1

dx

1 + x≈ 1

6(f(1) + 2f(1.3) + 2f(1.6) + f(2)

)= 0.4067

Als exakten Wert erhalten wir∫ 2

1

dx

1 + x= | ln(1 + x)

∣∣∣21

= 0.405465.

Als Fehler erhalten wir

Fehler = 0.4067 − 0.405465 = 0.001235 < 0.0025,

was unserer Forderung entspricht.Wir sollten dieser Rechnung nicht allzu viel Bedeutung beimessen; denn die Abschat-zung der zweiten Ableitung gelingt nur in einfachen Fallen und ist in der Regel vielzu grob. Sie kann nur als vager Anhalt dienen.

In der folgenden Tabelle stellen wir verschiedene Regeln mit ihren Restgliedern zu-sammen und vermerken in der letzten Spalte ihren Exaktheitsgrad.

Page 236: 3486584472_Mathem

5.2 Interpolatorische Quadraturformeln 223N

ewto

n–C

otes

–For

mel

n

Nam

eQ

uadr

atur

form

elR

estg

lied

Exa

kth.

grad

Tra

pezr

egel

b−a

2(f

(a)+

f(b

))−

2 3

( b−a

2

) 3 f′′ (

ξ)1

Kep

lerr

egel

b−a

6

( f(a

)+4f

(a+

b2

)+f(b

))−

1 90

( b−a

2

) 5 f(4

) (ξ)

3

3/8–

Reg

elb−

a8

( f(a

)+3f( a

+b−

a3

) +3f( a

+2·b−a 3

) +f

(b))

−3 80

( b−a

3

) 5 f(4

) (ξ)

3

1/90

–Reg

elb−

a90

( 7f(a

)+

32f( a

+b−

a4

) +12

f( a

+2·b−a 4

) +32

f( a

+3·b−a 4

) +7f

(b))

−8

945

( b−a

4

) 7 f(6

) (ξ)

5

Mac

Lau

rin–F

orm

eln

Rec

htec

kreg

el(b−

a)f( a+

b2

)+

1 3

( b−a

2

) 3 f′′ (

ξ)1

b−a

2

( f( a

+b−

a4

) +f( a

+3(b−a

)4

))+

1 12

( b−a

2

) 3 f′′ (

ξ)1

b−a

8

( 3f( a

+b−

a6

) +2f( a

+3(b−a

)6

) +3f( a

+5(b−a

)6

))+

21

640

( b−a

3

) 5 f(4

) (ξ)

3

b−a

48

( 13f( a

+b−

a8

) +11

f( a

+3(b−a

)8

) +11

f( a

+5(b−a

)8

) +13

f( a

+7(b−a

)8

))+

103

1440

( b−a

4

) 5 f(4

) (ξ)

3

Sum

mie

rte

New

ton–C

otes

–For

mel

nK

onv.

Ord

.

Tra

pezr

egel

h=

b−a

Nh 2

(f(a

)+2f

(a+

h)+

2f(a

+2h

)+···+

2f(a

+(N

−1)

h)+

f(b

))−

b−a

12

h2f′′ (

ξ)1

Sim

pson

rege

lh=

b−a

2N

h 3(f

(a)+

4f(a

+h)+

2f(a

+2h

)+···+

2f(a

+(2

N−

2)h)+

4f(a

+(2

N−

1)h)+

f(b

))−

b−a

180h

4f

(4) (

ξ)3

Sum

mie

rte

Mac

Lau

rin–F

orm

eln

Kon

v.O

rd.

Rec

htec

kreg

elh

=b−

aN

h( f( a

+h 2

) +f( a

+3h 2

) +···+

f( a

+(2

N−

2)h 2

) +f( a

+(2

N−

1)h 2

))+

b−a

24

h2f′′ (

ξ)1

h=

b−a

2N

h( f

(a+

h 2)+

f(a

+3h 2

)+···+

f(a

+(4

N−

1)h 2))

+b−

a24

h2f′′ (

ξ)1

Tab

elle

5.1:

Tab

elle

der

New

ton–

Cot

es–F

orm

eln

Page 237: 3486584472_Mathem

224 5 Numerische Quadratur

5.3 Quadratur nach Romberg

Der Grundgedanke von Romberg1 ist von bestechender Einfachheit. Wir orientierenuns an der mehrfach angewendeten Trapezregel. Nehmen wir also an, daß wir eineQuadraturformel If(x) hatten, deren Fehler R(h) proportional zu h2m ist, (bei derTrapezregel ist er h2, vgl. (5.9)), also

∫ b

af(x) dx = If(h) + Rf (h) mit Rf (h) = c · h2m.

Halbieren wir die Schrittweite h → h/2, so erhalten wir als neuen Fehler

∫ b

af(x) dx = If(h/2) + Rf (h/2) mit Rf (h/2) = c ·

(h

2

)2m

.

Daraus erhalten wir durch einfaches Umrechnen (c jeweils neue Konstante)

If(h/2) − If(h) = Rf (h)−Rf (h/2) = c(22m − 1)Rf (h/2),

woraus sich ergibt

If(h/2) − If(h)22m − 1

= c ·Rf (h/2).

Damit folgt

∫ b

af(x) dx = If(h/2) + Rf (h/2) = If(h/2) +

1c· If(h/2)− If(h)

22m − 1.

Wenn wir nun die Konstante c vernachlassigen, da sie bei weiterer Verkleinerung vonh nur noch eine marginale Rolle spielt, und dann statt ’=’ ein ’≈’ benutzen, erhaltenwir

∫ b

af(x) dx ≈ 22mIf(h/2)− If(h)

22m − 1. (5.10)

Dies ist die interessante Formel von Romberg. Mit Hilfe der Richardson Extrapolationkann man zeigen, daß der Fehler dieser Naherung proportional zu h2m+2 = h2(m+1)

ist.Das Spiel treiben wir nun mehrfach und stellen folgende Tabelle auf. Wir nennen denNaherungswert nach der einfachen Trapezregel T

(0)0 , der zweifachen Trapezregel T

(1)0 ,

der vierfachen T(2)0 usw. Dann bilden wir

T (k)m =

4mT(k+1)m−1 − T

(k)m−1

4m − 1, m = 1, 2, 3, . . . , k = 0, 1, 2, . . . (5.11)

1W. Romberg 1955

Page 238: 3486584472_Mathem

5.3 Quadratur nach Romberg 225

T(0)0

T

(1)0 −→ T

(0)1

T

(2)0 −→ T

(1)1 −→ T

(0)2

T

(3)0 −→ T

(2)1 −→ T

(1)2 −→ T

(0)3

Tabelle 5.2: Schema der Romberg-Iteration

Die Tabelle 5.1 (S. 225) ist dann so entstanden: In der ersten Spalte stehen die Werteaus der mehrfach angewendeten Trapezregel. In der zweiten Spalte stehen die Werte

T(k)1 =

4 · T (k+1)0 − T

(k)0

3, k = 0, 1, 2, . . . ;

man multipliziere also den Wert aus der Spalte davor, gleiche Zeile, mit 4 und sub-trahiere den Wert eine Zeile daruber, dann teile man durch 3. Die nachste Spalte istdann

T(k)2 =

16 · T (k+1)1 − T

(k)1

15, k = 0, 1, 2, . . . .

Das erklart sich analog. Man sollte und wird feststellen, daß das Durchlaufen derSpalten, abgesehen von der ersten, keine Arbeit mehr bedeutet. Da freut sich jederComputer geradezu drauf, solch eine einfache Rechnung durchzufuhren. Das geht blitz-schnell. Die Arbeit liegt in der ersten Spalte der mehrfachen Trapezregel. Hier mussenviele Funktionsauswertungen vorgenommen werden. Das kostet Zeit.Ein ausfuhrliches Beispiel rechnen wir auf Seite 230 vor.

Page 239: 3486584472_Mathem

226 5 Numerische Quadratur

5.4 Gauß–Quadratur

Bei den bisher betrachteten interpolatorischen Quadraturformeln haben wir die Stutz-stellen zur Vermeidung umfangreicher Rechnungen aquidistant gelegt. Dies nahm unsetwas Freiheit in der Berechnung der Formeln. Wir konnten daher im Exaktheitsgradauch nur hochstens N erreichen, wenn wir N Stutzstellen vorgaben.Diese einschrankende Voraussetzung der aquidistanten Stutzstellen wollen wir nunverlassen in der Hoffnung, durch dieses Mehr an Wahlmoglichkeit bessere Formelnentwickeln zu konnen. Das fuhrt auf die große Gruppe der Gaußschen Quadraturfor-meln.

5.4.1 Normierung des Integrationsintervalls

Die im folgenden betrachteten Quadraturformeln beziehen sich auf Integrale uber dasIntervall

I = [−1, 1] (5.12)

Dies bedeutet aber naturlich keine Einschrankung. Die Transformation

t =2

b− a

(x− b + a

2

)(5.13)

fuhrt zu folgender Umrechnung

∫ b

af(x) dx =

∫ 1

−1f(t) dt (5.14)

Beispiel 5.6 Gegeben sei das Integral

I =∫ 1

0

41 + x2

dx = 4 · arctan 1 = π,

mit bekanntem Wert. Wir transformieren es auf das Intervall [−1, 1].

Durch

t =21

(x− 1

2

)= 2x− 1 ⇐⇒ x =

t + 12

entsteht mit dt = 2 dx

I =∫ 1

−1

4

1 + (t+1)2

4

12 dt =

∫ 1

−1

84 + (t + 1)2

dt

Page 240: 3486584472_Mathem

5.4 Gauß–Quadratur 227

5.4.2 Konstruktion einer Gaußformel

Wie in der Einleitung zu diesem Abschnitt schon gesagt, starten wir mit dem Ansatz∫ 1

−1f(t) dt = A1 · f(x1) + · · ·+ An · f(xn) + RGn (5.15)

Die Gewichte A1, . . . , An und die Stutzstellen x1, . . . , xn bestimmen wir nun so, daß derExaktheitsgrad moglichst groß wird. Am Beispiel fur n = 3 wollen wir das Vorgehendemonstrieren.

Beispiel 5.7 Wir bestimmen fur n = 3 obige Quadraturformel.

Gesucht sind also A1, A2, A3 und t1, t2, t3 so, daß Polynome moglichst hohen Gradesnoch exakt integriert werden. Da wir sechs Unbekannte haben, werden wir es mitPolynomen bis zum Grad funf versuchen. Da sich solche Polynome ja bekanntlich ausden Grundpolynomen linear kombinieren lassen und das Integral ein linearer Operatorist, konnen wir uns auf die Verwendung der Polynome

1, t, t2, t3, t4, t5

beschranken. Eine einfache Rechnung ergibt∫ 1

−1ti dt =

2

i+1 , falls i gerade,0, falls i ungerade

!= A1ti1 + A2t

i2 + A3t

i3, i = 0, . . . , 5

Das sind nun sechs leider nichtlineare Gleichungen mit sechs Unbekannten. Wir nutzendie Symmetrie des Intervalls [−1, 1] aus und verlangen

t1 = −t3, t2 = 0, A1 = A3

Dann bleiben drei Unbekannte t1, A1, A2. Wegen der Symmetrie verwenden wir nunauch nur die Polynome geraden Grades 1, t2 und t4 und erhalten so drei Gleichungen:

(i) i = 0∫ 1−1 t0 dt = 2 = A1 + A2 + A3 = 2A1 + A2

(ii) i = 2∫ 1−1 t2 dt = 2

3 = 2A1t21

(iii) i = 4∫ 1−1 t4 dt = 2

5 = 2A1t41

Eine kurze Rechnung ergibt

A1 =59

= A3, A2 =89, t1 = −

√35

= −t3, t2 = 0

Also lautet die gesuchte Formel:∫ 1

−1f(t) dt ≈ 1

9

[5f

(−√

35

)+ 8f(0) + 5f

(√35

)](5.16)

Betrachten wir das folgende

Page 241: 3486584472_Mathem

228 5 Numerische Quadratur

Beispiel 5.8 Gesucht ist eine Naherung des Integrals∫ 1

0

41 + x2

dx(= π)

mit obiger Quadraturformel.

Wir mussen zuerst das Integral auf das Intervall [−1, 1] zuruckfuhren und anschließenddie kleine Rechnung mit der Formel durchfuhren.∫ 1

0

41 + x2

dx =∫ 1

−1

84 + (t + 1)2

dx

≈ 19

⎛⎝ 5 · 8

4 + (1−√

35 )2

+8 · 85

+5 · 8

4 + (1 +√

35 )2

⎞⎠

= 3.14106814

Wenn man bedenkt, daß wir nur drei Funktionsauswertungen benotigten, so sind wirdem Wert π doch schon recht nahe gekommen.Es zeigt sich, daß die so gewonnenen Stutzstellen gerade die Nullstellen der Legendre–Polynome sind. Daher der folgende Abschnitt.

5.4.3 Legendre–Polynome

Es gibt verschiedene Moglichkeiten, die Legendre–Polynome zu definieren. Wir wahlendie Form, bei der man leicht ihren Polynomcharakter erkennt.

Definition 5.9 Die folgenden Polynome heißen Legendre–Polynome

Ln(t) =dn[(t2 − 1)n

]dtn

, n = 0, 1, 2, . . . (5.17)

Die folgenden Polynome heißen normierte Legendre–Polynome

Ln(t) =1

2n · n!

√2n + 1

2dn[(t2 − 1)n

]dtn

, (5.18)

worunter wir verstehen, daß der Koeffizient des Terms mit der hochsten Potenz 1 ist.

Wir konnen leicht die ersten nicht normierten Legendre–Polynome explizit angeben:

L0(t) = 1, L1(t) = t, L2(t) = 3t2 − 1, L3(t) = 5t3 − 3t (5.19)

Sie lassen sich rekursiv berechnen:

Satz 5.10 Mit den beiden Anfangspolynomen

L0(t) = 1, L1(t) = t

gilt folgende Rekursionsformel fur die Legendre–Polynome

(n + 1)Ln+1(t) = (2n + 1) · t · Ln(t)− nLn−1(t) (5.20)

Page 242: 3486584472_Mathem

5.4 Gauß–Quadratur 229

Die interessanteste Eigenschaft ist die Orthogonalitat der Legendre–Polynome, dieman prachtig bei der Fourier–Entwicklung ausnutzen kann. Es gilt der

Satz 5.11 Die Legendre–Polynome genugen folgender Orthogonalitatsrelation

∫ 1

−1Ln(t) · Lm(t) dt =

0 fur m = n2

2n+1 fur m = n(5.21)

Alles das ist aber nur zusammengetragen, weil wir nun mal uber diese Polynome ge-stolpert sind. Die wesentliche Aussage im Zusammenhang mit numerischer Quadratursteckt im folgenden Satz:

Satz 5.12 Die Stutzstellen der Gauß–Quadraturformeln sind die Nullstellen der Le-gendre–Polynome.

5.4.4 Bestimmung der Stutzstellen

Es gibt wieder verschiedene Wege, die Stutzstellen zu bestimmen. Der mit Abstandbeste und schnellste Weg ist der, in einer Tabelle nachzuschauen. Wir haben weiterhinten eine Liste angefugt fur Polynome gerader Ordnung. Falls jemand Lust ver-spurt, diese Liste, die wir ohne Gewahr angeben, aber auf Wunsch gerne per e-Mailverschicken, nachzuprufen, dem sei folgender Weg empfohlen, wobei sich das QR–Verfahren bewahren durfte:

Satz 5.13 Die Stutzstellen der Gauß–Quadraturformeln sind die Eigenwerte der fol-genden symmetrischen Tridiagonalmatrix

Gn =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 β1 0 · · · · · · 0

β1. . . β2 0 · · · 0

0. . . . . . . . . . . .

......

. . . . . . . . . . . . 0

0 · · · . . . . . . . . . βn−1

0 · · · · · · 0 βn−1 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

mit βk =k√

4k2 − 1, k = 1, . . . , n− 1

5.4.5 Bestimmung der Gewichte

Auch fur die Gewichte sei der Weg uber eine vorgegebene Liste empfohlen. Weiterhinten haben wir sie zusammengestellt fur Polynome gerader Ordnung bis hin zurOrdnung 32. Uberflussigerweise wollen wir hier ebenfalls eine Formel zu ihrer Berech-nung angeben.

Page 243: 3486584472_Mathem

230 5 Numerische Quadratur

Satz 5.14 Die Gewichte der Gaußschen Quadraturformeln lassen sich folgenderma-ßen berechnen:Sind t1, . . . , tn die Stutzstellen der Gaußschen Quadraturformel Gn, so berechnen sichdie zugehorigen Gewichte A1, . . . , An nach der Formel:

Ak =2

L20(tk) + 3L2

1(tk) + 5L22(tk) + · · ·+ (2n − 1)L2

n−1(tk)(5.22)

5.4.6 Exaktheitsgrad und Restglied Gaußscher Quadraturformeln

Im folgenden Satz zeigt sich nun der Lohn der ganzen Muhe. Wir haben wirklichund wahrhaftig Quadraturformeln mit optimalem Exaktheitsgrad erhalten. Besser als2n− 1 geht es nimmer, wie wir bereits im Satz 5.3 auf Seite 214 bewiesen haben.

Satz 5.15 Die Gaußsche Quadraturformel Gn hat den Exaktheitsgrad 2n − 1. Furf ∈ C2n([−1, 1]) besitzt ihr Restglied die Darstellung:

Rn(f) =f (2n)(ξ)(2n)!

∫ 1

−1(t− t1)2 · . . . · (t− tn)2 dt mit ξ ∈ [−1, 1] (5.23)

5.5 Vergleichendes Beispiel

An einem ausfuhrlichen Beispiel wollen wir viele der oben vorgestellten Verfahrenanwenden und die Ergebnisse vergleichen, um so zu einem besseren Verstandnis derVerfahren zu kommen.

Beispiel 5.16 Betrachten wir das Integral∫ 1

0x · ex dx,

und berechnen wir es

(a) exakt,

(b) nach der Trapez–Regel (1-fach, 2-fach, 4-fach, 8-fach, 16-fach)

(c) nach der Kepler und der Kepler–Simpson–Regel (1-fach, 2-fach, 4-fach, 8-fach),

(d) mit der 3/8–Regel,

(e) mit der 1/90–Regel,

(f) nach Romberg,

(g) nach Gauß mit G3.

Bei (b), (c) und (d) interessiert uns auch eine Fehlerabschatzung.

Page 244: 3486584472_Mathem

5.5 Vergleichendes Beispiel 231

Das ist ein umfangreiches Programm. Wir sollten nicht verheimlichen, daß unser klei-ner Knecht, Mr. Computer, kraftig mithelfen wird.

Zu (a): Die exakte Berechnung geht mit partieller Integration fast von allein:

∫ 1

0x · ex dx = x · ex

∣∣∣10−∫ 1

0ex dx = 1.

Damit haben wir den exakten Wert, den es nun bei den weiteren Verfahren anzunaherngilt.

Zu (b): Die einfache Trapezregel liefert:

∫ 1

0x · ex dx ≈ (1− 0)

1e1 − 0e0

2=

e

2= 1.35914091423.

Wir haben hier reichlich ubertrieben mit der Stellenzahl nach dem Dezimalpunkt;jedoch wollen wir auf Romberg hinaus, und daher brauchen wir die vielen Stellen. DerWert ist noch ziemlich ungenau, wie wir mit Hilfe der Fehlerabschatzung feststellenkonnen. Dazu brauchen wir die zweite Ableitung des Integranden, spater fur HerrnKepler auch noch die vierte:

f(x) = x · ex ⇒ f ′′(x) = (2 + x) · ex, f ′′′′(x) = (5 + x) · ex.

Sowohl f als auch alle ihre Ableitungen sind auf [0, 1] monoton wachsend, so daß wirden jeweiligen Ableitungswert durch den Wert am rechten Rand, also bei 1 abschatzenkonnen:

|RT | = | − 23

(1− 0

2

)3

f ′′(ξ)| ≤ 112· 3e = 0.6796.

Das ist noch ein ziemlich großer Wert. Wir interpretieren ihn folgendermaßen. Wiewir wissen, ist der Integralwert gerade die Summe aus dem Wert der Quadraturformel(QF ) und dem Fehler (RT ):

∫f(x) dx = QF + RT .

Nun konnen wir leider RT nicht exakt berechnen, da uns niemand die Zwischenstelleξ verrat, sondern wir konnen RT nur abschatzen und erhalten

∣∣∣∫

f(x) dx−QF∣∣∣ ≤ |RT |.

Das bedeutet aber

−RT ≤∫

f(x) dx−QF ≤ +RT

Page 245: 3486584472_Mathem

232 5 Numerische Quadratur

und hier konkret

−0.6796 ≤∫ 1

0x · ex dx− 1.359 ≤ 0.6796,

also

0.6794 ≤∫ 1

0x · ex dx ≤ 2.0386,

und wir sehen, daß der exakte Wert 1 dieser Ungleichung genugt.Versuchen wir es besser mit der zweifach angewendeten Trapezregel.

∫ 1

0x · ex dx ≈ 1

2

[f(0)

2+ f

(12

)+

f(1)2

]= 1.0917507747.

Den Fehler schatzen wir in gleicher Weise wie oben ab:

|RT2 | =∣∣∣∣−1− 0

12· 14· f ′′(ξ)

∣∣∣∣ ≤ 148· 3e = 0.1699.

Der Wert wird besser, der Fehler ist auf ein Zehntel zuruckgegangen. Also weiter indem Konzept:

Trapezregel vierfach:∫ 1

0x · ex dx ≈ 1

4

[f(0)

2+ f

(14

)+ f

(12

)+ f

(34

)+

f(1)2

]= 1.0230644790.

Der Fehler hier ist hochstens:

|RT4 | =∣∣∣∣−1− 0

12· 116· f ′′(ξ)

∣∣∣∣ ≤ 3e192

= 0.042.

Trapezregel achtfach:∫ 1

0x · ex dx ≈ 1

8

[f(0)

2+ f

(18

)+ · · ·+ f

(78

)+

f(1)2

]= 1.0057741073.

Der Fehler hier ist hochstens:

|RT8 | =∣∣∣∣−1− 0

12· 164· f ′′(ξ)

∣∣∣∣ ≤ 3e768

= 0.0106.

Trapezregel sechzehnfach:∫ 1

0x · ex dx ≈ 1

16

[f(0)

2+ f

(116

)+ · · ·+ f

(1516

)+

f(1)2

]= 1.0014440270.

Page 246: 3486584472_Mathem

5.5 Vergleichendes Beispiel 233

Der Fehler hier ist hochstens:

|RT16 | =∣∣∣∣−1− 0

12· 1256

· f ′′(ξ)∣∣∣∣ ≤ 3e

3072= 0.00265.

Das Ergebnis ist nach solch einer langen Rechnung fur dieses einfache Integral nichtgerade berauschend, wenn wir ehrlich sind. Wir werden mal die weiteren Regeln ein-setzen und das Ergebnis zu verbessern trachten.

Kepler–Regel:∫ 1

0x · ex dx ≈ 1

6

[f(0) + 4f

(12

)+ f(1)

]= 1.0026207283.

Der Fehler hier ist hochstens:

|RK | =∣∣∣∣∣−

190·(

1− 02

)5

· f ′′′′(ξ)∣∣∣∣∣ ≤ 0.0047.

Wau, das hat schon was gebracht, der einfache Kepler liefert schon zwei Nachkomma-stellen genau. Also weiter auf diesem Weg.

Kepler–Simpson zweifach:∫ 1

0x · ex dx ≈ 1

12

[f(0) + 4f

(14

)+ 2f

(24

)+ 4f

(34

)+ f(1)

]= 1.0001690471.

Der Fehler hier ist hochstens:

|RK2 | =∣∣∣∣∣−

1− 0180

·(

14

)4

· f ′′′′(ξ)∣∣∣∣∣ ≤ 0.000295.

Es wird immer besser.

Kepler–Simpson vierfach:∫ 1

0x · ex dx ≈ 1

24

[f(0) + 4f

(18

)+ 2f

(28

)+ 4f

(38

)+ · · ·+ 4f

(77

)+ f(1)

]

= 1.0000106501.

Der Fehler hier ist hochstens:

|RK4 | =∣∣∣∣∣−

1− 0180

·(

18

)4

· f ′′′′(ξ)∣∣∣∣∣ ≤ 0.000018.

Nur zum Uben und um gleich anschließend den Romberg zu zeigen, sei noch derachtfache Kepler–Simpson gezeigt:

Page 247: 3486584472_Mathem

234 5 Numerische Quadratur

Kepler–Simpson achtfach:∫ 1

0x · ex dx ≈ 1

48

[f(0) + 4f

(116

)+ 2f

(216

)+ 4f

(316

)+ · · ·+ 4f

(1516

)+ f(1)

]

= 1.0000006669.

Der Fehler hier ist hochstens:

|RK8 | =∣∣∣∣∣−

1− 0180

cdot

(116

)4

· f ′′′′(ξ)∣∣∣∣∣ ≤ 0.000001152.

Hier haben wir an 16 Stellen die Funktion ausgewertet, das sind die Hauptkosten,wenn man sich mal so eine richtig knackige Funktion, wie sie die Wirklichkeit bereithalt, vorstellt. Dafur haben wir schon Genauigkeit auf ca. 6 Nachkommastellen.

Zu (d): Die 3/8–Regel, Newtons Schonste:

∫ 1

0x · ex dx ≈ 1− 0

8

[f(0) + 3f

(13

)+ 3f

(23

)+ f(1)

]= 1.00117.

Der Fehler hier ist hochstens:

|R3/8| =∣∣∣∣∣−

380·(

1− 03

)5

· f ′′′′(ξ)∣∣∣∣∣ ≤ 0.00209.

Zu (e): Die 1/90–Regel:∫ 1

0x · ex dx ≈ 1− 0

90

[7f(0) + 32f

(14

)+ 12f

(24

)+ 32f

(34

)+ 7f(1)

]

= 1.0000056017.

Der Fehler hier ist hochstens:

|R1/90| =∣∣∣∣∣−

8945

·(

1− 04

)7

· f vi(ξ)

∣∣∣∣∣ ≤ 0.000009831.

Zu (f) Romberg-Iteration: Jetzt wenden wir die fundamental einfache Idee von Rom-berg an. Dazu stellen wir folgende Tabelle auf, in der in der ersten Spalte die Werte dermehrfach angewendeten Trapezregel stehen. Hierin steckt der rechnerische Aufwand.Man denke an bose Funktionen f . Die zweite Spalte ergibt sich durch eine ganz primi-tive Rechnung; man multipliziere den in der gleichen Zeile, aber in der ersten Spaltestehenden (Trapez-)Wert mit 4, subtrahiere den in der ersten Spalte, aber in der Zeiledaruber stehenden Trapezwert und teile das Ergebnis durch 3. Es entsteht der Wertnach Kepler. In der Spalte darunter stehen so die Werte nach Kepler–Simpson.

Page 248: 3486584472_Mathem

5.5 Vergleichendes Beispiel 235

In der nachsten Spalte (16· Kepler-Simpson-Wert gleiche Zeile − Kepler-Simpson-Wert Zeile daruber, geteilt durch 15) stehen die Werte nach der 1/90–Regel. Dieweiteren Spalten lassen sich nicht mehr Newton–Cotes–Formeln zuordnen. Wir sehenaber, daß die weiteren Spalten sich immer besser dem richtigen Wert 1 nahern. Inder funften Spalte ist er auf 10 Nachkommastellen erreicht. Wir betonen noch einmal,daß diese Spaltenrechnerei uberhaupt keinen Aufwand mehr darstellt fur die heutigenRechnergenerationen.

Trapez Kepler–Simpson 1/90

1.35914091421.0917507747 1.00262072831.0230644790 1.0001690471 1.00000560171.0057741073 1.0000106501 1.0000000903 1.00000000281.0014440270 1.0000006669 1.0000000014 1.0000000000 1.0000000000

Tabelle 5.3: Romberg–Iteration

Und man sieht sehr schon die Konvergenz sowohl in den Spalten, aber vor allem inden Schragzeilen.Zu (g) Gauß–Quadratur:Um G3 anzuwenden, mussen wir das Integral auf das Intervall [−1, 1] transformieren.

[0, 1] → [−1, 1] : t =2

b− a

(x− a + b

2

)= 2x− 1.

Damit lautet das neue Integral

∫ 1

0x · ex dx =

∫ 1

−1

t + 12

· et + 1

2 dt

2

Hier wenden wir G3 an und erhalten:∫ 1

0x · ex dx ≈ 1

219

[5 · −

√3/5 + 12

· e−√

3/5+1

2 + 8 · 12e

12 + 5 ·

√3/5 + 1

2· e√

3/5+1

2

]

= 0.99999463.

Der einfache Gauß G3 liefert also schon ein Ergebnis, das wir mit der Trapezregel mit16 Stutzstellen nicht annahernd erhalten haben und das erst mit der 1/90–Regel beifunf Stutzstellen erreicht wurde. Gauß ist eben der Prinzeps Mathematicorum.

Page 249: 3486584472_Mathem

236 5 Numerische Quadratur

5.6 Stutzstellen und Gewichte nach Gauß

In der folgenden Tabelle haben wir die Stutzstellen und Gewichte der Gaußschen Qua-draturformeln Gn fur n = 2, 4, . . . , 32 zusammengestellt. Zugrunde liegt das Intervall[−1, 1]. Da die Stutzstellen symmetrisch im Intervall [0, 1] mit den gleichen Gewichtenangeordnet sind, haben wir lediglich die Stutzstellen im Intervall [−1, 0] mit ihrenzugehorigen Gewichten aufgeschrieben.

n Stutzstellen Gewichte

2 -.57735026918962576451 1.0000000000000000000

4 -.86113631159405257522 .34785484513745385737-.33998104358485626480 .65214515486254614263

6 -.93246951420315202781 .17132449237917034504-.66120938646626451366 .36076157304813860757-.23861918608319690863 .46791393457269104739

8 -.96028985649753623168 .10122853629037625915-.79666647741362673959 .22238103445337447054-.52553240991632898582 .31370664587788728734-.18343464249564980494 .36268378337836198297

10 -.97390652851717172008 .066671344308688137594-.86506336668898451073 .14945134915058059315-.67940956829902440623 .21908636251598204400-.43339539412924719080 .26926671930999635509-.14887433898163121088 .29552422471475287017

12 -.98156063424671925069 .047175336386511827195-.90411725637047485668 .10693932599531843096-.76990267419430468704 .16007832854334622633-.58731795428661744730 .20316742672306592175-.36783149899818019375 .23349253653835480876-.12523340851146891547 .24914704581340278500

Page 250: 3486584472_Mathem

5.6 Stutzstellen und Gewichte nach Gauß 237

n Stutzstellen Gewichte

14 -.98628380869681233884 .035119460331751863032-.92843488366357351734 .080158087159760209806-.82720131506976499319 .12151857068790318469-.68729290481168547015 .15720316715819353457-.51524863635815409197 .18553839747793781374-.31911236892788976044 .20519846372129560397-.10805494870734366207 .21526385346315779020

16 -.98940093499164993260 .027152459411754094852-.94457502307323257608 .062253523938647892863-.86563120238783174388 .095158511682492784810-.75540440835500303390 .12462897125553387205-.61787624440264374845 .14959598881657673208-.45801677765722738634 .16915651939500253819-.28160355077925891323 .18260341504492358887-.095012509837637440185 .18945061045506849629

18 -.99156516842093094673 .021616013526483310313-.95582394957139775518 .049714548894969796453-.89260246649755573921 .076425730254889056529-.80370495897252311568 .10094204410628716556-.69168704306035320787 .12255520671147846018-.55977083107394753461 .14064291467065065120-.41175116146284264604 .15468467512626524493-.25188622569150550959 .16427648374583272299-.084775013041735301242 .16914238296314359184

20 -.99312859918509492479 .017614007139152118312-.96397192727791379127 .040601429800386941331-.91223442825132590587 .062672048334109063570-.83911697182221882339 .083276741576704748725-.74633190646015079261 .10193011981724043504-.63605368072651502545 .11819453196151841731-.51086700195082709800 .13168863844917662690-.37370608871541956067 .14209610931838205133-.22778585114164507808 .14917298647260374679-.076526521133497333755 .15275338713072585070

22 -.99429458548239929207 .014627995298272200685-.97006049783542872712 .033774901584814154793

Page 251: 3486584472_Mathem

238 5 Numerische Quadratur

n Stutzstellen Gewichte

-.92695677218717400052 .052293335152683285940-.86581257772030013654 .069796468424520488095-.78781680597920816200 .085941606217067727414-.69448726318668278005 .10041414444288096493-.58764040350691159296 .11293229608053921839-.46935583798675702641 .12325237681051242429-.34193582089208422516 .13117350478706237073-.20786042668822128548 .13654149834601517135-.069739273319722221214 .13925187285563199338

24 -.99518721999702136018 .012341229799987199547-.97472855597130949820 .028531388628933663180-.93827455200273275852 .044277438817419806169-.88641552700440103421 .059298584915436780746-.82000198597390292195 .073346481411080305734-.74012419157855436424 .086190161531953275917-.64809365193697556925 .097618652104113888270-.54542147138883953566 .10744427011596563478-.43379350762604513849 .11550566805372560135-.31504267969616337439 .12167047292780339120-.19111886747361630916 .12583745634682829612-.064056892862605626085 .12793819534675215697

26 -.99588570114561692900 .010551372617343007156-.97838544595647099110 .024417851092631908789-.94715906666171425014 .037962383294362763951-.90263786198430707422 .050975825297147811999-.84544594278849801880 .063274046329574835540-.77638594882067885619 .074684149765659745887-.69642726041995726486 .085045894313485239210-.60669229301761806323 .094213800355914148464-.50844071482450571770 .10205916109442542324-.40305175512348630648 .10847184052857659066-.29200483948595689514 .11336181654631966655-.17685882035689018397 .11666044348529658204-.059230093429313207094 .11832141527926227652

28 -.99644249757395444995 .0091242825930945177571-.98130316537087275370 .021132112592771259734-.95425928062893819725 .032901427782304379987

Page 252: 3486584472_Mathem

5.6 Stutzstellen und Gewichte nach Gauß 239

n Stutzstellen Gewichte

-.91563302639213207387 .044272934759004227833-.86589252257439504894 .055107345675716745433-.80564137091717917145 .065272923966999595793-.73561087801363177203 .074646214234568779024-.65665109403886496122 .083113417228901218390-.56972047181140171931 .090571744393032840942-.47587422495511826103 .096930657997929915850-.37625151608907871022 .10211296757806076981-.27206162763517807768 .10605576592284641791-.16456928213338077128 .10871119225829413525-.055079289884034270427 .11004701301647519628

30 -.99689348407464954027 .0079681924961666056223-.98366812327974720997 .018466468311090959116-.96002186496830751222 .028784707883323369335-.92620004742927432588 .038799192569627049593-.88256053579205268154 .048402672830594052904-.82956576238276839744 .057493156217619066484-.76777743210482619492 .065974229882180495128-.69785049479331579693 .073755974737705206268-.62052618298924286114 .080755895229420215355-.53662414814201989926 .086899787201082979802-.44703376953808917678 .092122522237786128718-.35270472553087811347 .096368737174644259639-.25463692616788984644 .099593420586795267063-.15386991360858354696 .10176238974840550460-.051471842555317695833 .10285265289355884034

32 -0.997263861849481563544981128665 0.0070186100094700966004070637389-0.985611511545268335400175044631 0.0162743947309056706051705622064-0.964762255587506430773811928118 0.0253920653092620594557525897892-0.934906075937739689170919134835 0.0342738629130214331026877322524-0.896321155766052123965307243719 0.0428358980222266806568786466061-0.849367613732569970133693004968 0.0509980592623761761961632446895-0.794483795967942406963097298970 0.0586840934785355471452836373002-0.732182118740289680387426665091 0.0658222227763618468376500637069-0.663044266930215200975115168663 0.0723457941088485062253993564785-0.587715757240762329040745476402 0.0781938957870703064717409188283-0.506899908932229390023747474378 0.0833119242269467552221990746043

Page 253: 3486584472_Mathem

240 5 Numerische Quadratur

n Stutzstellen Gewichte

-0.421351276130635345364119436172 0.0876520930044038111427714627518-0.331868602282127649779916805730 0.0911738786957638847128685771116-0.239287362252137074544603209166 0.0938443990808045656391802376681-0.144471961582796493485186373599 0.0956387200792748594190820022041-0.0483076656877383162348125704405 0.0965400885147278005667648300636

Page 254: 3486584472_Mathem

Kapitel 6

Nichtlineare Gleichungen

6.1 Motivation

Ja, was ist denn damit gemeint? Diese Uberschrift ist doch reichlich nichtssagend.Gemeint ist folgende

Aufgabe: Bestimmen Sie die Nullstellen von beliebigen Funktionen!

Fur eine lineare Funktion haben wir schon in der 8. Klasse gelernt, ihre Nullstelle zuberechnen. Aber eine beliebige Funktion kann eben auch nichtlinear sein, und dannwird die Aufgabe sehr viel komplizierter, aber dafur auch interessanter. Formulierenwir mathematisch, was wir tun wollen:

Definition 6.1 (Nullstellensuche) Gegeben sei eine Funktion f : [a, b] → R.Gesucht ist ein x ∈ [a, b] mit

f(x) = 0 (6.1)

Eine eng damit verknupfte Fragestellung ist die nach der Suche eines Fixpunktes einergegebenen Funktion.

Definition 6.2 (Fixpunktaufgabe) Gegeben sei eine Funktion

T : [a, b] → R

Gesucht ist ein ξ ∈ [a, b] mit

T (ξ) = ξ

Ein solcher Punkt ξ heißt dann Fixpunkt von T .

In gewissem Sinn konnen wir uns uberlegen, daß beide Fragestellungen fast aquivalentsind. Formulieren wir es etwas genauer, so gilt:

Page 255: 3486584472_Mathem

242 6 Nichtlineare Gleichungen

Jede Fixpunktaufgabe laßt sich in eine Nullstellensuche umformulieren.Aus jeder Nullstellensuche laßt sich eine Fixpunktaufgabe entwickeln.

Betrachten wir dazu ein

Beispiel 6.3 Gegeben sei die Funktion

f(x) = ex + x2 − x− 1.25 fur x ∈ [−1, 1].

Die Nullstellensuche ist leicht formuliert:

Gesucht ist ein x ∈ [−1, 1] mit ex + x2 − x− 1.25 = 0

Wollen wir diese Aufgabe als Fixpunktaufgabe formulieren, gibt es viele Moglichkeiten.

(i) Gesucht ist ein Fixpunkt ξ ∈ [−1, 1] der Gleichung x = ex + x2 − 1.25.

(ii) Gesucht ist ein Fixpunkt ξ ∈ [−1, 1] der Gleichung x = ln(1.25 + x− x2).

Gewiß fallen dem Leser weitere 100 Moglichkeiten ein, aus obiger NullstellensucheFixpunktaufgaben herzustellen. Das fuhrt uns direkt zu der Frage, welche dieser vie-len Moglichkeiten denn die beste ist. Wie konnen wir uberhaupt die verschiedenenDarstellungen beurteilen?

6.2 Fixpunktverfahren

Wir beginnen mit der Fixpunktaufgabe; denn hier haben wir einen fundamentalenSatz von Banach1, der fast alle Fragen beantwortet. Allerdings muß uns die zu unter-suchende Funktion schon eine kleine Freundlichkeit erweisen, sie muß kontrahierendsein. Das erklaren wir in der folgenden

Definition 6.4 Eine Abbildung T : [a, b] → R heißt kontrahierend, wenn es einereelle Zahl L mit 0 < L < 1 gibt, so daß fur alle x, y ∈ [a, b] gilt:

|T (x)− T (y)| ≤ L · |x− y| (6.2)

Dies bedeutet anschaulich, daß der Ab-stand |x − y| zweier Punkte x, y ∈ [a, b]nach der Abbildung kleiner geworden ist;durch die Abbildung werden die beidenPunkte also zusammengezogen oder kon-trahiert. Rechts ist eine grobe Skizze einessolchen Verhaltens.

×

×

x

y

×

×

T (x)

T (y)

Der Mittelwertsatz der Differentialrechnung beschert uns, falls die Funktion T etwasglatter ist, eine recht einfache Moglichkeit, diese Kontraktionseigenschaft nachzuwei-sen:

1Stefan Banach, poln. Mathematiker, 1892 – 1945

Page 256: 3486584472_Mathem

6.2 Fixpunktverfahren 243

Satz 6.5 Ist T stetig differenzierbar auf [a, b] und gibt es eine reelle Zahl k < 1 mit

maxx∈[a,b]

|T ′(x)| ≤ k < 1, (6.3)

so ist T kontrahierend.

Beweis: Das ist, wie gesagt, eine Folgerung aus dem Mittelwertsatz; denn fur zweibeliebige Punkte x und y aus [a, b] gibt es stets eine Zwischenstelle t mit

T (x)− T (y)x− y

= T ′(t),

woraus folgt∣∣∣∣T (x)− T (y)x− y

∣∣∣∣ = |T ′(t)|,

also ergibt sich

|T (x)− T (y)| = |T ′(t)| · |x− y| ≤ maxt∈[a,b]

|T ′(t)| · |x− y|.

Und nun setzen wir einfach L := maxt∈[a,b] |T ′(t)|, und schon ist T kontrahierend,denn diese Zahl L existiert, weil T ′ ja noch stetig ist auf [a, b].

Die zentrale Aussage uber Fixpunkte liefert nun der folgende Satz:

Satz 6.6 (Banachscher Fixpunktsatz) Sei T : [a, b] → R eine stetige Funktionmit den Eigenschaften:

(i) T ([a, b]) ⊆ [a, b], es gelte also fur jedes x ∈ [a, b], daß T (x) wieder in [a, b] liegt,

(ii) T sei kontrahierend.

Dann gilt:Es gibt eine reelle Zahl ξ ∈ [a, b], so daß fur beliebiges x(0) ∈ [a, b] die Folge

x(0), x(1) := T (x(0)), x(2) := T (x(1)), . . . → ξ, (6.4)

konvergiert; dabei ist ξ der einzige Fixpunkt von T in [a, b].

Dies ist ein zentraler Satz fur nichtlineare Gleichungen, darum wollen wir uns denBeweis nicht entgehen lassen.Beweis: Wir zeigen, daß die Folge

x(0), x(1), x(2), . . .

eine Cauchy–Folge ist. Dazu uberlegen wir uns, daß der Abstand zweier Elemente derFolge beliebig klein wird, je weiter wir die Folge durchlaufen. Nehmen wir also zwei

Page 257: 3486584472_Mathem

244 6 Nichtlineare Gleichungen

Elemente der Folge her und zwar x(m) und x(k), wobei wir ohne Einschrankung m > kvoraussetzen konnen. Dann nutzen wir die Dreiecksungleichung aus und erhalten:

|x(m) − x(k)| ≤ |x(m) − x(m−1)|+ |x(m−1) − x(m−2)|+ · · · |x(k+1) − x(k)|

Jeder Summand besteht nun aus Nachbargliedern, die wir zuerst betrachten. Fur siegilt:

|x(k+1) − x(k)| = |T (x(k))− T (x(k−1))| ≤ L · |x(k) − x(k−1)| ≤ · · · ≤ Lk|x(1) − x(0)|,

Das setzen wir oben in jeden Summanden ein und erhalten:

|x(m) − x(k)| ≤ (Lm−1 + Lm−2 + · · ·+ Lk) · |x(1) − x(0)|≤ Lk · (1 + L + L2 + · · ·+ Lm−1−k)︸ ︷︷ ︸

endl. geom. Reihe

·|x(1) − x(0)|

diese endliche Reihe ersetzen wir durch die unendliche Reiheund bilden deren Summe :

≤ Lk 11− L

|x(1) − x(0)| (6.5)

Wegen L < 1 ist Lk 1 und strebt naturlich gegen Null fur k → ∞, also ist (x(m))eine Cauchy–Folge.Fur Puristen sollten wir das ein wenig genauer sagen. Gibt uns jemand eine kleine Zahl ε > 0und verlangt nach einer Nummer N , von der ab die Abstande beliebiger Folgenglieder stetskleiner als ε ist, so setzen wir im letzten Term k = N und berechnen cool aus der Ungleichung

LN 11− L

|x(1) − x(0)| ≤ ε

das verlangte N . Achtung, wegen L < 1 ist log L < 0, was bei Multiplikation das Ungleich-heitszeichen umkehrt.Aus der Cauchy–Eigenschaft schließen wir jetzt auf die Existenz des Grenzelements,das wir ξ nennen wollen. Das ist die im Satz gesuchte reelle Zahl, womit wir also einenwesentlichen Teil des Satzes bewiesen haben. Aus (6.5) folgt unmittelbar fur m →∞:

|ξ − x(k)| ≤ Lk

1− L|x(1) − x(0)| (6.6)

Dies ist ein praktisches Zwischenergebnis, das wir spater in einem Korollar festhaltenwerden. Damit konnen wir auch gleich zeigen, daß ξ Fixpunkt von T ist, denn es istja

T (x(k)) = x(k+1) also − x(k+1) + T (x(k)) = 0,

Page 258: 3486584472_Mathem

6.2 Fixpunktverfahren 245

und damit folgt:

|ξ − T (ξ)| = |ξ − x(k+1) + T (x(k))− T (ξ)| (6.7)≤ |ξ − x(k+1)|︸ ︷︷ ︸

Lk+1

1−L|x(1)−x(0)|

+ |T (x(k))− T (ξ)|︸ ︷︷ ︸L |x(k) − ξ|︸ ︷︷ ︸

Lk1−L

|x(1)−x(0)|

(6.8)

≤ 2Lk+1

1− L|x(1) − x(0)| (6.9)

→ 0 fur k →∞. (6.10)

Also folgt

|ξ − T (ξ)| = 0, und damit ξ − T (ξ) = 0, also T (ξ) = ξ.

So haben wir also gezeigt, daß ξ ein Fixpunkt ist.Nun konnte es doch sein, daß es mehrere Fixpunkte gibt. Aber unsere Voraussetzun-gen sind so stark, daß wir das ausschließen konnen. Waren namlich ξ1 und ξ2 zweiFixpunkte von T , so folgt:

|ξ1 − ξ2| = |T (ξ1)− T (ξ2)| ≤ L · |ξ1 − ξ2|.

Das steht im glatten Widerspruch dazu, daß ja L < 1 ist. Damit ist der Satz nun aberwirklich vollstandig bewiesen.

Das obige Zwischenergebnis (6.6) halten wir im folgenden Korollar fest:

Korollar 6.7 (Fehlerabschatzung) Unter den Voraussetzungen des BanachschenFixpunktsatzes gelten fur den einzigen Fixpunkt ξ der Abbildung T folgende Abschatzun-gen fur den Fehler:

|ξ − x(k)| ≤ L

1− L|x(k) − x(k−1)| ’Abschatzung a posteriori’ (6.11)

≤ Lk

1− L|x(1) − x(0)| ’Abschatzung a priori’ (6.12)

Die beiden Begriffe ’a posteriori’ und ’a priori’ bedurfen einer Erlauterung. Alte La-teiner wissen naturlich die Ubersetzung ’im nachhinein’ und ’von vorne herein’. DieAbschatzung (6.12) benotigt nur x(0), also den Vorgabewert, und den ersten berech-neten Wert x(1). Schon gleich zu Beginn, eben von vorne herein konnen wir etwas uberden Fehler zwischen der gesuchten Nullstelle ξ und dem k-ten Naherungswert x(k) furbeliebiges k ∈ N aussagen.Ganz anders die Abschatzung (6.11). Hier benutzt man den k − 1-ten und den k-ten Naherungswert zu einer Fehleraussage. Man rechnet also erst einige Schritte, umdanach zu einer Aussage zu kommen. Diese ist dann aber meistens auch sehr vielbesser, weil der Fehler |x(k)−x(k−1)| schon viel kleiner ist. Der Anfangsfehler |x(1)−x(0)|

Page 259: 3486584472_Mathem

246 6 Nichtlineare Gleichungen

in (6.12) ist dagegen haufig wegen einer zu groben Schatzung viel zu groß. Da nutztes auch nichts, daß der Faktor Lk/(1− L) fur k →∞ gegen Null strebt.Versuchen wir uns an dem Bei-spiel 6.3, mit dem wir oben S. 242schon begonnen haben. Rechtshaben wir f(x) = ex und g(x) =−x2 + x+ 1.25 skizziert. Man er-kennt, daß bei x = −0.4 undbei x = 0.4 jeweils ein Fixpunktliegt. Oben hatten wir zwei Ver-sionen zur Fixpunktsuche ange-geben. Wir wollen nun untersu-chen, welche der beiden Versio-nen besser ist. Die beiden Versio-nen lauteten:

00.20.40.60.8

11.21.41.61.8

2

-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

f(x)

g(x)

(a): x = ex + x2 − 1.25 =: T1(x) (6.13)(b): x = ln(1.25 + x− x2) =: T2(x) (6.14)

Zu (a): Zum Nachweis der Kontraktionseigenschaft benutzen wir die im Satz 6.5 ge-nannte Bedingung. Es ist

T1(x) = ex + x2 − 1.25 =⇒ T ′1(x) = ex + 2x.

Zum Testen benutzen wir den ungefahren Punkt x1 = −0.4 und den Punkt x2 = 0.4und erhalten:

T ′1(−0.4) = −0.129 1.

Das deutet auf ein gutes Konvergenzverhalten hin.

T ′1(0.4) = 2.2918 > 1.

O, weia, das geht schief. Diese Version taugt also nur zur Annaherung an den beix1 = −0.4 liegenden Fixpunkt.Zu (b) Versuchen wir uns hier an einer Berechnung der Kontraktionszahl:

T2(x) = ln(1.25 + x− x2) =⇒ T ′2(x) =1− 2x

1.25 + x− x2

Daraus folgt:

T ′2(−0.4) = 2.6086 > 1.

Das fuhrt also zu nichts.

T ′2(0.4) = 0.1342,

und das deutet auf sehr gute Konvergenz hin.Damit haben wir unsere Bewertung abgeschlossen und fassen zusammen:

Page 260: 3486584472_Mathem

6.2 Fixpunktverfahren 247

Zur Berechnung des Fixpunktes bei x1 = −0.4 verwenden wir T1,zur Berechnung des Fixpunktes bei x2 = 0.4 verwenden wir T2.

Die Rechnung ist nun ein Kinderspiel

(a) (b)x(0) = −0.4 x(0) = 0.4x(1) = −0.419679 x(1) = 0.398776x(2) = −0.416611 x(2) = 0.398611x(3) = −0.417158 x(3) = 0.398588x(4) = −0.417062 x(4) = 0.398585x(5) = −0.417079 x(5) = 0.398585x(6) = −0.417077x(7) = −0.417077

Nachdem wir uns so auf 6 Stellen genau an den jeweiligen Fixpunkt herangepirschthaben, wollen wir nun noch den Fehler a posteriori abschatzen. Wegen T ′1(x

(7)) =−0.175183 wahlen wir L1 = 0.18 und erhalten

‖x(7) − ξ1‖ ≤ 0.22 · 5 · 10−7 = 1.1 · 10−7.

Wegen T ′2(x(5)) = 0.136153 wahlen wir L2 = 0.14 und erhalten

‖x(5) − ξ2‖ ≤ 0.17 · 5 · 10−7 ≤ 0.9 · 10−7.

In beiden Fallen ist der Abbruchfehler also kleiner als der Rundungsfehler. Das isteine hinreichende Genauigkeit.

Den Einfluß der Kontraktionsbedingungauf das Konvergenzverhalten machen wiruns an folgenden Skizzen klar. Die hin-reichende Bedingung aus dem Satz 6.5,namlich maxx∈[a,b] |T ′(x)| < 1 bedeutetja, daß (bei gleicher Einheit auf der x– undder y–Achse) die Tangente in der Nahe desFixpunktes im Winkelraum zwischen derersten und der zweiten Winkelhalbieren-den verlaufen muß. Diesen Bereich habenwir rechts in der Skizze schraffiert.

y

x

ξ

Die folgenden Bilder zeigen drei typische Verhalten. Links und rechts verlauft dieTangente im Fixpunkt in dem oben gezeigten Winkelraum. Daher tritt Konvergenz ein.In der Mitte ist die Tangente im Fixpunkt steiler als die Winkelhalbierende, und wieman sieht, tritt Divergenz ein. Wir starten zwar mit x(0) in der Nahe des Fixpunktes,bewegen uns aber schon mit x(1) und dann erst recht mit x(2) vom Fixpunkt weg.

Page 261: 3486584472_Mathem

248 6 Nichtlineare Gleichungen

x(o)x(1)x(2)ξ ξ x(0) x(1) x(2) x(0)x(1)

T (x)

T (x)

T (x)

konvergent divergent konvergent

ξx(2)

Nun wollen wir einen Begriff einfuhren, mit dem wir die Iterationsverfahren beurteilenund vergleichen konnen:

Definition 6.8 Gilt fur den Fehler |ξ−x(k)| der Iterationsfolge (fur hinreichend großek) mit einer Zahl q ∈ R

|ξ − x(k)| ≤ q · |ξ − x(k−1)|p (6.15)

fur ein p ∈ R, so nennt man p die Konvergenzordnung des Verfahrens.Fur p = 1 nennt man das Verfahren linear konvergent,fur p = 2 nennt man das Verfahren quadratisch konvergent.

Unmittelbar aus den Voraussetzungen schließt man;

Satz 6.9 Obiges Fixpunktverfahren ist linear konvergent.

Beweis: Das sieht man sofort, wenn wir folgende Gleichungskette aufschreiben:

|ξ − x(k)| = |T (ξ)− T (x(k−1))| ≤ L · |ξ − x(k−1)|1

Wir haben die Potenz 1 extra hinzugefugt, um die lineare Konvergenz sichtbar zumachen.

6.3 Newton–Verfahren

Wir stellen uns nun die Aufgabe, zur Bestimmung einer Nullstelle einer Funktion feinen Iterationsprozeß mit moglichst hoher Konvergenzordnung zu bestimmen. Dielineare Konvergenz des Fixpunktverfahrens reicht uns eben nicht.Dazu bilden wir folgenden Ansatz:

f(x) = 0 ⇐⇒ x = x + λ(x) · f(x) mit λ(x) = 0 (6.16)

Page 262: 3486584472_Mathem

6.3 Newton–Verfahren 249

Wir haben also aus der Nullstellensuche eine Fixpunktaufgabe gemacht mit einer nochzu bestimmenden Funktion λ(x), und wir suchen also den Fixpunkt der Funktion

T (x) := x + λ(x) · f(x).

λ(x) versuchen wir nun so festzulegen, daß die Konvergenzordnung moglichst großwird. Dazu betrachten wir den Fehler bei der Iteration und entwickeln ihn in eineTaylorreihe:

ek+1 = x(k+1) − ξ

= T (x(k))− T (ξ)

= (x(k) − ξ) · T ′(ξ) + (x(k) − ξ)2T ′′(ξ)

2!+ (x(k) − ξ)3

T ′′′(ξ)3!

+ · · ·

Hier sieht man, daß T ′(ξ) verschwinden mußte, dann hatten wir quadratische Kon-vergenz. Rechnen wir also flugs T ′ aus:

T ′(x) = 1 + λ ′(x) · f(x) + λ(x) · f ′(x),

woraus sofort wegen f(ξ) = 0 folgt

T ′(ξ) = 1 + λ ′(ξ) · f(ξ) + λ(ξ) · f ′(ξ) = 1 + λ(ξ) · f ′(ξ).Also gilt

T ′(ξ) = 0 fur λ(ξ) = − 1f ′(ξ)

.

Dies erreichen wir sicher, wenn wir ganz frech setzen:

λ(x) = − 1f ′(x)

.

Damit lautet unser gesuchtes Verfahren:

Newton–Verfahren

1 Wahle als Startwert eine reelle Zahl x(0).

2 Berechne x(1), x(2), . . . nach folgender Formel:

x(k+1) = x(k) − f(x(k))f ′(x(k))

Zugleich mit obiger Herleitung haben wir folgenden Satz bewiesen:

Satz 6.10 Sei I ein offenes Intervall, f ∈ C2(I), ξ sei Nullstelle von f mit f ′(ξ) = 0.Dann gibt es ein Intervall [ξ − h, ξ + h], in dem f ′ keine Nullstelle hat und in demdas Newton–Verfahren quadratisch konvergiert.

Page 263: 3486584472_Mathem

250 6 Nichtlineare Gleichungen

Die Voraussetzung f ′ = 0 bedeutet dabei, daß unser gesuchtes ξ keine mehrfacheNullstelle sein darf. Das ist wieder so eine typische Voraussetzung, wie sie nur Ma-thematikern einfallt. Um zu wissen, ob ξ einfache Nullstelle ist, mußte man ξ dochkennen, dann aber braucht man nicht mehr zu rechnen. Halt, so durfen wir das nichtverstehen.Wir haben gezeigt: Ist ξ eine einfache Nullstelle, so konvergiert das Vefahren quadra-tisch.Die Umkehrung dieser Aussage lautet: Wenn das Verfahren nicht quadratisch konver-giert, so ist die Nullstelle nicht einfach.Wir werden in Beispielen sehen, wie schnell ’quadratisch’ ist. Tritt das bei einem spezi-ellen Beispiel mal nicht ein, so sollte man gewarnt sein: vielleicht haben wir es mit einermehrfachen Nullstelle zu tun. Dann gibt es Abwandlungen des Newton–Verfahrens,auf die wir hier aber nicht eingehen wollen, sondern verweisen den interessierten Leserauf die Fachliteratur.

Das Newton–Verfahren kann man wun-derschon anschaulich deuten. Betrach-ten wir rechts die Skizze. Wir ha-ben eine Funktion f eingezeichnet, diebei ξ eine Nullstelle hat. Wir star-ten bei x(0) und gehen zum Punkt(x(0), f(x0)). Dort legen wir die Tan-gente an den Graphen. Das geht hurtigmit der Punkt–Steigungsform:

y − f(x(0))x− x(0)

= m = f ′(x(0)) =⇒ y − f(x(0)) = (x− x(0))f ′(x(0)).

Diese Tangente bringen wir nun zum Schnitt mit der x–Achse, setzen also y = 0, undbenutzen diesen Schnittpunkt als neue Naherung x(1). Die zugehorige Formel lautet:

x(1) = x(0) − f(x(0))f ′(x(0))

,

das ist aber genau die Newton–Formel.

Uben wir das an einem Beispiel.

Beispiel 6.11 Wir berechnen mit dem Newton–Verfahren, ausgehend von x(0) = 1Naherungen x(1) und x(2) fur die Nullstelle in der Nahe von 0 des Polynoms

p(x) = x4 − 4.5x3 + 21x− 10.

f(x)

x(0)x(1)ξ

x

y

Page 264: 3486584472_Mathem

6.3 Newton–Verfahren 251

Die Berechnung laßt sich bei Polynomen wunderbar mit dem Hornerschema durchfuh-ren. Es liefert den Funktionswert und in der zweiten Zeile den Ableitungswert und dasmit minimalem Aufwand, was gerade fur den Rechnereinsatz wichtig ist:

1 −4.5 0 21 −10

1 1 −3.5 −3.5 17.5

1 −3.5 −3.5 17.5 7.5 = p(1)

1 1 −2.5 −6

1 −2.5 −6 11.5 = p ′(1)

Die Formel des Newton–Verfahrens liefert uns sofort

x(1) = x(0) − 7.511.5

= 0.3478.

Die weitere Berechnung liefert:

1 −4.5 0 21 −10

0.3478 0.3478 −1.441 −0.502 7.129

1 −4.152 −1.444 20.549 −2.871 = p(0.3478)

0.3478 0.3478 −1.323 −0.963

1 −3.804 −2.767 19.535 = p ′(0.3478)

Daraus folgt

x(2) = x(1) − −2.87119.535

= 0.49476.

Die exakte Nullstelle ist ubrigens ξ = 0.5. Mit unserm kleinen Knecht, dem Computer,haben wir die weiteren Naherungen ausgerechnet. Wir stellen das Ergebnis in folgenderTabelle zusammen, wobei wir 14 Nachkommastellen berucksichtigt haben.

x0 1.00000000000000x1 0.34782608694652x2 0.49476092471723x3 0.49999211321205x4 0.49999999998198x5 0.50000000000000

Man sieht hieran, was quadratische Konvergenz bedeutet. x0 und x1 sind noch volldaneben, bei x2 sind zwei Nachkommastellen (bei Rundung) richtig. x3 zeigt schonfunf richtige Stellen, x4 zehn richtige und x5 ist der exakte Wert. Die Anzahl derrichtigen Stellen verdoppelt sich also in jedem Schritt.

Page 265: 3486584472_Mathem

252 6 Nichtlineare Gleichungen

6.4 Sekanten–Verfahren

Storend beim Newton–Verfahren, so schon es sonst lauft, ist die Berechnung der Ab-leitung. Ingenieure haben in ihren Anwendungen durchaus Funktionen, fur die esschwerfallt, eine Ableitung zu berechnen. Die Ausdrucke werden unubersichtlich lang.Funktionsauswertungen sind daher das, was zahlt und kostet.Als Abhilfe liegt es nahe, die Ableitung durch einen Differenzenquotienten zu ersetzen.Das ergibt sofort folgende Formel:

x(k+1) = x(k) − f(x(k))f(x(k))− f(x(k−1))

x(k) − x(k−1)

= x(k) − f(x(k))(x(k) − x(k−1))f(x(k))− f(x(k−1))

Hier sieht man sofort einen großen Vorteil des Verfahrens gegenuber Herrn Newton.Zur Berechnung des neuen Naherungswertes muß statt der aufwendigen Ableitunglediglich ein neuer Funktionswert f(x(k)) berechnet werden, der dann an zwei Stelleneingesetzt wird. f(xk−1) ist ja aus dem vorherigen Schritt bekannt.Aber auch einen kleinen Nachteil wollen wir festhalten; wenn man mit k = 0 startenwill, braucht man in der Formel k = −1, also mussen wir mit k = 1 starten. Wirbrauchen also x(0) und x(1), also zwei Startwerte. Das soll uns doch aber ein Lachelnkosten. Damit lautet dann das Verfahren:

Sekanten–Verfahren

1 Wahle zwei Startwerte x(0) und x(1).

2 Berechne x(2), x(3), . . . nach folgender Formel:

x(k+1) = x(k) − f(x(k))f(x(k))−f(x(k−1))

x(k)−x(k−1)

= x(k) − f(x(k))(x(k) − x(k−1))f(x(k))− f(x(k−1))

Auch hier kann man eine wunderschoneVeranschaulichung an Hand der Skiz-ze rechts geben. Betrachten wir beigegebenen Startwerten die Sekantedurch die beiden Punkte (x(0), f(x(0)))und (x(1), f(x(1))). Berechnen wir derenSchnittpunkt mit der x–Achse, so entstehtnach analoger Rechnung wie bei Newtondie Formel des Sekanten–Verfahrens.

f(x)

x(0)ξ

x

y

x(1)x(2)

Wir wahlen unser Beispiel von oben.

Beispiel 6.12 Gegeben seien jetzt zwei Startwerte x(0) = 0 und x(1) = 1. Wir berech-nen die nachste Naherung x(2) mit dem Sekantenverfahren:

Page 266: 3486584472_Mathem

6.5 Verfahren von Bairstow 253

Es ist p(0) = −10, den Funktionswert p(1) = 7.5 hatten wir oben schon mit demHornerschema ausgerechnet.

x(2) = 1− 7.5 · 17.5 + 10

= 0.57143

Zur Konvergenzordnung wollen wir lediglich den einschlagigen Satz zitieren und zumBeweis auf die Literatur verweisen.

Satz 6.13 Sei I ein offenes Intervall, f ∈ C2(I), ξ ∈ I sei Nullstelle von f mitf ′(ξ) = 0. Dann gibt es in I ein Teilintervall [ξ−h, ξ + h], in dem f ′ keine Nullstellehat und in dem das Sekanten–Verfahren mit der Konvergenzordnung

p =1 +

√5

2≈ 1.6180 (6.17)

gegen ξ konvergiert.

Fassen wir unser Wissen uber das Sekantenverfahren zusammen, so stellen wir fest:

1. Vorteil: In jedem Schritt wird nur eine neue Funktionsauswertung benotigt.

2. Vorteil: Die Konvergenzordnung ist fast so gut wie die des Newton–Verfahrens.

3. Nachteil: Es werden zwei Startwerte benotigt.

Bemerkung 6.14 In der Literatur wird ein weiteres Verfahren behandelt, die sog.

”Regula Falsi“. Es benutzt dieselbe Formel wie das Sekantenverfahren, verlangt aber,daß die beiden in jedem Schritt verwendeten Naherungswerte die gesuchte Nullstel-le einschließen. Gepruft wird das uber die Vorzeichen: man beachtet zusatzlich, daßf(x(k)) · f(x(k−1)) < 0 ist, eventuell nimmt man also statt x(k−1) den alteren Wertx(k−2) zur Bestimmung von x(k+1). Diese zusatzliche Uberlegung bringt außer mehrArbeit auch noch eine Reduktion der Konvergenzordnung, die fur die Regula Falsinur linear ist. Einen Vorteil aber hat sie doch: durch die standige Einschließung derNullstelle tritt garantiert Konvergenz ein.

6.5 Verfahren von Bairstow

Polynome p(x) mit grad p(x) ≥ 3 mit reellen Koeffizienten haben

1. einfache reelle Nullstellen oder

2. mehrfache reelle Nullstellen oder

3. komplexe Nullstellen, die wiederum einfach oder mehrfach sein konnen, abermit z0 = ξ1 + iξ2 ist dann auf jeden Fall auch z1 = ξ1 − iξ2 eine Nullstelle, diekonjugiert komplexe von z0.

Page 267: 3486584472_Mathem

254 6 Nichtlineare Gleichungen

Bei einfachen reellen Nullstellen helfen Newton– und Sekanten–Verfahren. Bei mehrfa-chen Nullstellen geht die Konvergenzordnung rapide nach unten, und komplexe Null-stellen sind uberhaupt nicht zu berechnen, wenn man nicht bereits den Startwertkomplex vorgibt und in der ganzen Rechnung komplexe Arithmetik verwendet.Fur den Fall doppelter reeller oder einfacher komplexer Nullstellen hat sich Herr Bair-stow 1914 ein Verfahren ausgedacht, das fast vollstandig im Reellen ablauft und auffolgender Uberlegung beruht:Hat p(x) eine doppelte reelle Nullstelle z0 oder eine einfache komplexe Nullstelle z0 =ξ1+iξ2 und damit auch die einfache komplexe Nullstelle z1 = ξ1−iξ2, so ist der Faktor

(x− z0)(x− z0) = x2 − x(z0 + z0) + z0 · z0 = x2 − 2z0 · x + |z0|2 = x2 − ux− v

aus dem Polynom p(x) abspaltbar. Dabei haben wir gesetzt:

u := 2 · z0, v = −|z0|2 = −(ξ21 + ξ2

2).

Wir werden also naherungsweise den reellen quadratischen Faktor x2 − ux − v be-rechnen. Aus diesem laßt sich dann kinderleicht mit der bekannten p-q–Formel dieNullstelle (einfach komplex oder doppelt reell) berechnen. Wir zerlegen also

p(x) = a0 + a1x + a2x2 + · · ·+ anxn = (x2 − ux− v)(q(x) + b1(x− u) + b0).

Hier sind

b1 = b1(u, v) und b0 = b0(u, v)

Summanden, die naturlich von u und v abhangen. Dann ist x2 − ux − v genau dannFaktor von p(x), wenn gilt

b1(u, v) = b0(u, v) = 0.

Dies sind zwei nichtlineare Gleichungen, die mit dem Newton–Verfahren naherungs-weise gelost werden konnen. Das fuhrt auf folgendes Schema:

Verfahren von Bairstow (1914)zur Berechnung komplexer Nullstellen von Polynomen

Sei pn(x) = a0xn + a1x

n−1 + . . . + an−1x + an, ai ∈ R, i = 0, 1, . . . , n.

x0 = ξ1 + iξ2, x1 = ξ1 − iξ2 seien Naherungen fur konjugiert komplexe Nullstellenvon p(x).

1 Bilde: u0 = 2(x0) = 2ξ1

v0 = −|x0|2 = −(ξ21 + ξ2

2)

2 Berechne fur k = 0, 1, 2, . . . :

Page 268: 3486584472_Mathem

6.5 Verfahren von Bairstow 255

a0 a1 a2 · · · an−3 an−2 an−1 an

vk — — vkb0 · · · vkbn−5 vkbn−4 vkbn−3 vkbn−2

uk — ukb0 ukb1 · · · ukbn−4 ukbn−3 ukbn−2 ukbn−1

b0 b1 b2 · · · bn−3 bn−2 bn−1 bn

vk — — vkc0 · · · vkcn−5 vkcn−4 vkcn−3

uk — ukc0 ukc1 · · · ukcn−4 ukcn−3 ukcn−2

c0 c1 c2 · · · cn−3 cn−2 cn−1

3 Mit δk :=bncn−3 − bn−1cn−2

c2n−2 − cn−1cn−3

und εk :=bn−1cn−1 − bncn−2

c2n−2 − cn−1cn−3

setze uk+1 := uk + δk, vk+1 := vk + εk.

4 Berechne die Nullstellen von

q2(x) = x2 − ux− v

mit u := limk→∞

uk, v := limk→∞

vk.

5 Berechne weitere Nullstellen entweder durch Wahl neuer Startwerte, oder bearbeite

qn−2(x) := b0xn−2 + b1x

n−3 + . . . + bn−3x + bn−2.

Satz 6.15 Es sei p(x) = h(x) · q(x) ein reelles Polynom mit einem quadratischenFaktor

q(x) = (x− z0)(x− z1) = x2 − ux− v, u, v ∈ R,

und q(x) sei teilerfremd zu p(x).Dann konvergiert das Bairstow–Verfahren, falls man nur hinreichend nahe mit u0 undv0 bei u und v startet, quadratisch gegen u und v.

Die Voraussetzung ’teilerfremd’ bedeutet, daß nur einfache komplexe Nullstellen oderdoppelte reelle Nullstellen zu dieser guten Konvergenzordnung fuhren. Sogar wennreelle Nullstellen dicht benachbart liegen, liefert das Bairstow–Verfahren noch brauch-bare Ergebnisse.

Beispiel 6.16 Wir betrachten das Polynom

p(x) = x4 − 4.5x3 + 21x− 10.

Es hat die exakten Nullstellen

x1 = 0.5, x2 = −2, x3 = 3 + i, x4 = 3− i,

wie man unschwer nachrechnet. Ja, wenn wir ehrlich sind, hier haben wir Osterha-se gespielt, also die exakten Nullstellen vorgegeben und dann das Polynom aus denLinearfaktoren berechnet. Angenommen, jemand hatte uns hinter vorgehaltener Handverraten, daß in der Nahe von z0 = 3+2i eine Nullstelle zu erwarten ist. Dann wollenwir mit Herrn Bairstow Genaueres herausfinden.

Page 269: 3486584472_Mathem

256 6 Nichtlineare Gleichungen

Also benutzen wir unser Schema:1 Bilde: u0 = 2(z0) = 6ξ1

v0 = −|z0|2 = −(32 + 22) = −13

2 Berechne fur k = 0

1 −4.5 0 21 −10v0 = −13 −−− −−− −13 −19.4 52u0 = 6 −−− 6 9 −24 135

1 1.5 −4 −22.5 −93v0 = −13 −−− −−− −13 −97.5u0 = 6 −−− 6 45 168

1 7.5 28 48

3 δ1 =−93 · 7.5− (22.5 · 28)

282 − 7.5 · 48 = -0.159198, ε1 =−22.5 · 48− (−93 · 28)

424= 3.59433

Setze u1 := 6− 0.159 = 5.84, v1 = −13 + 3.59 = −9.4.4 Berechne die Nullstellen von

q2(x) = x2 − 5.84x + 9.4

Man erhalt

x1,2 = 2.92 ± 0.9347i.

Das ist eine deutliche Verbesserung, allerdings sollte man hier noch drei–, viermalmehr iterieren, um der Nullstelle nahe zu kommen.

6.6 Systeme von nichtlinearen Gleichungen

6.6.1 Motivation

Zur Motivation betrachten wir folgendesBeispiel:

Beispiel 6.17 Wir betrachten die beidenGleichungen

x21 − x2

2 − 1 = 0 und x31x

22 − 1 = 0.

Wir suchen nun nach Punkten, die diesebeiden Gleichungen simultan erfullen. Wirschauen uns das ganze nur in der rechtenHalbebene an. Die erste Gleichung ist ei-ne nach rechts geoffnete Parabel, die zwei-te besteht aus zwei hyperbelartigen Asten.Als Schnittpunkte erhalten wir (1.2, 0.7)und (1.2,−0.7).

−1

1 x21 − x2

2 = 1

x31x

22 = 1

(1.2, 0.7)

1 2 x1

x2

Page 270: 3486584472_Mathem

6.6 Systeme von nichtlinearen Gleichungen 257

Das alles sieht hier noch recht ubersichtlich aus, aber unsere gegebenen Gleichungensind auch nicht sehr kompliziert. Bei beliebigen Gleichungen kann das ganze naturlichsehr viel chaotischer ausschauen, und dieses Wort ’Chaos’ benutzen wir mit Absicht andieser Stelle; denn genau so beschreibt man die Menge der Nullstellen von Systemennichtlinearer Gleichungen. Wir kommen darauf im Beispiel 6.22 noch zuruck. Damitist das Fachwort gefallen, und wir legen uns fest mit folgender Definition:

Definition 6.18 Unter einem System von nichtlinearen Gleichungen verstehen wirfolgendes:

f(x) = 0 oder ausgeschrieben

f1(x1, x2, . . . , xn) = 0f2(x1, x2, . . . , xn) = 0

......

fn(x1, x2, . . . , xn) = 0

(6.18)

Betrachten wir obiges Beispiel, so ist dort n = 2, und die beiden Gleichungen lauten:

f1(x1, x2) = x21 − x2

2 − 1f2(x1, x2) = x3

1x22 − 1

6.6.2 Fixpunktverfahren

Genau wie im eindimensionalen Fall konnen wir leicht aus einer Nullstellensuche eineFixpunktaufgabe machen. Wir losen nur die gegebenen Gleichungen nach x1, . . . , xn

auf. Da gibt es ebenfalls wieder sehr viele Moglichkeiten. Fur unser Beispiel schlagenwir folgende Auflosung vor:

x1 =√

1 + x22 =: T1(x1, x2)

x2 = x−3/21 =: T2(x1, x2)

Mit dieser Auflosung lautet dann die Fixpunktaufgabe:

Gesucht ist ein Punkt (ξ1, ξ2) mit ξ = T (ξ) = (T1(ξ1, ξ2), T2(ξ1, ξ2))

Und ebenso wie im R1 konnen wir auch hier den grundlegenden Satz von Banach

angeben, der alle Fragen bezuglich Existenz und Einzigkeit von Losungen beantwortet.

Satz 6.19 (Fixpunktsatz von Banach) Sei V ein normierter vollstandiger Vek-torraum, D ⊆ V eine abgeschlossene Teilmenge von V und T : V → V eine stetigeAbbildung. Ist dann

(i) T (D) ⊆ D (6.19)

und ist

Page 271: 3486584472_Mathem

258 6 Nichtlineare Gleichungen

(ii) T eine Kontraktion, gibt es also eine Zahl L mit 0 < L < 1 und

‖T (x1)− T (x2)‖ ≤ L · ‖x1 − x2‖ fur alle x1, x2 ∈ D (6.20)

so besitzt T genau einen Fixpunkt ξ in D.Das Iterationsverfahren

Wahle Startvektor x(0), bilde x(k+1) = T (x(k)), k = 0, 1, 2, . . . (6.21)

konvergiert fur jeden Startvektor x(0) ∈ D gegen ξ, und es gilt

‖ξ − x(k)‖ ≤ Lk

1− L‖x(1) − x(0)‖ (6.22)

Die Konvergenzordnung ist 1, das Verfahren konvergiert also linear.

Den Beweis konnen wir getrost ubergehen, denn der Beweis aus dem R1 laßt sich

wortlich ubertragen.Damals hatten wir uns Gedanken uber einen leichteren Nachweis der Kontraktionsbe-dingung gemacht und waren auf die Ableitung gestoßen. Hier laßt sich etwas Ahnlichesuberlegen, allerdings mussen wir uns Gedanken uber den Ableitungsbegriff machen.Da wir hier, allgemein gesprochen, mit Operatoren handeln, ist der adaquate Begriffdie ”Frechet–Ableitung“. Wir wollen das nicht vertiefen, denn schlaue Mathematikerhaben festgestellt, daß diese Ableitung im R

n die Funktionalmatrix ist. Diese lautetfur unsere Funktion T (x):

T ′(x) =

⎛⎜⎜⎝

∂T1(x)∂x1

· · · ∂T1(x)∂xn

......

∂Tn(x)∂x1

· · · ∂Tn(x)∂xn

⎞⎟⎟⎠

Der zugehorige Satz mit der hinreichenden Bedingung fur Kontraktion lautet dann:

Satz 6.20 Sei der Rn mit irgendeiner Norm versehen, D ⊆ R

n sei eine abgeschlos-sene und beschrankte Teilmenge, D sei konvex, und T (x) ∈ C1(D) mit T (D) ⊆ D.Gilt dann

‖T ′(x)‖ < 1

in irgendeiner Matrixnorm, so konvergiert das Fixpunktverfahren

Wahle Startvektor x(0), bilde x(k+1) = T (x(k)), k = 0, 1, 2, . . . (6.23)

fur jeden Startvektor x(0) ∈ D gegen den einzigen Fixpunkt ξ ∈ D.

Beispiel 6.21 Wir fuhren unser Beispiel von oben fort, indem wir diese Kontrakti-onsbedingung nachprufen.

Page 272: 3486584472_Mathem

6.6 Systeme von nichtlinearen Gleichungen 259

Wir erhalten als Funktionalmatrix

T ′(x) =

⎛⎜⎝

0x2√

1 + x22

−32x−5/21 0

⎞⎟⎠

Wir setzen hier unsere nach der Skizze vermutete Nullstelle (x(0)1 , x

(0)2 ) = (1.2, 0.7) ein

und berechnen die Zeilensummennorm der Matrix:

|T ′(1.2, 0.7)‖∞ = max(

0.7√1 + 0.72

,32· 1.2−5/2

)= 0.9509 < 1

womit wir nachgewiesen haben, daß unser Fixpunktverfahren konvergiert, wenn wirnur nahe genug beim Fixpunkt starten; aber die Konvergenz wird wohl recht langsamsein, denn die Norm der Funktionalmatrix liegt sehr nahe bei 1.Wagen wir uns an die Rechnung, die wir mit Hilfe eines kleinen Taschenrechnersdurchgefuhrt haben.

(x

(0)1

x(0)2

) (x

(1)1

x(1)2

) (x

(2)1

x(2)2

) (x

(3)1

x(3)2

)

(1.20.7

) (1.22060.7607

) (1.2564490.741549

) (1.2449480.710039

)

Hier ist noch nicht viel von Konvergenz zu sehen. Das entspricht sehr gut unsererUntersuchung bezgl. der Kontraktionszahl. Also mussen wir noch ein wenig weiteriterieren. Da es aber im Prinzip zu einem guten Ergebnis fuhrt, uberlassen wir dieRechnung unserm treuen Leser.

Beispiel 6.22 Betrachten Sie die Fixpunktaufgabe mit folgender Funktion

T (x1, x2) =(

x21 − x2

2 + u2x1x2 + v

), (u, v) ∈ R

2

Wahlen Sie sich ein beliebiges Paar (u, v) ∈ R2 und fuhren Sie obiges Iterationsver-

fahren durch. Bleibt die dabei entstehende Folge beschrankt, so farben Sie den Punkt(u, v) in der (x1, x2)–Ebene schwarz. Ist die Folge unbeschrankt, bleibt dieser Punktweiß (vorausgesetzt, Sie haben ein weißes Blatt Papier benutzt!). Ahnen Sie, was dabeientsteht?Das Apfelmannchen oder die Mandelbrotmenge, die vor Jahren durch die Welt gei-sterte und die Phantasie anregte. Vielleicht haben Sie ja Lust zur Programmierungdieser Gleichung und zur Herstellung eines eigenen Apfelmannchens?

Page 273: 3486584472_Mathem

260 6 Nichtlineare Gleichungen

6.6.3 Newton–Verfahren fur Systeme

Betrachten wir das einfache Newton–Verfahren und wollen wir es direkt auf Systemeubertragen, stoßen wir gleich auf ein Problem, das wir oben schon hatten: Was istmit der Ableitung, die sich noch dazu im Nenner tummelt? Die Antwort ist wie oben:Eigentlich ist es die Frechet–Ableitung, die wir aber im freundlichen R

n durch dieFunktionalmatrix ersetzen konnen. Eine Matrix im Nenner geht nun wirklich nicht;wer kann denn schon durch Matrizen dividieren? Fur uns bedeutet das, daß wir mitder Inversen der Funktionalmatrix multiplizieren. Damit schreibt sich die Verfahrens-vorschrift:

x(k+1) = x(k) − f ′(x(k))−1 · f(x(k)).

Das Berechnen einer inversen Matrix ist immer ein unangenehmer Punkt, denn dieseskleine Luder entzieht sich haufig einer exakten Berechnung. Die Kondition wird furcht-bar schlecht. Darum vermeiden wir diese Rechnung, wo immer moglich. Hier machenwir das genauso wie bei Herrn Wielandt und dem kleinsten Eigenwert. Wir schaufelndie Inverse auf die linke Seite der Gleichung, und schon ist die Inverse verschwunden.Leider fuhrt das auf die Aufgabe, ein lineares Gleichungssystem zu losen. Das ist aberimmer noch angenehmer, als zu invertieren, wenn man an große Matrizen denkt. Wirbehandeln also Herrn Newton in der folgenden Form:

Newton–Verfahren fur Systeme

Gegeben sei ein Startvektor x(0). Bestimme fur k = 0, 1, 2, . . . den neuen Naherungs-vektor x(k+1) jeweils aus dem linearen Gleichungssystem:

f ′(x(k))(x(k+1) − x(k)) = −f(x(k)) (6.24)

Wir greifen erneut unser Beispiel von oben auf und notieren einige Schritte, die manmit einem Taschenrechner erzielen kann:

Beispiel 6.23 Fortsetzung von Beispiel 6.17, S. 256.

Wir formulieren die Aufgabe als Nullstellensuche und erhalten damit die zu untersu-chende Funktion f :

x21 − x2

2 − 1 = 0x3

1x22 − 1 = 0

⇒ f(x) =(

x21 − x2

2 − 1x3

1x22 − 1

).

Daraus ermitteln wir die zugehorige Funktionalmatrix:

f ′(x) =(

2x1 −2x2

3x21x

22 2x3

1x2

),

Page 274: 3486584472_Mathem

6.6 Systeme von nichtlinearen Gleichungen 261

mit der wir dann folgendes lineare Gleichungssystem bekommen:(

2x1 −2x2

3x21x

22 2x3

1x2

)(x(1) − x(0)) = −f(x(0)).

Nun mussen wir den Startvektor x(0) = (1.2, 0.7) einsetzen und erhalten folgendeslineare Gleichungssystem:(

2.4 −1.42.1168 2.4192

)(x(1) − x(0)) =

(0.05

0.1533

)

Als Losung erhalt man:

x(1) − x(0) =(

0.03830.0299

)und daraus x(1) = x(0) +

(0.03830.0299

)=(

1.23830.7299

)

Auf die gleiche Weise verwenden wir nun diesen Vektor, um die nachsten Naherungenzu erhalten:

x(2) =(

1.2365110.727299

), x(3) =

(1.236 505 7030.727 286 982

).

Falls es uns noch nach x(4) gelusten sollte, erleben Rechnerfreaks eine Enttauschung;denn jetzt andert sich nichts mehr, es ist x(4) = x(3) mit allen oben notierten Stellen.Das ist wieder ein Zeichen fur die gute Konvergenz des Newton–Verfahrens auch furSysteme. Das halten wir im folgenden Satz fest:

Satz 6.24 Sei D ⊆ Rn eine abgeschlossene und beschrankte Teilmenge und f : D →

Rn eine zweimal stetig differenzierbare Abbildung, deren Funktionaldeterminante auf

D nicht verschwindet. Es sei f(ξ) = 0 fur ein ξ ∈ D.Dann gibt es eine Umgebung von ξ, in der das Newton–Verfahren fur jeden Startwertx(0) konvergiert.Ist f sogar dreimal stetig differenzierbar, so ist die Konvergenz quadratisch.

Auch hier ubergehen wir den Beweis, da er sich ebenfalls fast wortlich aus dem R1

ubertragen laßt.

6.6.4 Vereinfachtes Newton–Verfahren fur Systeme

Dies ist eine Spielart, die sich im ersten Moment fast nach einem Taschenspielertrickanhort.

Statt die Funktionalmatrix jedesmal fur die aktuelle Naherung neu auszu-rechnen, nehmen wir stets die gleiche Funktionalmatrix und zwar die, diewir beim ersten Schritt berechnet haben.

Es ist kaum zu glauben, aber diese Abwandlung bringt es immer noch zu Konvergenz,wenn auch ziemlich schlecht:

Page 275: 3486584472_Mathem

262 6 Nichtlineare Gleichungen

Satz 6.25 Das vereinfachte Newton–Verfahren hat die Konvergenzordnung 1, ist alsolinear konvergent.

Geschickt ist in praktischen Anwendungen vielleicht die folgende Kombination:

Man starte zur Nullstellenbestimmung eines Systems nichtlinearer Glei-chungen mit dem gewohnlichen Newton–Verfahren, berechne also in jedemSchritt die Funktionalmatrix neu. Ist nach einigen Schritten die erhal-tene Naherung schon recht gut, sind also schon wenige Nachkommastel-len richtig, so steige man um zum vereinfachten Newton–Verfahren. Dannubergeht man also die aufwendige Berechnung der Funktionalmatrix undbenutzt stets die alte.

6.6.5 Modifiziertes Newton–Verfahren fur Systeme

Die folgende Variante umgeht ebenfalls das Berechnen der Funktionalmatrix.

Zur Veranschaulichung betrachten wir fol-gendes Beispiel:

f1(x1, x2) = cos x1 − x2

f2(x1, x2) = x1 − sin x2

Aus der Skizze entnimmt man den Fixpunktξ ≈ (0.7, 0.8). Daher wahlen wir als Start-vektor der Iteration den Punkt (x(0)

1 , x(0)2 ) =

(1, 1).

(1, 1)

x1 = sin x2

x2 = cos x1

1 2π2

x1

1

2

x2π

ξ ≈ (0.7, 0.8)

Nun wird vorgeschlagen, folgende Strategie einzuhalten:

Man halte jeweils alle Variablen bis auf eine fest und wende das eindimen-sionale Newton–Verfahren auf diese Variable an.

Fur unser obiges Beispiel schreiben wir die Formeln auf, den allgemeinen Fall wirdman dann leicht selbst herstellen konnen.

Modifiziertes Newton–Verfahren (2–D)

Wir starten mit (x(0)1 , x

(0)2 ) und berechnen fur k = 0, 1, 2, . . .:

x(k+1)1 = x

(k)1 − f1(x

(k)1 , x

(k)2 )

∂f1

∂x1(x(k)

1 , x(k)2 )

, x(k+1)2 = x

(k)2 − f2(x

(k+1)1 , x

(k)2 )

∂f2

∂x2(x(k+1)

1 , x(k)2 )

Page 276: 3486584472_Mathem

6.6 Systeme von nichtlinearen Gleichungen 263

Wir hatten uns ziemlich willkurlich entschieden, zuerst mit der Funktion f1 zu startenund mit ihr die Naherung x

(1)1 zu berechnen und anschließend aus f2 die Naherung

x(1)2 zu bestimmen. Wir konnten aber genau so gut mit f2 beginnen und daraus x

(1)1

herleiten, um dann anschließend f1 zur Berechnung von x(1)2 zu verwenden.

Diese beiden Vorgehensweisen sind keineswegs identisch, ganz im Gegenteil. Gewohn-lich tritt bei einer der beiden Varianten Konvergenz und dann bei der anderen Diver-genz ein.Die Rechnung fur unser Beispiel sieht folgendermaßen aus:Die partiellen Ableitungen lauten:

f1(x1, x2) = cos x1 − x2 = 0 ⇒ ∂f1

∂x1= − sinx1,

∂f2

∂x1= 1

f2(x1, x2) = x1 − sin x2 = 0 ⇒ ∂f1

∂x2= −1,

∂f2

∂x2= − cos x2

Unser Startpunkt sei (x(0)1 , x

(0)2 ) = (1, 1).

Variante 1: Wir beginnen mit f1 zur Berechnung von x(k+1)1 , dann fahren wir fort

mit f2 und berechnen x(k+1)2 . Die Iterationsformeln lauten hier:

x(k+1)1 = x

(k)1 − cos x

(k)1 − x

(k)2

− sinx(k)1

k = 0, 1, 2, . . .

x(k+1)2 = x

(k)2 − x

(k+1)1 − sin x

(k)2

− cos x(k)2

k = 0, 1, 2, . . .

Das Ergebnis, bei dem uns wieder unser kleiner Rechner geholfen hat, schreiben wirals Tabelle, wobei immer schon nacheinander erst die x1–Komponente und dann diex2–Komponente berechnet wurde.

0 1 2 3 8x

(i)1 1 0.4537 1.86036 −0.45068 · · · −1330.74

x(i)2 1 0.2823 1.92929 5.88268 · · · −19633.37

In der Skizze oben haben wir dieses divergierende Verhalten bereits durch einen Gera-denzug, der von (1, 1) losgeht, festgehalten. Er windet sich einmal um den gesuchtenFixpunkt herum, verschwindet dann aber nach oben.Variante 2: Diesmal beginnen wir mit f2 zur Berechnung von x

(k+1)1 , dann fahren

wir fort mit f1 und berechnen x(k+1)2 . Die Iterationsformeln lauten hier:

x(k+1)1 = x

(k)1 − x

(k)1 − sin x

(k)2

1

x(k+1)2 = x

(k)2 − cos x

(k+1)1 − x

(k)2

−1

Page 277: 3486584472_Mathem

264 6 Nichtlineare Gleichungen

Wieder haben wir unsern Rechner angeworfen und folgendes Ergebnis erhalten:

0 1 2 3 20x

(k)1 1 0.84147 0.61813 0.727699 · · · 0.6948196

x(k)2 1 0.66637 0.81496 0.746707 · · · 0.7681690

Den hierzu gehorenden Geradenzug haben wir nicht in der Skizze vermerkt, er wurdeso dicht um den Fixpunkt herumwandern, daß man stark vergroßern mußte, um ihnsichtbar zu machen. Aber an den Werten erkennt man das konvergente Verhalten.

Page 278: 3486584472_Mathem

Vergleich der Verfahren 265

Nam

eG

leic

hung

Vor

gabe

nVer

fahr

enP

lusp

unkt

eM

inus

punk

teK

onv.

-Ord

n.

nic

htlin

.G

l.

Fix

punk

t–V

.T

(x)

=x

Star

twer

tx

(0)

x(k

+1)=

T(x

(k) )

,k=

0,1,

2..

.le

icht

eB

erec

hnun

glin

eare

Kon

verg

enz

1

New

ton–

V.

f(x)

=0

Star

twer

tx

(0)

x(k

+1)=

x(k

)−

f(x

(k))

f′ (

x(k

))

gute

Kon

verg

enz

Funk

tion

und

Abl

eitu

ng2

Seka

nten

–V.

f(x)

=0

2St

artw

.x

(0) ,

x(1

)x

(k+

1)=

x(k

)−

f(x

(k) )

x(k

)−x

(k−

1)

f(x

(k))−

f(x

(k−

1))

rech

tgu

teK

onve

rgen

zzw

eiSt

artw

erte

1.6

eine

Funk

tion

saus

wer

tung

Syst

eme

Fix

punk

t–V

. T(x

)=

xSt

artw

ert

x(0

)x

(k+

1)=

T(x

(k) )

,k=

0,1,

2..

.le

icht

eB

erec

hnun

glin

eare

Kon

verg

enz

1

New

ton–

V.

f(x

)=

0St

artw

ert

x(0

) f′ (x

(k) )

x(k

+1)=

f′ (x

(k) )

x(k

)−

f(x

(k) )

gute

Kon

verg

enz

Funk

tion

alm

atri

x2

linea

res

Gle

ich.

Syst

em

vere

inf.

New

t.–V

. f(x

)=

0St

artw

ert

x(0

) f′ (x

(0) )

x(k

+1)=

f′ (x

(0) )

x(k

)−

f(x

(k) )

einf

ache

Ber

echn

ung

linea

reK

onve

rgen

z1

linea

res

Gle

ich.

Syst

em

Pol

ynom

e

Bai

rsto

w–V

.p(x

)=

0≈

kom

plex

eN

ulls

t.qu

adr.

Fakt

orx

2−

ux−

vgu

teK

onve

rgen

z2

Hor

ner–

Sche

ma

Tab

elle

6.1:

Die

seTab

elle

gibt

eine

Ube

rsic

htub

erdi

eve

rsch

iede

nen

indi

esem

Kap

itel

besp

roch

enen

Ver

fahr

en.A

nH

and

der

besc

hrie

bene

nVor

–un

dN

acht

eile

mag

der

Les

ernu

nse

lbst

ents

chei

den,

wel

ches

Ver

fahr

ener

jew

eils

bevo

rzug

t.

Page 279: 3486584472_Mathem
Page 280: 3486584472_Mathem

Kapitel 7

Laplace–Transformation

Ein wichtiges Hilfsmittel zur Losung von Differentialgleichungen und hier insbesonderevon Anfangswertaufgaben wird in diesem Kapitel mit der Laplace–Transformationvorgestellt.

Wir betrachten dazu das folgende Beispiel, dessen Losung wir am Ende erarbeitenwerden.

Beispiel 7.1 Wir losen die Anfangswertaufgabe

y ′′′ − 3y ′′ + 3y ′ − y = t2et (7.1)

mit den Anfangswerten

y(0) = 1, y ′(0) = 0, y ′′(0) = −2. (7.2)

Wir werden spater im Rahmen der numerischen Behandlung von Differentialgleichun-gen lernen, wie man solche Aufgaben naherungsweise lost. Hier geht es um die exak-te Losung. Dazu werden wir die Differentialgleichung in eine algebraische Gleichunguberfuhren, also transformieren; diese Gleichung laßt sich in den meisten Fallen, die inder Anwendung gefragt sind, leicht auflosen. Aber dann, ja dann kommt das Problemder Rucktransformation. Hier konnen wir wie bei allen Umkehroperationen lediglichein paar Tricks verraten, aber keinen Algorithmus angeben, der stets zum Ziel fuhrt.Man denke an das Integrieren, wo wir zwar etliche Regeln (Substitution, partielle Inte-gration) kennen, aber am Ende doch im Gedachtnis oder in Integraltafeln nachgrabenmussen, ob wir nicht auf Bekanntes stoßen. Damit ist also der Weg dieses Kapitelsvorgezeichnet.

Page 281: 3486584472_Mathem

268 7 Laplace–Transformation

7.1 Einfuhrung

Am Anfang steht die grundlegende Definition.

Definition 7.2 Es sei die Funktion f : [0,∞) → R gegeben. Dann heißt

L[f](s) :=∫ ∞

0e−st · f(t) dt (7.3)

die Laplace–Transformierte der Funktion f .

Da uber die Variable t integriert wird, ist das Integral auf der rechten Seite lediglicheine Funktion von s, was wir links auch so bezeichnet haben. Durch die obere Grenze∞ist das ein uneigentliches Integral. Daher mussen wir uns Gedanken daruber machen,wann dieses Integral uberhaupt existiert. Doch betrachten wir zuerst ein paar einfacheBeispiele, um ein Gefuhl fur diese Bildung zu bekommen.

Beispiel 7.3 Wir berechnen die Laplace–Transformierte der Funktion

f(t) ≡ 1 fur t ≥ 0.

Dazu setzen wir nur die Funktion f in die Definitionsgleichung ein:

L[f](s) =∫ ∞

0e−st · 1 dt = −1

se−st

∣∣∣∞0

= +1s

fur s > 0.

Dabei mußten wir die Variable s > 0 voraussetzen, da sonst die Exponentialfunktion zuschnell nach Unendlich entschwindet. Das Integral wurde keinen endlichen Grenzwertbesitzen, also nicht existieren, wie das der Mathematiker ausdruckt. Die Existenz kannalso nur unter Einschrankungen gewahrleistet werden.

Beispiel 7.4 Wie lautet die Laplace–Transformierte der Funktion

f(t) := eat, a ∈ R?

Auch hier rechnen wir einfach los.

L[f](s) =∫ ∞

0e−st · eat dt =

∫ ∞

0e(a−s)t dt

=1

a− se(a−s)t

∣∣∣∞0

= − 1s− a

e−(s−a)t∣∣∣∞0

= − 1s− a

· 0 +1

s− a· 1

=1

s− afur s > a.

Wieder finden wir nur unter einer Einschrankung an die Variable s eine Losung.

Page 282: 3486584472_Mathem

7.2 Existenz der Laplace–Transformierten 269

7.2 Existenz der Laplace–Transformierten

Da in der Laplacetransformation eine Integration auszufuhren ist, konnen wir ei-ne ziemlich große Klasse von Funktionen zur Transformation zulassen. Das Integralglattet ja manche unstetigen Funktionen. Aus der Analysis wissen wir, daß endlichviele Unstetigkeitsstellen dem frohlichen Integrieren keinen Einhalt gebieten. Wir de-finieren also:

Definition 7.5 Eine Funktion f heißt stuckweise stetig in einem Intervall [a, b],wenn

1. [a, b] in endlich viele Teilintervalle so zerlegt werden kann, daß f in jedem Teil-intervall stetig ist, und

2. die Grenzwerte von f in jedem Teilintervall bei Annaherung an die Teilinter-vallgrenzen endlich bleiben.

Wir konnen kurzer sagen, daß eine stuckweise stetige Funktion nur eine endliche Zahlvon endlichen Unstetigkeitspunkten besitzt.Nach diesen Vorbereitungen fallt es uns nicht schwer, den folgenden Satz zu verstehen.

Satz 7.6 Sei f : [0,∞) → R eine stuckweise stetige Funktion, und es gebe ZahlenM,γ > 0 mit

|f(t)| ≤ M · eγt, t ≥ 0, (7.4)

dann existiert die Laplace–Transformierte fur s > γ:

L[f](s) =∫ ∞

0e−st · f(t) dt (7.5)

Beweis: f haben wir als stuckweise stetig uber der gesamten positiven Achse vor-ausgesetzt. Deshalb gibt es endlich viele Intervalle, in denen das Produkt e−st · f(t)integrierbar ist. Nur fur t →∞ konnte noch Kummer auftreten. Aber da hilft die vor-ausgesetzte Beschranktheit von f . Der Term e−st fallt ja fur festes s und t →∞ sehrschnell nach Null ab. Nur wenn f dieses Abfallen durch ein noch schnelleres Wachsenaufwiegen wurde, konnte Unsinn eintreten. Daher also die Bedingung (7.5) mit dere–Funktion. Denn damit rechnen wir nun die Beschranktheit des Integrals direkt nach:

|L[f](s)| =∣∣∣∣∫ ∞

0e−st · f(t) dt

∣∣∣∣ ≤∫ ∞

0e−st · |f(t)| dt

≤∫ ∞

0e−st ·M · eγt dt

≤ M

s− γfur s > γ

So bleibt also das Integral insgesamt beschrankt, und die Laplace–Transformierte exi-stiert.

Page 283: 3486584472_Mathem

270 7 Laplace–Transformation

Beispiel 7.7 Wir berechnen die Laplace–Transformierte der Sprungfunktion

f(t) =

0 fur t < a1 fur t ≥ a

, a ≥ 0.

Diese Funktion heißt auchHeaviside–Funktion.

a t0

1

f(t)

L[f](s) =∫ ∞

ae−st · 1 dt =

∫ ∞

ae−st dt =

[−1

se−st

]∞a

=1s

[−0 + e−as]

=e−as

sfur s > 0.

Hier haben wir beim Einsetzen der Grenzen ausgenutzt, daß die Funktion e−st furt →∞ gegen Null strebt. Das macht sie aber nur, wenn der Exponent ernstlich negativbleibt, s also positiv ist. Wieder finden wir eine Einschrankung, namlich s > 0.

Beispiel 7.8 Durch den Erfolg im vorigen Beispiel angeregt, berechnen wirdie Laplace–Transformierte der Funktion

f(t) = atfur t ≥ 0, a ∈ R.

Dies ist eine auf [0,∞) lineare Funktion.

t1

a

0

f(t)

Bei der Ausrechnung greifen wir zur Berechnung einer Stammfunktion von f(t) =t · e−st auf eine Formelsammlung zuruck.

L[f](s) =∫ ∞

0e−st · at dt = a

∫ ∞

0t · e−st dt = a

[−e−st

s2(st + 1)

]∞0

=a

s2.

Mit derselben Schlußweise beim Grenzubergang t → ∞ wie im Beispiel 7.7 erhaltenwir auch hier die Einschrankung s > 0.

Mehrfach haben wir feststellen mussen, daß die Laplace–Transformierte nur unterEinschrankungen an die Variable s existiert. Es gilt allgemein der folgende Satz.

Satz 7.9 Sei f : R+ → R uber jedem endlichen Intervall in R+ integrierbar. Danngibt es genau eine reelle Zahl σ0, −∞ ≤ σ0 ≤ ∞, so daß L[f] in (s) > σ0 absolutkonvergiert.

Page 284: 3486584472_Mathem

7.3 Rechenregeln 271

Die im Satz genannte besondere Stelle verdient einen eigenen Namen, den wir in derfolgenden Definition festhalten.

Definition 7.10 Die Schnittstelle σ0, ab der die Laplace–Transformierte existiert,heißt Abszisse der absoluten Konvergenz.

Auf Seite 285 stellen wir eine Ubersicht uber haufig auftretende Funktionen und ihreLaplace–Transformierten zusammen. Einige davon berechnen wir noch in den Ubungs-aufgaben am Schluß dieses Kapitels.

7.3 Rechenregeln

Wir wollen einige Satze kennenlernen, die uns das Ausrechnen der Laplace–Transfor-mation erleichtern.

Satz 7.11 (Linearitatssatz) Die Laplace–Transformation ist linear, das heißt, furbeliebige Funktionen f, g und beliebige reelle Zahlen a, b ∈ R gilt

L[a · f(t) + b · g(t)](s) = a · L[f(t)

](s) + b · L[g(t)

](s). (7.6)

Beweis: Der Beweis gestaltet sich sehr einfach, wir mussen nur die Definition anwen-den und ausnutzen, daß das Integrieren ein linearer Vorgang ist.

L[a · f(t) + b · g(t)](s) =

∫ ∞

0(a · f(t) + b · g(t)) dt

= a ·∫ ∞

0f(t) dt + b ·

∫ ∞

0g(t) dt

= a · L[f(t)](s) + b · L[g(t)

](s).

Satz 7.12 (Verhalten bei ∞) Existiert die Laplace–Transformierte F (s) der Funk-tion f(t), so gilt

lims→∞F (s) = 0. (7.7)

Der Beweis ergibt sich unmittelbar aus der Definition der Laplace–Transformierten,wenn man bedenkt, daß lims→+∞ e−st = 0 ist fur t > 0. Wie wirkt sich die Multiplikation einer Funktion mit einem Polynom aus? Dazu gibtder folgende Satz Antwort.

Satz 7.13 (Multiplikationssatz) Sei die Funktion t · f(t) stuckweise stetig, undgelte |t · f(t)| ≤ M · eγt, M,γ > 0 geeignet. Dann gilt

L[t · f(t)](s) = − d

ds

L[f(t)](s)

, (7.8)

L[tn · f(t)](s) = (−1)n

dn

dsn

L[f(t)](s)

. (7.9)

Page 285: 3486584472_Mathem

272 7 Laplace–Transformation

Die Multiplikation mit einem Basispolynom tn bewirkt also die mit wechselndem Vor-zeichen versehene Differentiation der transformierten Funktion.

Beweis: Wir fuhren den Beweis lediglich fur n = 1 vor. Fur beliebiges n ∈ N hatte mandann einen Induktionsbeweis zu fuhren, der aber keine neue Erkenntnis vermittelt.Wir vertauschen Differentiation und Integration, ziehen also die Ableitung d/ds unterdas Integral – der wahre Mathematiker mußte naturlich noch untersuchen, wann dieseOperation erlaubt ist.

d

ds

L[f(t)](s)

=d

ds

(∫ ∞

0e−stf(t) dt

)=∫ ∞

0

d

ds

(e−stf(t)

)dt

= −∫ ∞

0te−stf(t) dt = −L[t · f(t)

](s).

Das ist schon der Beweis fur n = 1.

Beispiel 7.14 Wir berechnen die Laplace–Transformierte der Funktion

f(t) = t · sin at, a ∈ R,

wobei wir die Laplace–Transformierte der Funktion g(t) = sin at in der Tabelle Seite285 nachschlagen.

Die Berechnung geht in einer Zeile.

L[t · sin at](s) = − d

dsL[ sin at

](s) = − d

ds

(a

s2 + a2

)=

2as

(s2 + a2)2

Gewissermaßen die Umkehrung ist der folgende Satz.

Satz 7.15 (Divisionssatz) Sei f(t) stuckweise stetig und gelte |f(t)| ≤ M · eγt. Esexistiere außerdem der Grenzwert

limt→0

f(t)t

.

Dann gilt

L[f(t)

t

](s) =

∫ ∞

sL[f(t)

](s) ds. (7.10)

Beweis: Wir setzen

g(t) :=f(t)

t⇐⇒ f(t) = t · g(t),

bilden auf beiden Seiten der rechten Gleichung die Laplace–Transformierte und nutzenden Multiplikationssatz aus:

L[f(t)](s) = − d

dsL[g(t)

](s), kurz F (s) = − d

dsG(s).

Page 286: 3486584472_Mathem

7.3 Rechenregeln 273

Wir multiplizieren mit −1 und integrieren beide Seiten:

−∫ s

aF (s) ds =

∫ a

sF (s) ds = G(s).

Aus dem Verhalten bei ∞ wissen wir aber, daß lims→∞G(s) = 0 gilt, also muß a = ∞gelten, woraus wir messerscharf die Behauptung ableiten:

G(s) := L[g(t)](s) = L

[f(t)

t

](s) =

∫ ∞

sF (s) ds.

Beispiel 7.16 Wir berechnen die Laplace–Transformierte von

f(t) =sin t

t.

Wiederum nutzen wir die Kenntnis der Laplace–Transformierten von g(t) = sin t aus:L[sin t](s) = 1/(s2 + 1). Außerdem kennen wir aus der Analysis den Grenzwert

limt→0

sin t

t= 1,

zu dessen Herleitung die Formel, die der Marquis de l’Hospital dem MathematikerJohann I Bernoulli vor dreihundert Jahren mit viel Geld abluchste, wertvolle Diensteleistet. Damit liefert der Divisionssatz die Antwort:

L[sin t

t

](s) =

∫ ∞

s

ds

s2 + 1= arctan

1s.

Den folgenden Satz konnte man als das Herzstuck der ganzen Anwendungen bezeich-nen; denn er bringt endlich die Hauptidee der ganzen Transformiererei ans Tageslicht.Wenn wir eine Ableitung transformieren, so entsteht das Produkt der Funktion mit derVariablen s, und wir mussen nicht mehr differenzieren. Aus einer Differentialgleichungentsteht so eine algebraische Gleichung in s.

Satz 7.17 (Differentiationssatz) Sei f : [0,∞) → R stuckweise stetig, sei f ′ stuck-weise definiert und stuckweise stetig auf endlichen Intervallen, es gelte mit geeignetenZahlen M,γ > 0

|f(t)| ≤ M · eγt.

Dann gilt

L [f ′(t)] (s) = s · L [f(t)] (s)− f(0) (7.11)

L[f (n)(t)

](s) = snL [f(t)] (s)− sn−1f(0)− sn−2f ′(0) − · · · − f (n−1)(0)(7.12)

Page 287: 3486584472_Mathem

274 7 Laplace–Transformation

Beweis: Wir fuhren den Beweis nur fur den Fall, daß f ′ eine auf dem Intervall [0,∞)insgesamt stetige Funktion ist. Falls sie nur stuckweisestetig ist, muß man das zubetrachtende Integral aus mehreren Stucken zusammensetzen. Das ist nur schreibauf-wendiger, bringt aber nichts an neuen Erkenntnissen. Dann rechnet sich das Ergebnismit Hilfe partieller Integration wirklich leicht aus:

L[f ′(t)](s) =∫ ∞

0e−stf ′(t) dt

= e−stf(t)∣∣∣∞0− (−s)

∫ ∞

0e−stf(t) dt

= −f(0) + s · L[f(t)](s).

Beispiel 7.18 Wir betrachten die Funktion und ihre Laplace–Transformierte (aus derTabelle Seite 285)

f(t) = cos 2t, L[f(t)](s) =

s

s2 + 4

und suchen die Laplace–Transformierte von f ′(t).

Wir wenden den Satz 7.17 an und erhalten mit cos 0 = 1

L[f ′(t)](s) = L[− 2 sin 2t](s) = s

s

s2 + 4− 1 =

−4s2 + 4

.

Andererseits finden wir mit der Tabelle direkt

L[− 2 sin 2t](s) = −2

2s2 + 4

,

und das ist dasselbe, wie es sich gehort.

Satz 7.19 (Integrationssatz) Sei f : [0,∞) → R stuckweisestetig, und es gelte mitgeeigneten Zahlen M,γ > 0

|f(t)| ≤ M · eγt.

Dann gilt

L[∫ t

0f(τ) dτ

](s) =

1sL[f(t)

](s) fur s > 0, s > γ. (7.13)

Beweis: Wir fuhren folgende Hilfsfunktion ein:

g(t) :=∫ t

0f(τ) dτ, alsof(t) = g ′(t).

Page 288: 3486584472_Mathem

7.3 Rechenregeln 275

Außerdem gilt g(0) = 0, da ja fur t = 0 das Integrationsintervall auf einen Punktzusammenschrumpft. Wir mussen uns noch uberzeugen, daß g Laplace–transformiertwerden darf:

|g(t)| ≤∫ t

0|f(τ)| dτ ≤ M

∫ t

0eγτ dτ =

M

γ

(eγt − 1

) ≤ M

γeγt.

Dann konnen wir also den Differentiationssatz 7.17 anwenden und erhalten

L[f(t)](s) = L[g ′(t)](s) = s · L[g(t)](s) − g(0)

= s · L[g(t)](s).

Auch hierzu ein kleines Beispiel.

Beispiel 7.20 Wie lautet die Laplace–Transformation der Funktion

g(t) =∫ t

0sin 2τ dτ?

Wegen L[ sin 2t](s) = 2/(s2 + 4) folgt

L[∫ t

0sin 2τ dτ

](s) =

2s(s2 + 4)

.

Satz 7.21 (Shift in s–Achse) Bezeichnen wir die Laplace–Transformierte von fmit F , also L[f(t)

](s) = F (s), so gilt

L[eatf(t)](s) = F (s− a) = L[f(t)

](s− a) =

∫ ∞

0e−(s−a)t · f(t) dt. (7.14)

Beweis: Mit F (s) = L[f(t)](s) =

∫ ∞

0e−stf(t) dt folgt, wenn wir von rechts nach

links rechnen:

F (s − a) =∫ ∞

0e−(s−a)tf(t) dt =

∫ ∞

0e−st

[eatf(t)

]dt = L[eatf(t)

](s),

und schon ist der Beweis erbracht.

Beispiel 7.22 Wenn wir aus der Tabelle von Seite 285 die Laplace–Transformierte

L[ cos at](s) =

s

s2 + a2

entnehmen, wie lautet dann die Laplace–Transformierte von eat cos at?

Page 289: 3486584472_Mathem

276 7 Laplace–Transformation

Der obige Shiftsatz macht diese Aufgabe sehr leicht.

L[eat cos at](s) =

s− a

(s− a)2 + a2.

Analog folgt auch

L[eat sin at](s) =

a

(s− a)2 + a2.

Satz 7.23 (Shift in t–Achse) Bezeichnen wir die Laplace–Transformierte von fmit F , also L[f(t)

](s) = F (s), so gilt

e−asF (s) = L[f(t)](s) mit f(t) :=

0, t < a

f(t− a), t ≥ a. (7.15)

Beweis: Wir rechnen einfach vorwarts und benutzen nur zwischendurch die kleineSubstitution t → τ = t + a:

e−asF (s) = e−as

∫ ∞

0e−stf(t) dt =

∫ ∞

0e−(t+a)sf(t) dt

τ=t+a=∫ ∞

ae−τsf(τ − a) dτ

= L[f](s)

Beispiel 7.24 Wir betrachten die Funktion

f(t) = (t− 3)4+ :=

(t− 3)4, t > 30, t < 3

.

Wie lautet ihre Laplace–Transformierte?

Also mit dem zweiten Shiftsatz kommt da Freude auf. Wegen L[t4](s) =4!s5

folgt

L[f](s) =24e−3s

s5.

Satz 7.25 (Periodizitatssatz) Gegeben sei eine periodische Funktion f mit der Pe-riode T > 0, also

f(t + T ) = f(t), fur alle t ∈ R.

Dann gilt

L[f(t)](s) =1

1− e−sT

∫ T

0e−stf(t) dt fur s > 0. (7.16)

Page 290: 3486584472_Mathem

7.3 Rechenregeln 277

Man kann also die Berechnung der Laplace–Transformierten einer periodischen Funk-tion f auf die Integration uber ein Periodenintervall zuruckfuhren.

Beweis: Der Beweis ist etwas tricky, man muß schon aus der Kiste ein paar Formelnherauskramen, die hier gute Dienste tun. Fangen wir mal ganz einfach an.

L[f(t)](s) =

∫ ∞

0e−stf(t) dt

=∫ T

0e−stf(t) dt +

∫ 2T

Te−stf(t) dt +

∫ 3T

2Te−stf(t) dt + · · ·

Jetzt fuhren wir durch eine Variablentransformation die hinteren Integrale auf daserste Integral zuruck. Wir setzen im zweiten Integral t = u + T , im dritten Integralt = u + 2T usw. und konnen wegen der Periodizitat f(u + T ) = f(u), f(u + 2T ) =f(u),. . . schreiben.

L[f(t)](s) =

∫ T

0e−suf(u) du +

∫ T

0e−s(u+T )f(u + T ) du +

+∫ T

0e−s(u+2T )f(u + 2T ) du + · · ·

=∫ T

0e−suf(u) du + e−sT

∫ T

0e−suf(u) du + e−2sT

∫ T

0e−suf(u) du + · · ·

= (1 + e−sT + e−2sT + · · · )∫ T

0e−suf(u) du

Jetzt offnen wir die Trickkiste, indem wir uns uberlegen, ob wir die Klammer vor demIntegral berechnen konnen. Wenn wir die folgendermaßen umschreiben

1 + e−sT + e−2sT + e−3sT + · · · = 1 + e−sT + (e−sT )2 + (e−sT )3 + · · · ,

so sieht man die geometrische Reihe schon winken. Denn der Term e−sT ist betraglichkleiner als 1, falls s · T > 0 ist. T ist als Periode stets positiv, also mussen wir nochs > 0 verlangen, wie wir es in den Voraussetzungen des Satzes getan haben. Dannsteht da also die geometrische Reihe, deren Grenzwert uns in der Analysis daherkammit

1 + q + q2 + q3 + q4 + · · · = 11− q

.

Setzen wir das oben ein, so folgt die Behauptung

Page 291: 3486584472_Mathem

278 7 Laplace–Transformation

Beispiel 7.26 Wir betrachten dierechts abgebildete Funktion

f(t) =

sin t 0 < t < π0 π < t < 2π

,

periodisch mit der Periode 2π fort-gesetzt, und berechnen ihre Laplace–-Transformierte.

Abbildung 7.1: Halbwellen

Die Berechnung der Laplace–Transformierten lauft nach bewahrtem Muster. Wir wen-den den Periodizitatssatz mit T = 2π an.

L[f(t)](s) =

11− e−2πs

∫ 2π

0e−stf(t) dt

=1

1− e−2πs

∫ π

0e−st sin t dt

=1

1− e−2πs

[e−st(−s sin t− cos t)

s2 + 1

0

=1

1− e−2πs

[1 + e−sπ

s2 + 1

]=

1(1− e−sπ)(s2 + 1)

7.4 Die inverse Laplace–Transformation

Schon mehrfach haben wir die Hauptidee der Anwendung der Laplace–Transformationzur Losung von Anfangswertaufgaben angesprochen. Man transformiere die Differen-tialgleichung, fuhre sie damit zuruck auf eine algebraische Gleichung, ja und danntransformiere man zuruck. Es stellt sich aber sofort die Frage, ob denn die Hin– undRucktransformation inverse Operationen sind. Dazu gibt der folgende Satz Auskunft.

Satz 7.27 Konvergieren L[f] und L[g] fur Realteil (s) > σ0, σ0 = max(σf , σg), sogilt

L[f] = L[g] =⇒ f = g f. u. (7.17)

Das mussen wir ein wenig kommentieren.Die Aussage gibt einen Hinweis darauf, wie sich die Rucktransformation gestaltet.Die Abkurzung f. u. bedeutet fast uberall . Es meint, daß die Aussage eventuelleinige Ausnahmepunkte zulaßt. Diese Punkte durfen aber nicht uberhandnehmen.’Fast’ bedeutet, daß die Ausnahmemenge das Maß Null haben muß. Das wollen wirhier nicht weiter vertiefen, sondern anmerken, daß es fur den Anwender ausreicht, sichunter diesen Ausnahmepunkten endlich viele vorzustellen. Ja, und der Satz sagt nun,daß aus der Gleichheit der Laplace–Transformierten zweier Funktionen die Gleichheit

f(t)

π 2π 3π

t

Page 292: 3486584472_Mathem

7.4 Die inverse Laplace–Transformation 279

der Funktionen nur bis auf endlich viele Ausnahmepunkte eintritt. Mehr ist nicht zuerwarten.Wie wir in der Einleitung schon erlautert haben, gibt es leider keinen festen Algorith-mus, wie man die Rucktransformation auszufuhren hat. Wir haben ein paar kleineTricks parat, mehr nicht. Wesentlicher Gedanke: Wir fuhren die ruckzutransformie-rende Funktion durch Zerlegen, Zerhacken, Kurzen, Strecken, Verschieben oder vieleweitere Umformungen auf Funktionen zuruck, von denen wir die Rucktransformiertekennen.

7.4.1 Partialbruchzerlegung

Ein wesentliches Hilfsmittel ist die Partialbruchzerlegung; wir nehmen an, daß derfreundliche Leser sich darin auskennt und daher ein Beispiel zur Auffrischung langt.

Beispiel 7.28 Ein typisches Ergebnis einer Laplace–Transformation sieht, angewandtauf eine Anfangswertaufgabe, folgendermaßen aus:

Y (s) =4

(s2 − 3s + 2)(s − 2)+

14− 3ss2 − 3s + 2

.

Wir suchen nun eine Funktion y(t), deren Laplace–Transformierte gerade diese Gestalthat, wir suchen also

y(t) = L−1[Y (s)

].

Dazu mussen wir den Funktionsausdruck vereinfachen. Der Gedanke liegt nahe, durcheine Partialbruchzerlegung zu einfacheren Termen zu gelangen. Als erstes mussen wirden Nenner moglichst in Linearfaktoren zerlegen. Am schnellsten geschieht das durchRaten, vielleicht mit Hilfe durch Vitali oder man bestimmt halt die Nullstellen desNennerpolynoms. Jedenfalls findet man

s2 − 3s + 2 = (s − 1)(s − 2).

Dann gehen wir mit folgendem Ansatz vor:

4(s2 − 3s + 2)(s − 2)

=A

s− 1+

B

s− 2+

C

(s− 2)2. (7.18)

Im Prinzip muß man nun mit dem Hauptnenner durchmultiplizieren, dann durchAusmultiplizieren der Klammern alles nach Potenzen von s sortieren. Ein Koeffizien-tenvergleich — schließlich handelt es sich um Polynome zweiten Grades — verschafftuns dann drei Gleichungen fur die drei Unbekannten A, B und C.Manchmal kann man aber geschickter zum Ziel gelangen. Wenn wir Gleichung (7.18)mit s− 1 durchmultiplizieren, so entsteht

4(s − 2)2

= A +B

s− 2(s− 1) +

C

(s− 2)2(s − 1),

Page 293: 3486584472_Mathem

280 7 Laplace–Transformation

woraus sich unschwer A berechnen laßt, wenn wir s = 1 setzen, zu

A = 4.

Multiplikation von (7.18) mit (s−2)2 und anschließend s = 2 eingesetzt, ergibt direkt

C = 4.

Zur Berechnung von B multiplizieren wir (7.18) mit (s− 2)2(s− 1) und differenzierenbeide Seiten anschließend nach s, bevor wir wieder s = 2 setzen:

4 = A(s− 2)2 + B(s− 1)(s − 2) + C(s− 1)= 4(s − 2)2 + B(s− 1)(s − 2) + 4(s − 1)

=⇒ 0 = 8(s − 2) + B(s− 1) + (s− 2) + 4s = 2 =⇒ B = −4

Analog wird der zweite Term behandelt, was wir uns wohl sparen konnen. Das Ergebnislautet:

Y (s) =4

s− 1+

−4s− 2

+4

(s− 2)2+−11s− 1

+8

s− 2

=−7

s− 1+

4s− 2

+4

(s− 2)2

So, nun konnen wir uns an die Rucktransformation machen. Ein Blick in die weiterhinten angefugte Tabelle bringt sofort das Ergebnis

y(t) = L−1

[ −7s− 1

+4

s− 2+

4(s− 2)2

]= −7et + 4e2t + 4te2t.

7.4.2 Faltung

Manchesmal hilft bei der Rucktransformation ein Satz, dem man diese Moglichkeitgar nicht ansieht. Wir betrachten dazu die Faltung von Funktionen.

Definition 7.29 Unter der Faltung zweier Funktionen f und g verstehen wir die neueFunktion

(f ∗ g)(t) :=∫ t

0f(t− τ) · g(τ) dτ =

∫ t

0g(t− τ) · f(τ) dτ. (7.19)

Satz 7.30 Die Faltung zweier Funktionen ist kommutativ

f ∗ g = g ∗ f, (7.20)

Beweis: Das beweisen wir ganz leicht mit der kleinen Variablensubstitution τ → u =t− τ , also τ = t− u und dτ = −du. Damit folgt∫ t

0f(t− τ) · g(τ) dτ = −

∫ 0

tf(u)g(t− u) du =

∫ t

0f(u)g(t− u) du.

Nennen wir im letzten Integral wieder u = τ , steht schon alles da.

Page 294: 3486584472_Mathem

7.4 Die inverse Laplace–Transformation 281

Satz 7.31 Die Faltung von Funktionen ist assoziativ

(f ∗ g) ∗ h = f ∗ (g ∗ h) (7.21)

und distributiv

f ∗ (g + h) = f ∗ g + f ∗ h, (f + g) ∗ h = f ∗ h + g ∗ h. (7.22)

Der Beweis dieser kleinen Formeln besteht nur im Hinschreiben, kein Trick verschontdie Sache, daher sei es geschenkt.

Auf diese etwas merkwurdig anmutende Bildung einer neuen Funktion lassen wir nununsere Laplace–Transformation los.

Satz 7.32 (Faltungssatz) Zwischen der Faltung von Funktionen und der Laplace–Transformation besteht der folgende Zusammenhang:

L [f ∗ g](s) = L [f](s) · L [g](s), (7.23)

oder wenn wir die Umkehrung betrachten mit F (s) := L[f(t)](s), G(s) := L[g(t)](s)

L−1[F (s)G(s)

](t) =

∫ t

0f(τ)g(t− τ) dτ (7.24)

Der Beweis fur diesen Satz benotigt unter anderem die Vertauschung der Integrati-onsreihenfolge bei mehrfachen Integralen. Da wir dabei auf die großen Satze der Ana-lysis zuruckverweisen mußten (Satz von Fubini), bringt der Rest der Rechnung keinengroßen Gewinn, und wir belassen es dabei, den Faltungssatz ohne Beweis mitgeteiltzu haben.

Beispiel 7.33 Berechnen Sie die inverse Laplace–Transformierte von

F (s) =1

(s− 1)(s − 2).

Wir wissen schon

L−1

[1

s− 1

]= et, L−1

[1

s− 2

]= e2t.

Der Faltungssatz liefert direkt

L−1

[1

(s− 1)(s − 2)

]=

∫ t

0eτe2(t−τ) dτ

= e2t[− e−τ

]t0

= e2t[−e−t + 1

]= e2t − et.

Page 295: 3486584472_Mathem

282 7 Laplace–Transformation

7.5 Zusammenfassung

In der folgenden Tabelle stellen wir kurz und knapp die wichtigsten Satze quasi zumNachschlagen zusammen. Dabei verzichten wir bewußt darauf, die Voraussetzungennoch einmal zu nennen. Dazu muß man weiter vorne blattern. Prinzipiell sind f eineFunktion von t und F , die Laplace–Transformierte von f , eine Funktion von s, a undb reelle Parameter.

Die wichtigsten Satze in Kurzform

f(t) F (s) := L[f(t)](s)

Linearitatssatz af(t) + bg(t) aF (s) + bG(s)

Verhalten bei ∞ f(t) lims→∞ F (s) = 0

Skalierung af(at) F( s

a

)

Integrationssatz∫ t

0

f(τ) dτF (s)

s

Divisionssatzf(t)

t

∫ ∞

s

F (s) ds

tf(t) −F ′(s)

Multiplikationssatz tnf(t) (−1)nF (n)(s)

t2f(t) F ′′(s)

f ′(t) sF (s)− f(0)

Differentiationssatz f ′′(t) s2F (s)− sf(0)− f ′(0)

f (n)(t) snF (s)− sn−1f(0)− sn−2f ′(0)

− . . .− f (n−1)(0)

Shift in s–Achse eatf(t) F (s− a)

Shift in t–Achse f(t) :=

0 fur t < af(t− a) fur t ≥ a

e−asF (s)

Faltungssatz∫ t

0

f(τ) · g(t− τ) dτ F (s) ·G(s)

Periodizitat f(t + T ) = f(t)1

1− e−sT

∫ T

0

e−suf(u) du

Page 296: 3486584472_Mathem

7.6 Anwendung auf Differentialgleichungen 283

7.6 Anwendung auf Differentialgleichungen

Mit diesem Abschnitt kommen wir zum Hauptpunkt der Laplace–Transformation. Li-neare Differentialgleichungen beliebiger Ordnung mit konstanten Koeffizienten lassensich mit dieser Transformation auf algebraische Gleichungen zuruckfuhren. Der Dif-ferentiationssatz gab uns ja bereits den wertvollen Hinweis, was aus einer Ableitungnach der Transformation entsteht, namlich ein algebraischer Term in der Variablen s.Die Funktions– und Ableitungswerte der Originalfunktion an der Stelle 0 lassen sichwunderbar aus den Anfangsbedingungen bei Anfangswertaufgaben entnehmen. Damitliegt der Ablauf zur Losung einer Anfangswertaufgabe fest.

Laplace–Transformation und Anfangswertaufgaben

Gegeben sei eine lineare Differentialgleichung n–ter Ordnung mit konstanten Koef-fizienten der Form

y(n)(x) + an−1y(n−1)(x) + · · ·+ a0y(x) = f(x) (7.25)

mit den Anfangsbedingungen

y(0) = y0, y′(0) = y1, . . . , y

(n−1)(0) = yn−1. (7.26)

Wir setzen

Y (s) := L[y](s) (7.27)

und wenden die Laplace–Transformation auf beide Seiten der Differentialgleichungan. Unter Einbeziehung der Anfangswerte entsteht eine algebraische Gleichung inY , die wir nach Y auflosen.Durch eine Rucktransformation wird daraus die Losung y der Anfangswertaufgabebestimmt.Wir schreiben den Ablauf etwas kurzer und einpragsamer im Kasten auf Seite 284 auf.Das schreit geradezu nach ein paar Ubungsbeispielen.

Beispiel 7.34 Losen Sie die folgende Anfangswertaufgabe mit Hilfe der Laplace–Transformation.

y ′′ − 3y ′ + 2y = 4e2t, y(0) = −3, y ′(0) = 5.

Also, fangen wir mal an. Auf beide Seiten der Differentialgleichung wenden wir dieLaplace–Transformation an:

L[y ′′]− 3L[y ′]+ 2L[y] = 4L[e2t].

Der Differentiationssatz liefert mit Y (s) := L[y(t)](s)

[s2Y − sy(0)− y ′(0)]− 3[sY − y(0)] + 2Y =4

s− 2.

Page 297: 3486584472_Mathem

284 7 Laplace–Transformation

Laplace–Transformation und Anfangswertaufgaben

AWA = DGL + AB⇓ Laplace–Transformation Y := L[y]

algebraische Gleichung⇓ Auflosen nach Y

Y Losung der algebr. Gleichung⇓ Rucktransformation y = L−1[Y ]

y Losung der AWA

Jetzt bauen wir die Anfangsbedingungen ein:

[s2Y + 3s− 5]− 3[sY + 3] + 2Y =4

s− 2.

Zur Auflosung nach Y sortieren wir die Terme etwas um:

[s2 − 3s + 2]Y + 3s− 14 =4

s− 2.

Jetzt liefert die Auflosung

Y (s) =4

(s2 − 3s + 2)(s − 2)+

14− 3ss2 − 3s + 2

.

Nun erinnern wir uns, gerade diesen Term (welch ein Zufall!) im Beispiel 7.28 auf Seite279 behandelt zu haben. Das war ein Gluck. Wir konnen so ganz schnell den Termvereinfachen zu

Y (s) =−7

s− 1+

4s− 2

+4

(s− 2)2

und auch die dort gewonnene Rucktransformation hier einsetzen, um die Losung zuerhalten:

y(t) = −7et + 4e2t + 4te2t.

Page 298: 3486584472_Mathem

7.7 Einige Laplace–Transformierte 285

7.7 Einige Laplace–Transformierte

Die folgende Tabelle laßt sich in zweifacher Hinsicht verwerten. Einmal findet manzu den angegebenen Funktionen ihre Laplace–Transformierte. Zum anderen kann dieTabelle aber auch bei der Rucktransformation behilflich sein, wenn man denn Gluckhat und seine Funktion auf der rechten Seite der Tabelle findet.

Tabelle von Funktionen und ihren Laplace–Transformierten

f(t) F (s) := L[f(t)](s) f(t) F (s) := L[f(t)

](s)

11s

t1s2

tnn!

sn+1ta

Γ(a + 1)sa+1

√t

√π

2s√

s

1√t

√π√s

eat 1s− a

e−t/a a

as + 1

t · e−t/a 2a3

(as + 1)3e−at

√t

√π√

s + a

tn · eat n!(s− a)n+1

tb · eat Γ(b + 1)(s − a)b+1

sin ata

s2 + a2cos at

s

s2 + a2

sin2 at2a2

s(s2 + 4a2)cos2 at

s2 + 2a2

s(s2 + 4a2)

ebt · sin ata

(s − b)2 + a2ebt cos at

s− b

(s− b)2 + a2

sinh ata

s2 − a2cosh at

s

s2 − a2

ebt · sinhata

(s − b)2 − a2ebt cosh at

s− b

(s− b)2 − a2

ebt − eat b− a

(s− a)(s − b)bebt − aeat (b− a)s

(s− a)(s − b)

Page 299: 3486584472_Mathem

286 7 Laplace–Transformation

f(t) F (s) := L[f(t)](s) f(t) F (s) := L[f(t)

](s)

sin at + at cos at2as2

(s2 + a2)2sin at− at cos at

2a3

(s2 + a2)2

t · sin at2as

(s2 + a2)2t · cos at

s2 − a2

(s2 + a2)2

t2 · sin at2a(3s2 − a2)(s2 + a2)3

t2 · cos at2(s3 − 3a2s)(s2 − a2)3

t3 · sin at24a(s3 − a2s)

(s2 + a4)4t3 · cos at

6(s4 − 6a2s2 + a4)(s2 + a2)4

t · sinhat2as

(s2 − a2)2t · cosh at

s2 + a2

(s2 − a2)2

t2 sinhat2a(3s2 + a2)(s2 − a2)3

t2 · cosh at2(s3 + 3a2s)(s2 − a2)3

t3 · sinhat24a(s3 + a2s)

(s2 − a2)4t3 · cosh at

6(s4 + 6a2s2 + a4)(s2 − a2)4

sin at · sinhat2a2s

s4 + 4a4cos at · cosh at

s3

s4 + 4a4

sin at + sinh at2as2

s4 − a4sin at− sinhat − 2a3

s4 − a4

cos at + cosh at2s3

s4 − a4cos at− cosh at − 2a2s

s4 − a4

sinhat + at cosh at2as2

(s2 − a2)2sinh at− at cosh at − 2a3

(s2 − a2)2

(1 + at)eat s

(s− a)21 + 4ateat (s + a)2

s(s− a)2

1 + 2 sin at(s + a)2

s(s2 + a2)1− cos at

a2

s(s2 + a2)

1− eat

tln

s− a

s

ebt − eat

tln

s− a

s− b

sin at

tarctan

a

s

2t

(1− cos at) lns2 + a2

s2

Page 300: 3486584472_Mathem

7.7 Einige Laplace–Transformierte 287

t

f(t)

1

2a 4a 6a

1

as2tanh

(as

2

)

1

stanh

(as

2

)

1

−1

a 2a 3at

f(t)

t

f(t)

1

Sinusbogen

a 2a 3a

πa

a2s2 + π2coth

(as

2

)

t

1

f(t)

a 2a 3a

πa

(a2s2 + π2)(1− e−as)

t

1

f(t)

a 2a 3a

1

as2− e−as

s(1− e−as)

Sinusbogen

Sagezahnfunktion

Page 301: 3486584472_Mathem

288 7 Laplace–Transformation

t

f(t)

1

f(t)

t

f(t)

1

t

1

f(t)

a

Heavisidefunktion

a

e−as

s

a 2a 3a 4a

1

2

3

Stufenfunktion

1

s(1− e−as)

Sinusbogen

f(t) =

sin(πt/a) 0 ≤ t ≤ a

0 a < t

πa(1 + e−as)

a2s2 + π2

a b

e−as − e−bs

s

1

4

1 2 3

e−s + e−2s

s(1− e−s)2

f(t) = n2, n ≤ t < n + 1, n = 0, 1, 2, . . .

Stoßfunktion

Page 302: 3486584472_Mathem

Kapitel 8

Fourierreihen

Haufig treten in der Natur Vorgange auf, die sich durch periodische Funktionen be-schreiben lassen. Denken wir an die Schwingungen von Tonen oder den elektrischenStrom. Fur solche Funktionen hatte Fourier1 eine geradezu sensationelle Idee, die vonseinen Kollegen damals stark angezweifelt wurde. Es klang ja auch ziemlich verruckt.Er meinte zeigen zu konnen, daß man jede periodische Funktion in eine unendlicheReihe mit reinen Sinus– und Kosinustermen schreiben konnte. Wenn wir heute an diemusikalische Tonerzeugung denken, so sind bereits den Kindern die Begriffe Grund-ton und Obertone bekannt. Schon in der Schule lernt man im Physikunterricht, daßdabei der Grundton eine reine Sinusschwingung ist und die Obertone die weiterenSchwingungen mit halber und Viertelperiode usw. sind. Daß jeder beliebige Ton sichdamit als unendliche Reihe von Sinusschwingungen darstellen laßt, mag man somithinnehmen, aber daß dies fur beliebige periodische Funktionen im Verein mit Kosi-nusschwingungen auch noch richtig bleibt, war und ist verwunderlich. Ist doch auchz. B. eine Funktion wie die unten abgebildete periodisch:

Abbildung 8.1: Periodische Funktion. Laßt sie sich als unendliche Reihe von Sinus–und Kosinus–Gliedern schreiben?

Die ist ja nicht einmal stetig. Nun, so ganz allgemein geht es ja auch nicht, aberdie Einschrankungen an die Funktionen sind nicht sehr gewaltig. Wir werden das inspateren Satzen genauer ausfuhren.

1Jean Baptiste Joseph Fourier 1768 – 1830

Page 303: 3486584472_Mathem

290 8 Fourierreihen

8.1 Erklarung der Fourierreihe

Definition 8.1 Eine Funktion f : R → R heißt periodisch mit der Periode 2L, wennfur alle x ∈ R gilt:

f(x + 2L) = f(x). (8.1)

Man sollte erwahnen, daß jedes ganzzahlige Vielfache von 2L auch Periode von fist. Daher werden wir kunftig unter der Periode stets die kleinste positive Periodeverstehen.Als Beispiel einer periodischen Funktion fallt wohl jedem Leser sofort die Funktionsin x ein. Diese hat die Periode 2π, und viele Verfahren und viele Aussagen bezie-hen sich auf Funktionen mit der Periode 2π. Dies kann uns aber nicht weiter nervosmachen; hat namlich f die Periode 2L, so hat

g(x) := f

(2Lx

)(8.2)

die Periode 2π. Denn es ist

g(x + 2π) = f

(2L(x + 2π)

)= f

(2Lx

2π+ 2L

)= f

(2Lx

)= g(x).

Diese Transformation ist immer ausfuhrbar. Daher konnte man sich ohne jede Ein-schrankung auf die Periode 2π zuruckziehen und alle Aussagen nur dafur herleiten.Wir wollen diesen Weg hier nicht beschreiten, sondern schon die allgemeineren For-meln angeben.Wir kommen damit zur Definition der Fourierreihe:

Definition 8.2 Eine Reihe der Form

a0

2+

∞∑n=1

(an cos

nπx

L+ bn sin

nπx

L

)(8.3)

heißt reelle Fourierreihe oder trigonometrische Reihe.Eine Reihe der Form

∞∑n=−∞

(cneinπx

L (8.4)

heißt komplexe Fourierreihe. Sie heißt konvergent, wenn sowohl∞∑

n=0cne

inπxL als auch

−∞∑n=−1

cneinπx

L konvergieren.

Wir sollten die etwas ungewohnliche Schreibweise beim Summenzeichen der komplexenReihe kurz kommentieren. Gemeint ist eine Reihe, die man auch so schreiben konnte:

. . . c−3ei(−3)πx

L + c−2ei(−2)πx

L + c−1ei(−1)πx

L + c0 + c1eiπxL + c2e

i2πxL + c3e

i3πxL + . . .

Das ist jetzt zwar verstandlicher, aber mit den Punktchen ist das einfach nicht elegantgeschrieben.

Page 304: 3486584472_Mathem

8.2 Berechnung der Fourierkoeffizienten 291

8.2 Berechnung der Fourierkoeffizienten

Lemma 8.3 (Orthogonalitatsrelation) Fur die Funktionen cosnπx

Lund sin

nπx

Lgelten die folgenden sog. Orthogonalitatsrelationen:Fur m,n = 0, 1, 2, . . . ist

∫ L

−Lcos

nπx

L· cos mπx

Ldx =

⎧⎨⎩

0 fur n = mL fur n = m > 02L fur n = m = 0

(8.5)

∫ L

−Lcos

nπx

L· sin mπx

Ldx = 0 fur bel. n,m = 0, 1, 2, . . . (8.6)

∫ L

−Lsin

nπx

L· sin mπx

Ldx =

⎧⎨⎩

0 fur n = mL fur n = m > 00 fur n = m = 0

. (8.7)

In C lauten die Orthogonalitatsrelationen fur n,m = 0,±1,±2, . . .∫ L

−Le

i(n−m)πxL dx =

0 fur n = m2L fur n = m

. (8.8)

Bew.: Mit Hilfe der bekannten Additionstheoreme

sin(α− β) = sinα cos β − cos α sinβ cos(α− β) = cos α cos β + sin α sinβsin(α + β) = sinα cos β + cos α sinβ cos(α + β) = cos α cos β − sin α sinβ

und elementarer Integration folgt das fur die reelle Darstellung unmittelbar:∫ L

−Lcos

nπx

L· cos mπx

Ldx =

12

∫ L

−L

[cos(n−m)

πx

L+ cos(n + m)

πx

L

]dx

=

⎧⎨⎩

0 fur n = mL fur n = m > 02L fur n = m = 0

.

Mit denselben Theoremen folgt auch:∫ L

−Lcos

nπx

L· sin mπx

Ldx =

12

∫ L

−L

[sin(n−m)

πx

L+ sin(n + m)

πx

L

]dx = 0,

denn schließlich ist die Sinus–Funktion ja eine ungerade Funktion, und wir integrierenvon −L bis L.Ganz analog folgt dann auch∫ L

−Lsin

nπx

L· sin mπx

Ldx =

12

∫ L

−L

[cos(n−m)

πx

L− cos(n + m)

πx

L

]dx

=

⎧⎨⎩

0 fur n = mL fur n = m > 00 fur n = m = 0

.

Page 305: 3486584472_Mathem

292 8 Fourierreihen

Die komplexe Orthogonalitatsrelation ergibt sich, indem man den Integranden in Real-und Imaginarteil zerlegt und die reelle Relation anwendet.

Diese Orthogonalitat erlaubt uns nun eine konkrete Formel zur Berechnung der Ko-effizienten anzugeben:

Satz 8.4 Falls die Reihe

a0

2+

∞∑n=1

[an cos

nπx

L+ bn sin

nπx

L

]

in [−L,L] gleichmaßig konvergiert und die Funktion T (x) definiert wird als die Grenz-funktion

T (x) :=a0

2+

∞∑n=1

[an cos

nπx

L+ bn sin

nπx

L

], (8.9)

so gilt fur n = 0, 1, 2, . . .

an =1L

∫ L

−LT (x) · cos nπx

Ldx, bn =

1L

∫ L

−LT (x) · sin nπx

Ldx. (8.10)

Falls die komplexe Fourierreihe∞∑

n=−∞cne

inπxL

in [−L,L] gleichmaßig konvergiert und die Funktion T (x) definiert wird als die Grenz-funktion

T (x) =∞∑

n=−∞cne

inπxL , (8.11)

so gilt fur n = 0,±1,±2,±3, . . .

cn =1

2L

∫ L

−LT (x) · e− inπx

L dx. (8.12)

Bew.: Nach Voraussetzung konvergiert die Reihe fur T gleichmaßig, das ist das kleineFachwort, mit dem wir uns nicht mehr um die unendlich vielen Summanden scherenmussen, sondern gliedweise integrieren konnen. Das tun wir dann auch hemmungslos,multiplizieren jetzt T (x) mit cos nπx/L und integrieren jeden Term einzeln:

∫ L

−LT (x) · cos nπx

Ldx =

a0

2

∫ L

−Lcos

nπx

Ldx +

∞∑m=1

[am

∫ L

−Lcos

mπx

Lcos

nπx

Ldx

+ bm

∫ L

−Lsin

mπx

Lcos

nπx

Ldx

]= L · an,

Page 306: 3486584472_Mathem

8.3 Reelle F–Reihe ⇐⇒ komplexe F–Reihe 293

denn der erste Summand ist Null, weil ja der Kosinus uber ein vollstandiges Perioden-intervall integriert wird. Wegen der Orthogonalitat verschwindet der dritte Summand,und der zweite bringt nur einen Beitrag fur n = m, und da ist das beteiligte Integralgleich L, woraus schon alles folgt.Analog berechnet man

∫ L

−LT (x) sin

nπx

Ldx = L · bn.

Die komplexen Koeffizienten ergeben sich aus der entsprechenden komplexen Ortho-gonalitatsrelation wiederum durch gliedweises Integrieren.

Damit liegt folgende Benennung nahe.

Definition 8.5 Die Funktion f : R → R habe die Periode 2L und sei uber [−L,L]integrierbar. Dann heißen die Zahlen

an := 1L

∫ L−L f(x) cos nπx

L dx und bn := 1L

∫ L−L f(x) sin nπx

L dx

n = 0, 1, 2, . . . n = 1, 2, 3, . . .(8.13)

die Fourier–Koeffizienten von f , die Reihe

a0

2+

∞∑n=1

(an cos

nπx

L+ bn sin

nπx

L

)(8.14)

mit diesen Koeffizienten heißt die zu f gehorige Fourier–Reihe.Analog heißen die Zahlen

cn =1

2L

∫ L

−Lf(x)e

− inπx

L dx, n = 0,±1,±2, . . . (8.15)

komplexe Fourier–Koeffizienten von f , die Reihe

∞∑n=−∞

cne

inπx

L (8.16)

heißt die zu f gehorige komplexe Fourier–Reihe.

8.3 Reelle F–Reihe ⇐⇒ komplexe F–Reihe

Nun haben wir dauernd sowohl reell als auch komplex gedacht, dabei ist es recht leicht,die Darstellungen ineinander zu uberfuhren. Das wesentliche Hilfsmittel dabei ist diesog. Euler–Relation:

eiy = cos y + i sin y, e−iy = cos y − i sin y. (8.17)

Page 307: 3486584472_Mathem

294 8 Fourierreihen

Damit erhalten wir

cosnπx

L=

12

⎡⎣e

inπx

L + e

−inπx

L

⎤⎦ ,

sinnπx

L=

12i

⎡⎣e

inπx

L − e

−inπx

L

⎤⎦ ,

und mit1i

= −i folgt

a0

2+

∞∑n=1

(an cos

nπx

L+ bn sin

nπx

L

)

=a0

2+

∞∑n=1

⎧⎨⎩

an

2

⎡⎣e

inπx

L + e

−inπx

L

⎤⎦− ibn

2

⎡⎣e

inπx

L − e

−inπx

L

⎤⎦⎫⎬⎭

=a0

2︸︷︷︸=:c0

+∞∑

n=1

⎧⎪⎪⎨⎪⎪⎩

an − ibn

2︸ ︷︷ ︸=:cn

e

inπx

L +an + ibn

2︸ ︷︷ ︸=:c−n

e

−inπx

L

⎫⎪⎪⎬⎪⎪⎭

Wir fassen das im folgenden Satz zusammen.

Satz 8.6 (Umrechnung reelle ⇒ komplexe Koeffizienten) Die Koeffizienten ei-ner reellen Fourier–Reihe lassen sich nach den Formeln

c0 =a0

2

cn =an − ibn

2n = 1, 2, 3, . . .

c−n =an + ibn

2n = 1, 2, 3, . . .

in die Koeffizienten der zugehorigen komplexen Fourier–Reihe umrechnen.

Der clevere Leser sieht naturlich sofort, daß die Koeffizienten c−n gerade die konjugiertkomplexen Zahlen der cn sind. Aus dieser Erkenntnis lassen sich unmittelbar umge-kehrt aus den komplexen Koeffizienten die reellen berechnen. Wir fassen die Formelnim folgenden Satz zusammen.

Satz 8.7 (Umrechnung komplexe =⇒ reelle Koeffizienten) Die Koeffizienteneiner komplexen Fourier–Reihe lassen sich nach den Formeln

a0 = 2c0

an = 2e(cn) n = 1, 2, 3, . . .bn = −2m(cn) n = 1, 2, 3, . . .

in die Koeffizienten der zugehorigen reellen Fourier–Reihe umrechnen.

Page 308: 3486584472_Mathem

8.4 Einige Satze uber Fourier–Reihen 295

Wie es sich gehort, werden die Koeffizienten c−n mit negativem Index bei dieser Um-rechnung nicht benotigt, es sind ja auch nur die konjugiert komplexen der cn.

8.4 Einige Satze uber Fourier–Reihen

Wir stellen hier nur einige Tatsachen uber Fourier–Reihen zusammen, ohne sie zubeweisen. Die Beweise sind teilweise ganz schon heftig; es ist außerdem moglich, dieVoraussetzungen weiter abzuschwachen, aber fur all dies mussen wir auf die Spezial-literatur verweisen.

Satz 8.8 (Darstellungssatz von Dini) Ist die Funktion f stuckweise stetig und istihre Ableitung ebenfalls stuckweise stetig und existieren links- und rechtsseitige Funk-tionsgrenzwerte von f und f ′ an den Unstetigkeitsstellen, so ist die Fourier–ReiheT (x) von f konvergent.An jeder Stetigkeitsstelle x0 gilt

T (x0) = f(x0), (8.18)

an jeder Sprungstelle xi gilt

T (xi) =12

limh→0+

[f(xi + h) + f(xi − h)]. (8.19)

Die Fourierreihe einer stetigen Funktion strebt also uberall gegen diese Funktion.Fur eine unstetige Funktion sagt uns die Formel (8.19), daß dort von der Reihe derMittelwert aus links- und rechtsseitigem Funktionswert angenommen. Wir zeigen aufSeite 299 am Beispiel einer stuckweise konstanten Funktion das Verhalten der erstenPartialsummen der Reihe. Dort sieht man auch sehr schon, daß an der Sprungstellevon allen Partialsummen der Mittelwert angenommen wird.

Satz 8.9 (Riemann–Lemma) Ist die Funktion f stuckweise stetig und ist ihre Ab-leitung ebenfalls stuckweise stetig, so gilt fur ihre Fourierkoeffizienten

limn→∞ an = 0, lim

n→∞ bn = 0 (8.20)

Satz 8.10 (Parseval–Gleichung) Ist die Funktion f stuckweise stetig und ist ihreAbleitung ebenfalls stuckweise stetig, so gilt fur ihre Fourierkoeffizienten die Parse-valsche Gleichung:

a20

2+

∞∑n=1

(a2

n + b2n

)=

1L

∫ L

−L(f(x))2 dx (8.21)

Page 309: 3486584472_Mathem

296 8 Fourierreihen

−L a b L

A

B

Abbildung 8.2: Fur diese Funktion wollen wir die komplexe Fourierreihe mit derherkommlichen Methode berechnen und das Ergebnis mit dem Sprungstellenverfahrenvergleichen.

8.5 Sprungstellenverfahren

Fur periodische Funktionen, die stuckweise linear sind, und nur fur diese lassen sichdie komplexen Fourierkoeffizienten durch das sog. Sprungstellenverfahren, wie es imBuch von Haase und Garbe vorgestellt wird, berechnen. Wir wollen gleich an einemeinfachen Beispiel die Formeln uberprufen, doch zunachst die Aussage.

Satz 8.11 Sei f eine stuckweise lineare 2L–periodische Funktion. Dann lassen sichihre komplexen Fourierkoeffizienten wie folgt berechnen:

c0 =1

2L

∫ L

−Lf(x) dx (8.22)

ck =1

2kπi

⎡⎣ r∑

i=1

sie− ikπ

Lxi

+L

kπi

r′∑i=1

s′ie− ikπ

Lx′i⎤⎦ ; (8.23)

dabei haben wir folgende Bezeichnungen benutzt:

Funktion f Ableitung f ′

r # Sprunge r′ # Sprungexi Sprungstellen x′i Sprungstellensi = f(xi+)− f(xi−) Sprunghohe s′i = f ′(xi+)− f ′(xi−) Sprunghohe

Wir wollen die komplexen Fourier–Koeffizienten der unten skizzierten Funktion

f(x) :=

B−Ab−a (x− a) + A fur −L < a < x < b < L

0 sonst,

die also zwei Sprungstellen hat, berechnen und das Ergebnis mit der Aussage desSprungstellenverfahrens vergleichen.Wir mussen jetzt einfach etwas langer rechnen, um die Formel zu rechtfertigen. Istjemand nur an der Anwendung interessiert, so mag er die folgenden Zeilen getrost

Page 310: 3486584472_Mathem

8.5 Sprungstellenverfahren 297

uberspringen. Zunachst sieht man, daß c0 in beiden Fallen gleich berechnet wird. Seidaher n > 0.

cn =1

2L

∫ L

−Lf(x) · e

−inπx

L dx =1

2L

∫ b

a

[B −A

b− a(x− a) + A

]· e−inπx

L dx

=1

2LB −A

b− a

∫ b

ae

−inπx

L dx +12L

∫ b

ae

−inπx

L dx

Wenn wie zur Abkurzung c := −inπ/L setzen, sind hier im wesentlichen zwei Integralezu knacken, was aber wirklich ein Kinderspiel ist:∫ b

ax · ecx dx− a

∫ b

aecx dx =

1c

[bebc − aebc − ebc

c+

eac

c,

]

∫ b

aecx dx =

1cecb − 1

ceca.

Damit geht es nun munter weiter mit der Integriererei:

cn =1

2LB −A

b− a

−L

inπ

[be

−inπL

b − ae−inπ

Lb − e

−inπL

b

−inπ/L+

e−inπ

La

−inπ/L

]+

+1

2LA

1−inπ/L

einπL

b − 12L

A1

−inπ/Le

−inπL

a

= −(B −A)1

2inπe

inπL

b +B −A

b− a

12inπ

e−inπ

Lb

−inπ/L− B −A

b− a

112inπ

e−inπ

La

−inπ/L+

+1

−2inπAe

−inπL

b − 1−2inπ

Ae−inπ

La

=1

2inπ

[(−B + A)e

−inπL

b − B −A

b− a

L

inπe

−inπL

b +B −A

b− a

L

inπe

−inπL

a

−Ae−inπ

Lb + Ae

−inπL

a

]

=1

2inπ

[Ae

−inπL

a −Be−inπ

Lb +

1inπ/L

B −A

b− ae

−inπL

a − 1inπ/L

B −A

b− ae

−inπL

b

]

Diese Gleichung haben wir bewußt in die Form des Sprungstellenverfahrens gebracht.Wir mussen nur noch prufen, ob das mit den Sprungen so hinkommt. Dazu schauenwir auf die Skizze oben zuruck. Die beiden Stellen, wo Sprunge auftreten, sind beit1 = a und t2 = b. Bei a macht die Funktion offensichtlich den Sprung der HoheA, wieso aber bei b einen Sprung der Hohe −B? Die Definition ’Sprung’ fur diesesVerfahren muß genau beachtet werden. Es ist die Differenz der Funktionswerte, wennman von rechts und von links sich der Stelle nahert, genau in dieser Reihenfolge. Bei bist der Grenzwert von rechts her 0, von links her B, die Differenz ist also 0−B = −B.Unter diesem Gesichtspunkt bleibt der Sprung bei a naturlich von der Hohe A.Vielleicht macht folgendes Beispiel das Verfahren noch klarer.

Page 311: 3486584472_Mathem

298 8 Fourierreihen

Beispiel 8.12

Sei f die rechts skizzierte periodischeFunktion mit der Periode 2L = 5.Sprunge von f :

x1 = 2 x2 = 3s1 = f(2+)− f(2−) s2 = f(3+)− f(3−)

= 3− 0 = 3 = 0− 4.5 = −4.5

Sprunge von f ′:

x′1 = 2 x′2 = 3s′1 = f ′(2+)− f ′(2−) s′2 = f ′(3+)− f ′(3−)

= 1.5− 0 = 3/2 = 0− 1.5 = −3/2

1 2 3 7 8

1

3

4.5

1.5

1 2 3 7 8

Funktion fPeriode 5

Ableitung f ′5

Den Fourierkoeffizienten c0 mussen wir so oder so direkt ausrechnen. Dazu berechnenwir einfach die Flache des von f gebildeten Trapezes.

c0 =15

∫ 5

0f(x) dx =

15

∫ 3

2f(x) dx = 3.75

Die weiteren Fourierkoeffizienten entnehmen wir jetzt der Formel (8.23) im Sprung-stellenverfahren. Es ist

cn =1

2nπi

⎡⎢⎣3e

−inπ

54

+ (−4.5)e−inπ

56

+1

nπi

52

32e

−inπ

5/23− 1

nπi

52

32e

−inπ

5/23⎤⎥⎦

Mit diesen laßt sich nun die gesamte Reihe hinschreiben, aber die wird zu lang, darumlassen wir es so bewenden.

8.6 Zum Gibbsschen Phanomen

Der oben angefuhrte Satz von Dini gibt uns eine leichte Antwort, wie sich denn dieFourierreihe verhalt, wenn man mehr und mehr Terme hinzunimmt. Nun, sie nahertsich all den Punkten, wo die vorgegebene Funktion f stetig ist. Und an den Sprung-stellen, von denen es ja nach Voraussetzung (stuckweise stetig) nur endlich viele ineinem Periodenintervall geben kann, nimmt die Fourierreihe den Mittelwert aus links-und rechtsseitigem Funktionswert an. Als Erganzung zu diesem Satz hat sich der ame-rikanische Physiker J. W. Gibbs2 das Verhalten von Fourierreihen in der Umgebungvon Sprungstellen angesehen und eine bemerkenswerte Entdeckung gemacht.Lassen Sie uns an einem ausfuhrlichen Beispiel seine Entdeckung nachvollziehen.

2Josiah William Gibbs, 1839 – 1903

Page 312: 3486584472_Mathem

8.6 Zum Gibbsschen Phanomen 299

f(x)

x5 10−5−10

3

Periode

Abbildung 8.3: Der Graph der in Beispiel 8.13 gegebenen Funktion

Beispiel 8.13 Wir betrachten folgende 10–periodische Funktion f :

f(x) =

3 fur 0 < x < 50 fur 5 < x < 10

f(x + 10) = f(x),

und berechnen ihre Fourierreihe.

Zunachst stellen wir die gegebene Funktion bildlich dar.Die Funktion ist zwar periodisch, aber nicht mehr stetig, sie macht bei 0, 5 und allenpositiven und negativen Vielfachen von 5 einen Sprung der Hohe 3 bzw. −3. Nachdem Satz von Dini (vgl. S.295) konvergiert die zugehorige Fourierreihe außer bei denVielfachen von 5 sonst uberall gegen die Funktion. In den Sprungstellen konvergiertsie stets gegen den Wert 3/2. Was aber geschieht in der Umgebung einer Sprungstelle.Die Konvergenz kann und wird nicht gleichmaßig verlaufen. Dies war der Ansatzpunktfur Herrn Gibbs, er untersuchte die Art der Konvergenz einer Fourierreihe in derUmgebung einer Sprungstelle und entdeckte etwas sehr Merkwurdiges.Die Fourier–Koeffizienten fur diese stuckweise konstante und periodische Funktion mitder Periode L = 10 lassen sich recht leicht berechnen.Um nicht zu den Nulldividierern zu gehoren, rechnen wir a0 getrennt aus:

a0 =15

∫ 5

−5f(x) dx =

35

∫ 5

0dx = 3.

Fur n > 0 rechnen wir sodann:

an =15

∫ 5

−5f(x) · cos nπx

L=

35

∫ 5

0cos

nπx

5dx =

35

(5

nπsin

nπx

5

) ∣∣∣50

= 0

Das war zu erwarten. Zwar ist die Funktion selbst nicht ungerade, aber wenn mansie um 3/2 nach unten verschiebt, wird sie ungerade. Dieser subtraktive Term wirdaber durch den Koeffizienten a0 – er geht ja mit dem Faktor 1/2 in die Fourierreiheein – aufgefangen. Also mussen alle Kosinus–Terme bis auf den konstanten Anteil

Page 313: 3486584472_Mathem

300 8 Fourierreihen

verschwinden.

bn =15

∫ 5

−5f(x) · sin nπx

L=

35

∫ 5

0sin

nπx

5dx =

35

(− 5

nπcos

nπx

5

) ∣∣∣50

=3(1 − cos nπ)

So konnen wir nun die gesamte Fourierreihe fur obige Funktion angeben:

f(x) ∼ 32

+∞∑

n=1

3(1− cos nπ)nπ

sinnπx

5

=32

+6π

(sin

πx

5+

13

sin3πx

5+

15

sin5πx

5+ · · ·

)(8.24)

Jetzt muß unser kleiner Knecht, Mister Computer wieder mal ran. Mit ihm ist es einLeichtes, die ersten Partialsummen zu plotten. Wir zeigen das in der Abbildung 8.4,S. 301.Zunachst fallt auf, wie schlecht die Approximation insgesamt ausfallt. Selbst die 11.Partialsumme schafft noch keine befriedigende Annaherung an die Abbruchkante derFunktion bei x = 5. Andererseits aber sieht man sehr schon, daß die Partialsummen zuden Abbruchkanten hin etwas hoher hinauf bzw. unten etwas tiefer herunter schwingen.Das beginnt schon bei n = 5, und man erkennt, daß bei n = 11 die Hohe diesesUberschwingens die gleiche Große hat wie bei n = 5.Dies war die allgemeine Erkenntnis von Herrn Gibbs: Die Fourierreihe nahert sichnicht gleichmaßig der vorgegebenen Funktion, auch wenn man an den Sprungstelleneine geradlinige Verbindung hinzufugt. Sondern es treten an den Enden sogenannte

”Uberschwinger“ auf. Man muß an der Sprungstelle den Graphen der Funktion nachoben und unten um ein kleines Stuck verlangern. Diesem veranderten Graphen nahertsich die Fourierreihe. Eine genauere Analyse sagt auch etwas uber die Große dieserbeiden Teilstucke, dieser Uberschwinger. Bezeichnen wir die Sprunghohe mit h, so gilt:

Die Hohe des Uberschwingens betragt

2 · h · 0.281π

= 0.18 · h.

Das sind also ungefahr 18 % der Sprunghohe.

Dies war es, was Herr Gibbs entdeckte und was wir heute Gibbssches Phanomennennen.

8.7 Schnelle Fourieranalyse (FFT)

Hier herrscht eine gewisse Begriffsverwirrung. Daher wollen wir die Aufgabe der FFTzunachst sauber definieren:

Generalvoraussetzung: f sei 2π–periodisch

Page 314: 3486584472_Mathem

8.7 Schnelle Fourieranalyse (FFT) 301

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 1

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 3

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 5

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 7

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 9

-1

0

1

2

3

4

-2 0 2 4 6 8 10 12 14 16

n = 11

Abbildung 8.4: Die Partialsummen fur n = 1 bis n = 11 der Fourierreihe (8.24) furdie Funktion im Beispiel 8.13

Page 315: 3486584472_Mathem

302 8 Fourierreihen

Definition 8.14 Unter der FFT verstehen wir die Aufgabe, fur eine 2π–periodischeFunktion f eine angenaherte diskrete komplexe Fourierentwicklung der Form

f(x) ∼N−1∑n=0

cn · einx (8.25)

zu bestimmen.

Gesucht wird also eine endliche Reihe mit N Gliedern. Wegen der oben gezeigtenOrthogonalitatsrelation ergeben sich die Koeffizienten cn wie fruher zu

cn =12π

∫ π

−πf(x) · e−inx dx

Der entscheidende Trick fur den ganzen FFT–Algorithmus liegt nun in der angenaher-ten Berechnung dieser Integrale mittels der Trapezregel. Dazu unterteilt man das Pe-riodenintervall [0, 2π] in N gleichlange Teilintervalle der Lange xk+1 − xk = h = 2π

N ,wahlt also als Stutzstellen der Trapezregel

xk =2πk

N, k = 0, 1, . . . , N − 1

und erhalt damit die (angenaherten) komplexen Fourierkoeffizienten

cn =1

2N

(f(x0) + 2 ·

N−1∑k=1

f(kk)e−nk2πi

N + f(xN )

)(8.26)

Wir fuhren nun die neuen Koeffizienten

a0 =f(x0) + f(xN)

2N, ak =

f(xk)N

, k = 1, 2, . . . , N − 1

ein. Wegen der Periodizitat ist naturlich f(x0) = f(xN ), also ist a0 = f(x0)N . Damit

lauten jetzt die angenaherten diskreten Fourierkoeffizienten:

cn =N−1∑k=0

akωnk mit xk =

2πk

N, ak =

f(xk)N

, ω = e−2πi

N , k = 0, 1, . . . , N − 1

(8.27)

Nun kommt der Hauptpunkt, weswegen J. W. Cooley und J. W. Tukey 1965 die ganzeIdee geboren haben. Sie wahlten

N = 2p, p ∈ N. (8.28)

Daraus ergeben sich wunderbare Vereinfachungen. Wir machen das am Beispiel N =23 = 8 explizit vor. Zur Berechnung der cn in (8.27) sind eigentlich 64 Multiplikationenerforderlich. Aber bekanntlich ist

e2πi − 1 = 0.

Page 316: 3486584472_Mathem

8.7 Schnelle Fourieranalyse (FFT) 303

Diese Gleichung wird manchmal als die schonste Gleichung der Mathematik bezeich-net, enthalt sie doch alle grundlegenden mathematischen Konstanten. Damit ist z. B.auch

e−2πi = 1 also ist ωN = 1, ωN+1 = ω, ωN+2 = ω2, . . . , ωN+N = ωN = 1, . . .

Wir schreiben fur N = 8 explizit c4 auf:

c4 = a0 + a1ω4 + a2ω

8 + a3ω12 + a4ω

16 + a5ω20 + a6ω

24 + a7ω28

Nun ist ω16 = 1 und daher ω20 = ω4 und ω24 = ω8 und ω28 = ω12. Also konnen wirhier a0 mit a4, a1 mit a5, a2 mit a6 und a3 mit a7 zusammenfassen und erhalten

c4 = a0 + a4 + (a1 + a5)ω4 + (a2 + a6)ω8 + (a3 + a7)ω12

Das Spiel geht ganz allgemein. Wir betrachten cn mit geradem Index n = 2m undbeachten ω4n = ω8m = ω0 = 1. Dann konnen wir den nullten mit dem vierten, denersten mit dem funften, den zweiten mit dem sechsten usw. zusammenfassen. Danngeht (8.27) uber in

n = 2m ⇒ c2m =3∑

k=0

ω2km(ak + a4+k) =3∑

k=0

(ω2)km · yk,

wobei wir zur Abkurzung

yk := ak + a4+k, k = 0, 1, 2, 3

gesetzt haben. Die c2m,m = 0, 1, 2, 3 ergeben sich also durch diskrete Fourierentwick-lung der halben Dimension.Analog bekommen wir die c2m+1 fur ungerade Indizes.

c2m+1 =3∑

k=0

ω2kmωk(ak − a4+k) =3∑

k=0

(ω2)km · y4+k

mit der analogen Abkurzung

y4+k = ωk(ak − a4+k), k = 0, 1, 2, 3.

Damit ist unser Ausgangsproblem auf diese zwei neuen Berechnungen der halbenDimension reduziert. Jede dieser Gleichungen wird nun erneut nach demselben Schemazu einer weiteren Transformation wiederum der halbe Dimension zusammengefasst.

Page 317: 3486584472_Mathem

304 8 Fourierreihen

Das ergibt die Formeln:

c4l =1∑

k=0

(ω2)2lk(yk + y2+k) =∑

k = 01(ω4)lk · zk, l = 0, 1

c4l+2 =1∑

k=0

(ω2)2lk(ω2)k(yk − y2+k) =∑

k = 01(ω4)lk · zk+2, l = 0, 1

c4l+1 =1∑

k=0

(ω2)2lk(y4+k + y6+k) =∑

k = 01(ω4)lk · zk+4, l = 0, 1

c4l+3 =1∑

k=0

(ω2)2lk(ω2)k(y4+k − y6+k) =∑

k = 01(ω4)lk · zk+6, l = 0, 1,

wobei gesetzt wurde

zk = yk + y2+k, zk+2 = (ω2)k(yk − y2+k), zk+4 = yk+4 + yk+6,

zk+6 = (ω2)k(yk+4 − yk+6).

Aus diesen Formeln ergibt sich jetzt der endgultige Zusammenhang zwischen ck undak:

c0 = z0 + z1, c4 = z0 − z1, c2 = z2 + z3, c6 = z2 − z3,

c1 = z4 + z5, c5 = z4 − z5, c3 = z6 + z7, c7 = z6 − z7.

Als Ergebnis sehen wir, daß wir in (8.27) 64 Multiplikationen hatten ausfuhren mussen,nun sind wir bei 5, in Worten funf Multiplikationen angelangt. Dabei ist auch nocheine mit ω2 = −i, was ja nur eine Vertauschung von Real- und Imaginarteil mit einemVorzeichenwechsel bedeutet. Da liegt der große Gewinn der FFT.Zum leichteren Verstandnis der folgenden Skizzen haben wir in Abbildung 8.5 zunachstmal den Fall N = 4 dargestellt, wobei links die Formeln stehen und rechts die Skizzeverdeutlichen soll, wie man die Formeln graphisch sehen kann, um sie so leichter zubehalten.Fur N = 8 haben wir das Ergebnis in der Abbildung 8.6, S. 306 zusammengefaßt. DiePfeile bedeuten dabei, daß man die entsprechenden Werte addieren muß, ein weistauf einen Vorzeichenwechsel hin.Der interessierte Leser fragt vielleicht, die interessierte Leserin ganz sicher nach derVerallgemeinerung fur großere N . Wir wollen daher in Abbildung 8.7, S. 306 dasSchema fur N = 16 mit Formeln und nicht als Grafik wie oben angeben. Zur eigenenProgrammierung ist das sicher genauso gut geeignet. Die Verallgemeinerung durftedann auf der Hand liegen.Abschließend darf eine kleine, aber lustige Bemerkung nicht fehlen. Wenn man sich dieletzte Spalte der neuen Fourierkoeffizienten jeweils anschaut, so stellt man fest, daßdie cn nicht mehr in ihrer naturlichen Reihenfolge stehen. Sie haben sich eigentumlichvertauscht. Die zugehorige Merkregel sollte schon ein kleines Schmunzeln auf das Ge-sicht des Lesers zaubern. Man schreibe die Nummer des Koeffizienten ai in der ersten

Page 318: 3486584472_Mathem

8.7 Schnelle Fourieranalyse (FFT) 305

a0 z0 = a0 + a2 c0 = z0 + z1

a1 z1 = a1 + a3 c2 = z0 − z1

a2 z2 = a0 − a2 c1 = z2 + z3

a3 z3 = (a1 − a3)ω c3 = z2 − z3

a0

a1

a2

a3

z0

z1

z2

z3·ω

c0

c2

c1

c3

Abbildung 8.5: Die FFT fur N = 4. Die Formeln links erklaren, wie wir aus dengegebenen Koeffizienten ai die komplexen Koeffizienten der diskreten Fourier–Reiheberechnen konnen.

Koeffizient ai Dualzahl Dualzahl ruckwarts Koeffizient ci

a0 OOO −→ OOO c0

a1 OOI −→ IOO c4

a2 OIO −→ OIO c2

a3 OII −→ IIO c6

a4 IOO −→ OOI c1

a5 IOI −→ IOI c5

a6 IIO −→ OII c3

a7 III −→ III c7

Tabelle 8.1: Bitreversal mapping fur N = 8

Spalte als Dualzahl. Diese drehe man anschließend um, lese sie also von hinten nachvorn, und schon erhalt man die Nummer des zugehorigen cj . Wer kommt bloß aufsolch eine Idee? Wir geben ein Beispiel.Fur N = 8 lautet 3 in Dualdarstellung OII, wobei wir mit O die Null und mit I dieEins bezeichnen. Von hinten nach vorn ist das IIO, also 6, daher steht in der Reihemit a3 der Fourierkoeffizient c6. Hubsch, nicht?Fur unsere Standardaufgabe der FFT mit N = 8 schreiben wir diese Zuordnung inder Tabelle 8.1, S. 305 vollstandig auf:Im englischen heißt dieses Vorgehen ”Bitreversal mapping“.

Page 319: 3486584472_Mathem

306 8 Fourierreihen

a7

a6

a5

a4

a3

a2

a1

a0 y0

y1

y2

y3

y4

y5

y6

y7

z0

z1

z2

z3

z4

z5

z6

z7

c0

c4

c2

c6

c1

c5

c3

c7·w3

·w2

·w

·w2

·w2

!

!

!

!

Abbildung 8.6: Schema zur schnellen Fourier–Analyse (FFT) fur N = 8

a0 x0 = a0 + a8 y0 = x0 + x4 z0 = y0 + y2 c0 = z0 + z1

a1 x1 = a1 + a9 y1 = x1 + x5 z1 = y1 + y3 c8 = z0 − z1

a2 x2 = a2 + a10 y2 = x2 + x6 z2 = y0 − y2 c4 = z2 + z3

a3 x3 = a3 + a11 y3 = x3 + x7 z3 = (y1 − y3)ω4 c12 = z2 − z3

a4 x4 = a4 + a12 y4 = x0 − x4 z4 = y4 + y6 c2 = z4 + z5

a5 x5 = a5 + a13 y5 = (x1 − x5)ω2 z5 = y5 + y7 c10 = z4 − z5

a6 x6 = a6 + a14 y6 = (x2 − x6)ω4 z6 = (y4 − y6) c6 = z6 + z7

a7 x7 = a7 + a15 y7 = (x3 − x7)ω6 z7 = (y5 − y7)ω4 c14 = z6 − z7

a8 x8 = a0 − a8 y8 = x8 + x12 z8 = y8 + y10 c1 = z8 + z9

a9 x9 = (a1 − a9)ω y9 = x9 + x13 z9 = y9 + y14 c9 = z8 − z9

a10 x10 = (a2 − a10)ω2 y10 = x10 + x14 z10 = y8 − y10 c5 = z10 + z11

a11 x11 = (a3 − a11)ω3 y11 = x11 + x15 z11 = (y9 − y11)ω4 c13 = z10 − z11

a12 x12 = (a4 − a12)ω4 y12 = x8 − x12 z12 = y12 + y14 c3 = z12 + z13

a13 x13 = (a5 − a13)ω5 y13 = (x9 − x13)ω2 z13 = y13 + y15 c11 = z12 − z13

a14 x14 = (a6 − a14)ω6 y14 = (x10 − x14)ω4 z14 = y12 − y14 c7 = z14 + z15

a15 x15 = (a7 − a15)ω7 y15 = (x11 − x15)ω6 z15 = (y13 − y15)ω4 c15 = z14 − z15

Abbildung 8.7: Tabelle zur schnellen Fourieranalyse (FFT) fur N = 16

Page 320: 3486584472_Mathem

Kapitel 9

Distributionen

9.1 Einleitung und Motivation

Fragt man einen Physiker oder Ingenieur: ”Was ist eigentlich die Delta–Funktion?“, soentdeckt man nicht selten ein gewisses Glanzen in den Augen, wenn er von dem großenPhysiker Paul Dirac berichtet, der diese ’Funktion’ eingefuhrt hat, um Phanomene inder Elektrodynamik beschreiben zu konnen. Als ’Definition’ wird meistens folgendesangeboten:Die Dirac1–Funktion oder der Dirac–Impuls, der Delta–Stoß oder die δ–Funktion(alles Synonyme) ist eine Funktion, nennen wir sie δ, mit folgenden Eigenschaften:

δ(x) = 0 ∀x = 0, δ(0) = ∞,

∫ ∞

−∞δ(x) dx = 1

Hier bekommt aber dann der Mathematiker Sorgenfalten auf die Stirn. Was ist das?

δ(0) = ∞???

Lernt doch bereits der Anfanger, daß dieses Symbol ∞ keine reelle Zahl ist. Ließe mansie zu, so gabe es herrlich dumme Fragen. Was ist ∞+ 1? Was ist die Halfte von ∞?Samtliche Rechenregeln wurden ad Absurdum gefuhrt. Nein, so geht das nicht.Ziel dieses Kapitels ist es, die intuitiv von Dirac eingefuhrte Funktion, mit deren Hilfehervorragende Ergebnisse erzielt wurden, auf eine gesicherte mathematische Grundla-ge zu stellen und dann zu erkennen, daß obige Vorstellung gar nicht so ganz verkehrtist. Man muß die Aussage δ(0) = ∞ nur richtig interpretieren. Als Vorteil der exaktenDarstellung ergibt sich, daß man die eigentumlichen Rechenregeln mit dieser Funktiontatsachlich mathematisch korrekt begrunden kann. Und das durfte dann alle Seitenfreuen.Betrachten wir zur Motivation im Intervall [a, b] die Funktion g(x) = sin x, und be-trachten wir fur eine beliebige stetige Funktion ϕ ∈ C[a, b] die Zuordnung

Tsin(ϕ) :=∫ b

asin(x) · ϕ(x) dx. (9.1)

1P. A. M. Dirac (1902 – 1984)

Page 321: 3486584472_Mathem

308 9 Distributionen

Diese Zuordnung liefert offensichtlich fur jede Funktion ϕ eine reelle Zahl als Ergebnis.Es handelt sich also um eine Abbildung der auf dem Intervall [a, b] stetigen Funktionennach R. So etwas nennt man ein Funktional.

Definition 9.1 Eine auf C[a, b] definierte Abbildung T heißt lineares stetiges Funk-tional oder auch stetige Linearform, wenn gilt:

(i) T ist linear: T (αϕ1 + βϕ2) = αT (ϕ1) + βT (ϕ2),

(ii) T bildet nach R ab: T (ϕ) ∈ R,

(iii) T ist stetig, also ϕn → ϕ ⇒ T (ϕn) → T (ϕ).

Dabei ist die Konvergenz ϕn → ϕ bezuglich der max–Norm zu verstehen, also furn →∞ sei

ϕn → ϕ : ⇐⇒ ‖ϕn − ϕ‖∞ := maxx∈[a,b]

|ϕn(x)− ϕ(x)| → 0,

wohingegen sich die Konvergenz T (ϕn) → T (ϕ) naturlich lediglich in R abspielt.

9.2 Testfunktionen

Zuerst werden wir eine ziemlich hart eingeschrankte Klasse von Funktionen betrach-ten. Trotzdem haben wir genugend Spielraum fur anstandige Rechenregeln.

Definition 9.2 Eine Funktion ϕ ∈ C∞(R) nennen wir Testfunktion, wenn sie au-ßerhalb einer beschrankten und abgeschlossenen, also kompakten Teilmenge von R

verschwindet. Die Menge aller Testfunktionen wollen wir mit D bezeichnen.

Der aufmerksame Leser wird sofort fragen, ob es denn solch eine Funktion uberhauptgibt. Sie muß naturlich beliebig oft differenzierbar sein, wie wir in der Definitionverlangt haben. Das macht die Sache etwas schwieriger.

Beispiel 9.3 Beispiel einer Testfunkion, die auf ganz R definiert ist, an der Stelle 0den Wert 1 annimmt, fur ein beliebiges a ∈ R außerhalb des Intervalls [−a, a] identischverschwindet, aber insgesamt, also auch bei a und −a beliebig oft differenzierbar ist.

Wir starten mit der Funktion

g(t) :=

0 falls t ≤ 0e−1/t falls t > 0

.

Diese Funktion ist auf ganz R definiert und uberall beliebig oft differenzierbar; dennjede Ableitung enthalt den Term e−1/t, der fur t → 0 verschwindet, wodurch dieStetigkeit samtlicher Ableitungen gesichert ist.

Page 322: 3486584472_Mathem

9.2 Testfunktionen 309

Aus g(t) basteln wir uns eine Funktion, die außerhalb des Intervalls [−1, 1] verschwin-det:

h(x) := g(1 − x2) =

0 falls |x| ≥ 1

e− 1

1−x2 falls |x| < 1.

Die Kettenregel gibt uns die Gewißheit, daß h(x) beliebig oft differenzierbar ist, auchin den Punkten −1 und 1. Fur

|x| ≥ 1, also x ∈ (−1, 1)

verschwindet diese Funktion. Das ist doch schon die halbe Miete. Wir mussen sie nunnoch so verandern, daß sie fur ein beliebig vorgebbares a ∈ R außerhalb des Intervalls[−a, a] verschwindet und bei 0 den Wert 1 hat.Ersteres erreichen wir durch Zusammenziehen, also bilden wir

ha(x) := h(x

a

)=

0 falls |x| ≥ a

e− 1

1−( xa )2 falls |x| < a

.

Wegen ha(0) = h(0) = g(1) = 1/e multiplizieren wir flugs diese Funktion mit e underhalten auch noch bei 0 den erwunschten Wert. Unser Endergebnis der gesuchtenFunktion lautet also:

ka(x) := e · ha(x) = e · h(x

a

)=

0 falls |x| ≥ a

e · e−1

1−( xa )2 = e

− x2

a2−x2 falls |x| < a.(9.2)

Sie hat die gewunschten Eigenschaften: sie ist beliebig oft differenzierbar, verschwindetaußerhalb des Intervalles [−a, a] und hat bei 0 den Wert 1.Rechts haben wir dieseTestfunktionen fur a =1, a = 1/2, a = 1/4und a = 1/8 gezeichnet.Man sieht so deutlich,wie sich der Bereich,wo die Funktion un-gleich Null ist, zusam-menzieht. Auch wennes nicht so aussieht, istjede dieser Funktionenbeliebig oft differenzier-bar. Sie laufen sehr glattin die x–Achse hinein.

0

0.2

0.4

0.6

0.8

1

1.2

-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

k1(x)k1/2(x)k1/4(x)k1/8(x)

Abb. 9.1: TestfunktionenDamit ist die Menge der Testfunktionen nicht leer, und wir konnen weiter uber siefabulieren.Als erstes eine Festlegung, wie wir die Konvergenz bei Testfunktionen verstehen wol-len. Wir werden an geeigneten Stellen darauf hinweisen, welche Bedeutung bei derfolgenden Definition die erste Bedingung besitzt.

Page 323: 3486584472_Mathem

310 9 Distributionen

Definition 9.4 Eine Folge ϕ1, ϕ2, ϕ3, . . . von Testfunktionen aus D konvergiert gegeneine Testfunktion ϕ ∈ D (in Zeichen ϕk →k→∞ ϕ oder limk→∞ϕk → ϕ), wenn gilt

1. alle ϕk, k = 1, 2, 3, . . . verschwinden außerhalb ein und desselben Intervalls [a, b],

2. die Folge ϕ1, ϕ2, ϕ3, . . . und alle Ableitungsfolgen ϕ(i)1 , ϕ

(i)2 , ϕ

(i)3 , . . . fur i =

1, 2, 3, . . . konvergieren gleichmaßig auf [a, b] gegen ϕ bzw. ϕ(i).

9.3 Regulare Distributionen

Jetzt kommt der schwerste Schritt in der Erklarung unserer neuen Objekte. Wir wolleneine Abbildung betrachten, die jeder solchen Testfunktion eine reelle Zahl zuordnet,also eine Funktion, deren unabhangige Variable wieder eine Funktion ist. Das hortsich apokryph an, aber erinnern wir uns, wie schwer verdaulich in der Mittelstufe derBegriff ”Funktion“ im Magen lag. Durch standigen Umgang haben wir allmahlich dieScheu abgelegt. Das ist auch jetzt wieder unser Vorschlag. Also frisch gewagt, und dieDefinition verdaut:

Definition 9.5 Eine Distribution ist eine stetige Linearform auf D, also eine ste-tige lineare Abbildung von D in R.

Geben wir zunachst ein paar Beispiele an. Dazu fuhren wir eine wirklich sehr allge-meine Funktionenmenge ein.

Definition 9.6 Lloc1 (R) sei folgende Menge von Funktionen:

1. L steht fur Lebesgue-Integral.

2. f ∈ Lp(R) bedeutet: (∫

R|f(x)|pdx)1/p < ∞, die p–te Potenz der Funktion f ist

(betraglich) Lebesgue–integrierbar; L1(R) heißt also∫

R|f(x)|dx < ∞.

3. loc meint, daß obiges Integral wenigstens lokal, also in einer kleinen Umgebungeines jeden Punktes aus R existiert; aquivalent dazu ist, daß das Integral zwarnicht in ganz R, aber doch wenigstens in jeder kompakten, also abgeschlossenenund beschrankten Teilmenge von R existiert.

So sind dann z. B. die Polynome in Lloc1 (R), obwohl sie nicht in L1(R) liegen. Fast

alle Funktionen aus dem Elementarbereich liegen in dieser Menge. Es fallt schwer, eineFunktion anzugeben, die nicht zu diesem Raum gehort. Tatsachlich benotigt man dasAuswahlaxiom, um eine solche Funktion zu ”konstruieren“.

Beispiel 9.7 Jede Funktion g ∈ Lloc1 (R) erzeugt eine Distribution auf D. Wir setzen

namlich

Tg(ϕ) :=∫ ∞

−∞g(t)ϕ(t) dt.

Page 324: 3486584472_Mathem

9.3 Regulare Distributionen 311

Dieses Funktional ist naturlich linear; denn es gilt fur beliebige stetige Funktionenϕ,ϕ1, ϕ2 ∈ C[a, b] und jede reelle Zahl α

Tg(ϕ1 + ϕ2) = Tg(ϕ1) + Tg(ϕ2), Tg(α · ϕ) = α · Tg(ϕ).

Das Integral ist halt linear.Offensichtlich entsteht, nachdem man das Integral ausgerechnet hat, als Ergebnis einereelle Zahl.Es ist aber auch stetig; betrachten wir namlich eine Folge (ϕ1, ϕ2, . . .) von Testfunk-tionen in D, die bezgl. der Maximum–Norm gegen eine Testfunktion ϕ konvergiert,so konnen wir uns mit der Integriererei wegen der ersten Bedingung in Definition9.4 (vgl. S. 310) auf ein (fur alle beteiligten Funktionen gemeinsames) Intervall [a, b]beschranken und erhalten:

|Tg(ϕn)− Tg(ϕ)| =∣∣∣∣∫ b

ag(x) · (ϕn(x)− ϕ(x))dx

∣∣∣∣≤

∫ b

a|g(x)| |ϕn(x)− ϕ(x)|dx

≤ maxx∈[a,b]

|ϕn(x)− ϕ(x)| ·∫ b

a|g(x)|dx

= C · ‖ϕn − ϕ‖∞.

Hier half uns der Mittelwertsatz der Integralrechnung. Wegen ϕn → ϕ strebt die rechteSeite in der letzten Zeile gegen Null, also erhalten wir auch Tg(ϕn) → Tg(ϕ), wie wires behauptet haben. Also ist Tg ein stetiges lineares Funktional.

Definition 9.8 Wir nennen eine Distribution Tg, die von einer Funktion g ∈ Lloc1 (R)

erzeugt wird, fur die also gilt

Tg(ϕ) :=∫ ∞

−∞g(t)ϕ(t) dt, (9.3)

regulare Distribution.

Die regularen Distributionen sind also gar nicht viel Neues. Man kann sie auf eindeutigeWeise mit den Funktionen g ∈ Lloc

1 (R) identifizieren, die ja schon so unglaublich vielewaren. Es gilt namlich der Satz:

Satz 9.9 Stimmen die von zwei stetigen Funktionen erzeugten regularen Distributio-nen uberein, gilt also∫ ∞

−∞f(x) · ϕ(x) dx =

∫ ∞

−∞g(x) · ϕ(x) dx, (9.4)

so stimmt f mit g uberein, es ist also

f ≡ g. (9.5)

Page 325: 3486584472_Mathem

312 9 Distributionen

Ware namlich f(x0) = g(x0) fur ein x0 ∈ R, so ware auch in einer ganzen Umgebungvon x0 wegen der Stetigkeit f(x) = g(x). Wir konnen ohne Einschrankung annehmen,daß in dieser Umgebung f(x) > g(x) ist. Dann basteln wir uns eine Testfunktion ϕ(x),die nur gerade in dieser Umgebung ungleich Null ist, und man sieht sofort, daß furdie dann auch gilt

∫ ∞

−∞f(x) · ϕ(x) dx >

∫ ∞

−∞g(x) · ϕ(x) dx,

was unserer Voraussetzung widerspricht.

9.4 Singulare Distributionen

Es erhebt sich die Frage, ob es uberhaupt noch andere Distributionen gibt. Dazu be-trachten wir das folgende, harmlos daher kommende Beispiel. Der Leser wird naturlichgewarnt sein durch den Namen. Sollte diese Distribution etwas mit der von Dirac vor-geschlagenen ”Funktion“ zu tun haben?

Definition 9.10 Fur x0 ∈ R heißt die Distribution

δx0(ϕ) := ϕ(x0) ∀ϕ ∈ D (9.6)

Delta–Distribution. Andere Bezeichnungen in der Literatur sind Dirac–Maß oderDelta–Impuls oder Delta–Stoß, Dirac–Funktion, Delta–Funktion etc.Speziell fur x0 = 0 werden wir den Index fortlassen und lediglich schreiben

δ(ϕ) := ϕ(0) ∀ϕ ∈ D.

Wir zeigen zunachst, daß fur ein festgehaltenes x0 ∈ [a, b] ein lineares und stetigesFunktional entsteht.Die Linearitat sieht man sofort:

δx0(ϕ1 + ϕ2) = (ϕ1 + ϕ2)(x0) = ϕ1(x0) + ϕ2(x0) = δx0(ϕ1) + δx0(ϕ2)

δx0(αϕ) = (αϕ)(x0) = αϕ(x0) = αδx0(ϕ)

Außerdem ist δx0(ϕ) eine reelle Zahl.Die Stetigkeit zeigen wir ganz analog zu oben:Wir betrachten wieder eine Folge (ϕ1, ϕ2, . . .) von Testfunktionen in D, die bezgl.der Maximum–Norm gegen eine Testfunktion ϕ konvergiert und konnen uns wiederwegen der ersten Bedingung in Definition 9.4 (vgl. S. 310) auf ein (fur alle beteiligtenFunktionen gemeinsames) Intervall [a, b] beschranken und erhalten:

|δx0(ϕn)− δx0(ϕ)| = |ϕn(x0)− ϕ(x0)| ≤ maxx∈[a,b]

|ϕn(x)− ϕ(x)|= ‖ϕn − ϕ‖∞,

Page 326: 3486584472_Mathem

9.4 Singulare Distributionen 313

womit schon alles klar ist.Und jetzt kommt ein erster Punkt, den man ernst nehmen sollte. Wir konnen namlichzeigen, daß diese Distribution nicht regular ist, sie kann also nicht von einer Funktionerzeugt werden.

Satz 9.11 Die Delta–Distribution ist nicht regular.

Wir wollen uns uberlegen, daß es keine Funktion g ∈ Lloc1 (R) gibt mit

δ(ϕ) =∫ ∞

−∞g(x) · ϕ(x) dx = ϕ(0) fur alle ϕ ∈ D.

Nehmen wir namlich an, wir hatten doch eine solche gefunden, dann zeigen wir, daß eseine Funktion ϕ ∈ D gibt mit ϕ(0) = 1, fur die aber das Integral in obiger Gleichungbeliebig klein werden kann.Dazu nehmen wir eine Folge (ϕn)n∈N aus D mit ϕn(0) = 1 fur jedes n ∈ N, deren Be-reich, wo sie ungleich Null sind, aber immer enger zusammenschrumpft2. Da erinnernwir uns an die oben vorgestellte Funktion (9.2) (vgl. S. 309). Wir wahlen hier a = 1

nund bilden

ϕn(x) := k 1n(x), n ∈ N.

In der folgenden Rechnung benutzen wir den Mittelwertsatz der Integralrechnung,wenn wir die Zahl |ϕn(τ)| mit einer Zwischenstelle τ aus dem Integral herausziehenund dann durch das Maximum ‖ϕn‖∞ abschatzen:

1 = |ϕn(0)| =∣∣∣∣∫ ∞

−∞g(t)ϕn(t) dt

∣∣∣∣ ≤∫ ∞

−∞|g(t)| · |ϕn(t)| dt

=∫ a

−a|g(t)| · |ϕn(t)| dt ≤ ‖ϕn‖∞ ·

∫ a

−a|g(t)| dt

= 1 ·∫ a

−a|g(t)| dt

Fur n → ∞ geht das letzte Integral gegen 0, da der Integrationsweg → 0 geht, unddamit haben wir unseren Widerspruch, mogen auch noch so viele knurren und es nichtwahrhaben wollen. Die Delta–Distribution laßt sich nicht als Integral schreiben. Alle solchen Distributionen bekommen einen eigenen Namen.

Definition 9.12 Eine Distribution, die sich nicht durch eine Funktion g ∈ Lloc1 (R)

erzeugen laßt, nennen wir singular.

2Kennen Sie ein deutsches Wort mit zehn Buchstaben, aber nur einem Vokal? (du) schrumpfst!Anschlußfrage: Gibt es ein Wort mit elf Buchstaben und nur einem Vokal?? Analoges Problem furKonsonanten? Minimumproblem? (Immer diese Mathematiker!)

Page 327: 3486584472_Mathem

314 9 Distributionen

9.5 Limes bei Distributionen

Nun mussen wir versuchen, den Namen ”Deltadistribution“ zu rechtfertigen. Was hatdiese einfach gestaltete Distribution mit der von Dirac gewunschten ’Funktion’ zutun. Dazu mussen wir einen kleinen Umweg gehen und erklaren, was wir unter demGrenzwert einer Folge von Distributionen verstehen wollen.

Definition 9.13 Ist T1, T2.T3, . . . eine beliebige Folge von Distributionen, so sei derLimes dieser Folge die Distribution T , die wir folgendermaßen definieren:

T (ϕ) := limk→∞

Tk(ϕ), ∀ϕ ∈ D. (9.7)

Wenn fur jedes ϕ ∈ D der Grenzwert rechts existiert, so schreiben wir

Tk →k→∞ T oder limk→∞

Tk = T. (9.8)

Zur Veranschaulichung mussen wir nur beachten, daß Tk(ϕ) ja fur jede Testfunktionϕ ∈ D eine reelle Zahl ist. Dort wissen wir aber seit dem ersten Semester, was einLimes ist. Der entscheidende Punkt der Definition liegt also in dem fur alle ϕ ∈ D.Nun gehen wir den Umweg, indem wir eine geschickte Folge von Funktionen (nichtDistributionen) betrachten, die im herkommlichen Sinn nicht gegen eine Funktionkonvergiert. Jede einzelne Funktion dieser Folge erzeugt aber eine Distribution, derenFolge im obigen Sinn gegen eine Distribution konvergiert. Wir werden zeigen, daß dieGrenzdistribution gerade δ wird.

Wir wahlen fur jedes k = 1, 2, 3, . . .

fk(x) =

k fur 0 ≤ x < 1k

0 sonst(9.9)

Fur jede dieser Funktionen ist∫ ∞

−∞fk(x) dx = 1,

und offensichtlich ist

fk(0) →k→∞ ∞,

aber genau deshalb besitzt diese Fol-ge naturlich keine Grenzfunktion. Dieware es aber, wonach Dirac verlangte.

x112

13

14

15

1

2

3

4

5

6

7

8

fk(x)

18

f1(x)

f2(x)f3(x)

f8(x)

Abbildung 9.2: Konstruktionsver-such einer Grenzfunktion

Betrachten wir jetzt die von diesen Funktionen erzeugten regularen Distributionen

Tfk(ϕ) :=

∫ ∞

−∞fk(x) · ϕ(x) dx.

Page 328: 3486584472_Mathem

9.6 Rechenregeln 315

Wir wissen, daß es nach dem Mittelwertsatz der Integralrechnung eine Zwischenstelleξ ∈ (0, 1

k ) gibt mit

Tfk(ϕ) =

∫ 1k

0k · ϕ(x) dx = k · (1

k− 0) · ϕ(ξ)

= ϕ(ξ).

Fur k →∞ wird das Intervall (0, 1k ) immer kleiner und schrumpft schließlich auf den

Nullpunkt zusammen, so daß wir also erhalten:

limk→∞

Tfk(ϕ) → ϕ(0) = δ(ϕ) ∀ϕ ∈ D.

Das heißt aber gerade nach unserer Definition von Limes bei Distributionen

Tfk→ δ. (9.10)

So wird also ein Schuh daraus. Im Sinne der Distributionen existiert dieser Grenzwert,den wir bei der Folge der Funktionen nicht erklaren konnten.Nachdem wir so zu Beginn dieses Kapitels Dirac einen Schuß vor den Bug gesetzthaben, indem wir seine ”Funktion“ als mathematisch nicht existent erkannt haben,kommen wir nun mit der Friedensfahne. Wir konnen seine Idee namlich retten, wennwir diesen kleinen Umweg gehen. Seine Nicht–Funktion laßt sich als Grenzwert einerFolge von Funktionen erklaren, allerdings nur im Raum der Distributionen. Es istschon ein erstaunlicher Punkt, wie 1950 der Mathematiker L. Schwartz auf diese Weisedie Intuition des Physikers P. Dirac aus dem Jahre 1925 auf eine gesicherte Grundlagestellen konnte.Und es ist dann die oben unter Diracs Namen eingefuhrte singulare Distribution, diesich zwar nicht als von einer Funktion erzeugt herausstellt, die aber genau die vonDirac gewunschten Eigenschaften von den Funktionen, die wir zu ihrer Annaherungbenutzen, vererbt bekommt.Dieser Umweg zur Veranschaulichung von δ mag gerade Ingenieuren etwas unheimlich,vielleicht sogar uberflussig vorkommen; aber nur auf diesem Weg ist es moglich, diefolgenden, teilweise erstaunlichen Rechengesetze mathematisch exakt nachzuweisen.

9.6 Rechenregeln

Distributionen bilden, wie es sich fur anstandige Funktionen gehort, zunachst maleinen Vektorraum. Wir konnen namlich die Addition zweier Distributionen T1 und T2

und die Multiplikation einer Distribution T mit einer reellen Zahl α folgendermaßendefinieren:

Definition 9.14 Fur zwei beliebige Distributionen T1 und T2 erklaren wir ihre SummeT1 + T2 durch

(T1 + T2)(ϕ) := T1(ϕ) + T2(ϕ) fur jede Testfunktion ϕ, (9.11)

Page 329: 3486584472_Mathem

316 9 Distributionen

und fur jede Distribution T erklaren wir ihr Produkt mit einer beliebigen reellen Zahlα durch

(α · T )(ϕ) = α · T (ϕ) fur jede Testfunktion ϕ. (9.12)

Damit haben wir auch die Null–Distribution, die wir mit bezeichnen wollen. Es istdiejenige, die alle Testfunktionen auf die reelle Zahl 0 abbildet:

(ϕ) := 0 fur jede Testfunktion ϕ. (9.13)

Und wir konnen auch zu jeder Distribution T = ihre additive Inverse angeben:

(−T )(ϕ) := −T (ϕ) fur jede Testfunktion ϕ. (9.14)

Naturlich mussen wir uns klarmachen, daß durch solche Definitionen wieder Distribu-tionen entstehen. Also Linearitat und Stetigkeit sind zu uberprufen. Da das aber zukeinen neuen Erkenntnissen fuhrt, wollen wir es getrost ubergehen.Um den Begriff ”verallgemeinerte Funktion“ mit Leben zu erfullen, wollen wir unsbei all diesen Operationen uberlegen, daß sie sich aus dem entsprechenden Gesetz beiFunktionen herleiten. Fur regulare Distributionen erschaffen wir also nichts Neues.So erzeugt die Summe zweier Funktionen f und g genau die Summe der von ihnenerzeugten Distributionen Tf und Tg:

Tf (ϕ) + Tg(ϕ) = Tf+g(ϕ),

wie man durch Ubergang zur Integralschreibweise sofort sieht.Ebenso ist die Nulldistribution die von der Nullfunktion erzeugte regulare Distributi-on; denn es ist

(ϕ) =∫ ∞

−∞0 · ϕ(x) dx = 0 ∀ϕ ∈ D. (9.15)

Wenn wir schon an die Anwendungen bei Differentialgleichungen denken, konnen wirdie Multiplikation einer Distribution mit einer Funktion definieren. Dazu lassen wiraber nur beliebig oft differenzierbare Funktionen zu, was seinen guten Grund hat, wiewir sofort sehen:

Definition 9.15 Fur eine Distribution T und eine C∞-Funktionen f sei das Pro-dukt f · T definiert durch:

(f · T )(ϕ) = T (f · ϕ) ∀ϕ ∈ D, ∀f ∈ C∞(R). (9.16)

Auf der rechten Seite wollen wir T auf das Produkt f · ϕ anwenden. Das muß eineTestfunktion, also beliebig oft differenzierbar und gleich Null außerhalb einer kompak-ten Teilmenge von R sein. Wenn wir fur f nur beliebig oft differenzierbare Funktionenzulassen, haben wir da kein Problem; denn das Produkt mit ϕ verschwindet naturlichmindestens dort, wo ϕ verschwindet.

Page 330: 3486584472_Mathem

9.6 Rechenregeln 317

Fur die nachste Regel wollen wir uns umgekehrt von den Funktionen leiten lassen. Esgilt fur ein beliebiges a > 0 mit der Substitution

u := a · x, du = a dx∫ ∞

−∞f(a · x) · ϕ(x) dx =

∫ ∞

−∞f(u) · ϕ(

u

a) · 1

adu =

1a

∫ ∞

−∞f(x) · ϕ(

x

a) dx,

wobei wir im letzten Schritt die Integrationsvariable rechts wieder in x umbenanthaben.Fur a < 0 ergibt sich eine kleine Anderung in den Integralgrenzen.∫ ∞

−∞f(a · x) · ϕ(x) dx =

∫ −∞

∞f(u) · ϕ(

u

a) · 1

adu = −1

a

∫ ∞

−∞f(x) · ϕ(

x

a) dx.

Aber wegen −1/a = 1/|a| fur a < 0 und wegen 1/a = 1/|a| fur a > 0 konnen wir dieFormel fur beliebiges a = 0 zusammenfassen zu:∫ ∞

−∞f(a · x) · ϕ(x) dx =

1|a|∫ ∞

−∞f(x) · ϕ(

x

a) dx.

Dieses Verhalten bei Funktionen ubertragen wir nun genau so auf Distributionen:

Definition 9.16 Fur eine beliebige Distribution T und beliebiges a = 0 sei

T (ax)(ϕ) :=1|a|T

(ϕ(x

a

))fur jede Testfunktion ϕ. (9.17)

Ebenso sei fur eine beliebige Distribution T und eine beliebige reelle Zahl a

T (x− a)(ϕ) := T (ϕ(x + a)) fur jede Testfunktion ϕ (9.18)

Damit konnen wir interessante Formeln aufstellen und beweisen, wie folgende Beispielezeigen.

Beispiel 9.17 Es gelten folgende Formeln:

1. δ(x − a) = δ(a − x) = δa, δ(x + a) = δ−a.

2. δ(a · x) = 1|a|δ ∀a = 0, also δ(3x) = 1

3δ, δ(−x) = δ.

3. Ist p(x) ein Polynom n–ten Grades mit nur einfachen Nullstellen x1, . . . , xn,so gilt

δ(p(x)) =n∑

i=1

δ(x − xi)|p′(xi)| , also δ(x2 − a2) =

12|a| (δ(x − a) + δ(x + a)).

Wir wollen beispielhaft die Formel aus 2. vorrechnen. Dazu wenden wir obige Formel(9.17) an und erhalten:

δ(a · x)(ϕ) =1|a|δ(ϕ(

x

a)) =

1|a|ϕ(

0a) =

1|a|ϕ(0) =

1|a|δ(ϕ)

Page 331: 3486584472_Mathem

318 9 Distributionen

9.7 Ableitung von Distributionen

Die Erklarung der Ableitung einer Disribution wirkt sicher im ersten Moment etwasbefremdlich. Erst der Ruckgriff auf die Funktionen zeigt, daß alles so und nur so seineOrdnung hat.

Definition 9.18 Fur eine beliebige Distribution sei ihre Ableitung folgendermaßenerklart:

T ′ ϕ := −T (ϕ′) ∀ϕ ∈ D. (9.19)

Wir walzen also die Ableitung auf die Testfunktion. Die Merkwurdigkeit liegt in demMinuszeichen. Greifen wir auf eine Funktion f und die von ihr erzeugte DistributionTf zuruck. Dann wurde es uns doch befriedigen, wenn die Ableitung T ′f von f ′ erzeugtwurde. Genau das werden wir zeigen. Es gilt namlich:

(Tf )′(ϕ) = −Tf (ϕ′)

= −∫ ∞

−∞f(x) · ϕ′(x) dx

= −f(x) · ϕ(x)∣∣∞−∞ +

∫ ∞

−∞f ′(x) · ϕ(x) dx

= Tf ′(ϕ),

und damit haben wir gezeigt:

(Tf )′ = Tf ′ (9.20)

Eine erstaunliche Tatsache zeigt sich bei genauer Betrachtung der Definition der Ab-leitung. Ohne jede Schwierigkeit kann man noch eine weitere Ableitung und noch eineusw. bilden, da ja die Testfunktionen beliebig ableitbar sind. Das ist doch mal eineberuhigende Auskunft, die fur reelle Funktionen nun ganz und gar nicht stimmt:

Satz 9.19 Jede Distribution ist beliebig oft differenzierbar, und es gilt:

T (n) ϕ := (−1)nT (ϕ(n)) ∀ϕ ∈ D. (9.21)

Die Hintereinanderausfuhrung von Distributionen ist nicht definiert, da ja das Ergeb-nis der Abbildung eine reelle Zahl ist, eine weitere Distribution aber zur Abbildungeine Testfunktion benotigt. So konnen wir auch keine Kettenregel angeben. Wir wollenuns nur noch uberlegen, daß sich beim Produkt einer Distribution mit einer beliebigoft differenzierbaren Funktion die Produktregel ubertragt.

Satz 9.20 Es gilt fur eine beliebige Distribution T und eine Funktion f ∈ C∞

(f · T )′ = f · T ′ + f ′ · T. (9.22)

Page 332: 3486584472_Mathem

9.7 Ableitung von Distributionen 319

Zum Beweis starten wir mit der rechten Seite und rechnen los:

(f · T ′)(ϕ) + (f ′ · T )(ϕ) = T ′(f · ϕ) + T (f ′ · ϕ) Prod. Fkt.· Distr.= −T ((f · ϕ)′) + T (f ′ · ϕ) Ableitung= −T (f ′ · ϕ + f · ϕ′) + T (f ′ · ϕ) Prod.-Regel bei Fktn= −T (f ′ · ϕ)− T (f · ϕ′) + T (f ′ · ϕ)= −T (f · ϕ′)= −(f · T )(ϕ′) Prod. Fkt. · Distr.= (f · T )′(ϕ), Ableitung

was zu zeigen war.

Wir fugen einige Beispiele an.

Beispiel 9.21 Wir berechnen die Ableitung der von der Funktion f(x) = sin x er-zeugten Distribution.

Es ist mit partieller Integration

T ′sin(ϕ) = −Tsin(ϕ′)

= −∫ ∞

−∞sin x · ϕ′(x) dx

= − sin x · ϕ(x)∣∣∞−∞ +

∫ ∞

−∞cos x · ϕ(x) dx

=∫ ∞

−∞cos x · ϕ(x) dx

= Tcos(ϕ)

also ist

T ′sin = Tcos

wie wir es erwarten und wie es ohne das ominose Minuszeichen in der Definition nichtgelungen ware.

Beispiel 9.22 Wir berechnen die Ableitung der von der Heaviside–Funktion

h(x) :=

1, x > 00, x ≤ 0

erzeugten regularen Disribtion Th.

Es ist

Th(ϕ) :=∫ ∞

−∞h(x) · ϕ(x) dx =

∫ ∞

0ϕ(x) dx,

Page 333: 3486584472_Mathem

320 9 Distributionen

womit folgt:

T ′h(ϕ) = −Th(ϕ′)

= −∫ ∞

−∞h(x) · ϕ′(x) dx

= −∫ ∞

0ϕ′(x) dx,

= −(ϕ(∞) − ϕ(0))= δ(ϕ).

Damit haben wir die interessante Formel bewiesen:

T ′h = δ. (9.23)

Beispiel 9.23 Wir berechnen die Ableitung einer regularen Disribution Tf , erzeugtvon einer Funktion f , die an der Stelle x1 ∈ R eine endliche Sprungstelle der Hohe shat, sonst aber stetig differenzierbar ist.

Wir sollten noch einmal betonen, daß die erzeugende Funktion f im klassischen Sinnim Punkt x1 nicht differenzierbar ist.

Wir haben rechts die Funktion f mitihrer Sprungstelle skizziert. Zugleichhaben wir den rechten Ast von fnach unten verschoben, so daß einestetige Funktion entstanden ist, diewir g nennen wollen. Damit laßt sichunsere Ausgangsfunktion f schrei-ben als:

f(x) = s · h(x− x1) + g(x),

wobei

h(x− x1) :=

0 fur x− x1 ≤ 01 fur x− x1 > 0

.

f

f

x1

s g

Abbildung 9.3: Ableitung einer unsteti-gen Funktion

Damit erhalten wir fur die von f erzeugte regulare Distribution:

Tf (ϕ) =∫ ∞

−∞f(x) · ϕ(x) dx

=∫ ∞

−∞(s · h(x− x1) + g(x)) · ϕ(x) dx

= s ·∫ ∞

−∞h(x− x1) · ϕ(x) dx +

∫ ∞

−∞g(x) · ϕ(x) dx

= s · Th(x1)(ϕ) + Tg(ϕ).

Page 334: 3486584472_Mathem

9.8 Faltung von Testfunktionen 321

Hier konnen wir nun leicht die gesuchte Ableitung bilden:

Tf′ = s · T ′h(x1)

+ Tg′ = s · δ(x1) + Tg

′.

Diese Formel wird nun in der Anwenderliteratur folgendermaßen geschrieben:

f ′(x) = s · δx1(x) + g ′(x),

und als Rechenregel nimmt man die Aussage:

An der Sprungstelle muß ein Term ’Sprunghohe mal delta’ hinzugefugt werden.

Nachdem wir nun wissen, wie dieser Zusatzterm zustande kommt, ist gegen dieseKurzform eigentlich nichts mehr einzuwenden.

9.8 Faltung von Testfunktionen

Die Faltung ist uns fruher schon begegnet, namlich bei der Laplace–Transformation(vgl. S. 280). Wir wollen uns im folgenden mit einigen speziellen Punkten, die bei derFaltung mit Testfunktionen auftreten, befassen, um dann anschließend die Faltungvon Distributionen anzugehen. Sie wird uns dann hilfreich zur Seite stehen, wenn wirDifferentialgleichungen losen wollen.Zunachst wiederholen wir die Definition:

Definition 9.24 Unter der Faltung zweier Testfunktionen f und g verstehen wir dieneue Funktion

(f ∗ g)(x) :=∫ ∞

∞f(x− y) · g(y) dy =

∫ ∞

∞g(x− y) · f(y) dy. (9.24)

Die Assoziativitat und die Kommutativitat lassen sich genau so beweisen, wie es beigewohnlichen Funktionen geklappt hat. Wir ubergehen daher den Beweis.

Satz 9.25 Die Faltung zweier Testfunktionen ist assoziativ:

(f ∗ g) ∗ h = f ∗ (g ∗ h), (9.25)

und sie ist kommutativ:

f ∗ g = g ∗ f. (9.26)

Da wir uns bei Testfunktionen keine Sorgen um die Differenzierbarkeit machen mussen,konnen wir so einige Rechenregeln zusammenstellen, die bei normalen Funktionenweiterer Voraussetzungen bedurfen:

Page 335: 3486584472_Mathem

322 9 Distributionen

Satz 9.26 Die Faltung zweier Testfunktionen ist mit der Translation vertauschbar:

(f ∗ g)(x− a) = f(x− a) ∗ g(x) = f(x) ∗ g(x− a), (9.27)

und fur die Ableitung gilt:

(f ∗ g)′ = f ′ ∗ g = f ∗ g ′. (9.28)

Bew.: Die Sache mit der Translation ergibt sich unmittelbar aus der Definition. DieAbleitungsregel rechnen wir einfach nach, indem wir unter dem Integralzeichen diffe-renzieren; denn nur dort steht die Variable x.

d

dx

∫ ∞

∞f(x− y) · g(y) dy

∫ ∞

∞f ′(x− y) · g(y) dy.

Damit haben wir schon gezeigt:

(f ∗ g)′ = f ′ ∗ g.

Wegen der Kommutativitat folgt dann sofort die weitere Formel. Diese Formel mutet etwas merkwurdig an; denn links soll ja die Ableitung im Prinzipauf beide Funktionen, also ihre Faltung wirken. Dann wird da rechts gesagt, daßnur eine Funktion abzuleiten ist. Außerdem ist es egal, welche der beiden beteiligtenKandidaten man ableitet. Im Prinzip konnte man also sogar eine nicht differenzierbareFunktion mit einer differenzierbaren falten und das Faltprodukt dann ableiten, indemman halt nur die differenzierbare ableitet. Schaut man sich den Beweis an, so siehtman schon, daß alles mit rechten Dingen zugeht. Es liegt eben an der Definition derFaltung.Aus dieser Eigenschaft der Faltung ruhrt auch der Name, der manchmal gebrauchlichist, her. Man nennt den Faltungsoperator auch Glattungsoperator, weil er in dieserWeise nichtglatte Funktionen sogar zu differenzierbaren wandelt.

9.9 Faltung bei Distributionen

Die Faltung, wie wir sie oben fur Funktionen erklart haben, laßt sich ausgezeichnet aufDistributionen ubertragen. Genau wie dort wird eine weitere Variable y eingefuhrt, diedort durch die Integration gebunden war, hier wird sie durch die zweite Distributiongebunden. Das ganze sieht etwas merkwurdig aus, ein anschließendes Beispiel wirdaber wohl Klarheit bringen.

Definition 9.27 Sind T1 und T2 zwei Distributionen, so sei die Faltung

T1 ∗ T2

definiert durch

(T1 ∗ T2)(ϕ) := T x1 (T y

2 (ϕ(x + y))) ∀ϕ ∈ D. (9.29)

Page 336: 3486584472_Mathem

9.9 Faltung bei Distributionen 323

Die oberen Indizes haben folgende Bedeutung: Wir halten in der Funktion ϕ(x+y) dieVariable x fest und wenden die Distribution T2 auf ϕ als Funktion von y an. Dadurchentsteht eine Funktion von x, auf die wir anschließend die Distribution T1 anwenden.Am besten hilft hier ein Beispiel:

Beispiel 9.28 Wir bezeichnen fur dieses Beispiel regulare Distributionen durch Ein-klammerung, schreiben also

Tf (ϕ) = [f ](ϕ).

So konnen wir auch

[1](ϕ) =∫ ∞

−∞1 · ϕ(x) dx

deutlich kennzeichnen. Mit der Bezeichnung T1 ware nicht klar, ob die 1 vielleicht nurein Index ist.Unsere Aufgabe lautet: Was ergibt

[1] ∗ δ′ =?

Wir greifen uns zur Berechnung wieder eine Testfunktion ϕ ∈ D. Dann ist

([1] ∗ δ′

)(ϕ)

= [1]x

δ′y(ϕ(x + y))

Hier nutzen wir einfach die Definition aus undfugen daher bei ϕ die Variable x + y ein.

= [1]x− δy

′y(x + y))

Hier haben wir die Definition fur ’Ableitung’ ein-gesetzt; dadurch entsteht das Minuszeichen

−[1]xϕ ′(x + 0) Das ist nun die Definition fur δ; wir sollen furihre Variable, die ja hier y war, den Wert 0 ein-setzen. Das haben wir ganz formal gean.

= −[1]xϕ ′(x) Hier haben wir nur die 0 weggelassen.

= −∫ ∞

−∞1 · ϕ ′(x) dx So ist die regulare Distribution [1] gerade er-

klart.

= −ϕ(x)∣∣∣∞−∞

= 0 Die Auswerung des Integrals ist ja leicht, da derIntegrand schon eine Ableitung ist, uns also dieSuche nach einer Stammfunktion erspart bleibt.Da es sich um eine Testfunktion handelt, ver-schwindet sie bei −∞ und +∞.

Page 337: 3486584472_Mathem

324 9 Distributionen

=∫ ∞

−∞0 · ϕ(x) dx Um das Ergebnis klarer zu machen, schreiben

wir diese Zeile auf, die eigentlich umstandlicheraussieht; aber die nachste Zeile zeigt dann denSinn dieser Darstellung.

= [0](ϕ) Das ist also die Nulldistribution, und wir konnenals Ergebnis festhalten:

[1] ∗ δ ′ = [0].

Einige Rechenregeln fur den Umgang mit der Faltung mogen folgen. Dem Assoziativ-gesetz mussen wir eine Sonderstellung einraumen. Denn es ist nicht allgemeingultig,sondern gilt nur fur Distributionen mit kompaktem Trager. Wir wollen diesen Begriffhier nicht weiter vertiefen, sondern verweisen auf die Spezialliteratur.

Satz 9.29 Haben mindestens zwei der drei Distributionen T1, T2, T3 einen kompaktenTrager, so gilt:

(T1 ∗ T2) ∗ T3 = T1 ∗ (T2 ∗ T3). (9.30)

Fur ein Gegenbeispiel verweisen wir auf [8].

Satz 9.30 Rechenregeln fur die Faltung

(T1 ∗ T2) = T2 ∗ T1 Kommutativgesetz (9.31)(T1 ∗ T2)′ = T ′1 ∗ T2 = T1 ∗ T ′2 Ableitungsregel (9.32)

T1 ∗ δ = δ ∗ T1 = T1 Faltung mit δ (9.33)

Die Ableitungsregel ist eine unmittelbare Verallgemeinerung der entsprechenden Regelbei der Faltung von Funktionen.Den Nachweis fur die Faltung mit δ konnen wir schnell aufschreiben:Es ist

(T ∗ δ)(ϕ) = T x(δy(x + y)) = T xϕ(x) = T (ϕ),

und damit ist schon alles gezeigt.

9.10 Anwendung auf Differentialgleichungen

Betrachten wir einmal folgende Differentialgleichung:

y ′ + ay = δ. (9.34)

Problematisch ist die rechte Seite. Wir haben ja nun erkannt, daß δ keine Funkti-on ist. Wie ist denn dann diese Gleichung aufzufassen? Wenn auf der rechten Seite

Page 338: 3486584472_Mathem

9.10 Anwendung auf Differentialgleichungen 325

keine Funktion, sondern eine Distribution steht, so muß man die linke Seite auch soauffassen.Wir schlagen daher vor, das gesuchte y mit einem großen Buchstaben zu bezeichnen,um klarzumachen, daß wir eine Distribution Y als Losung dieser Gleichung suchen.Wir betrachten also die Gleichung

Y ′ + aY = δ (9.35)

und suchen eine Distribution Y , die ihr genugt.Offenkundig ist dies eine in Y lineare Differentialgleichung, also werden wir ersuchen,genauso wie bei gewohnlichen Differentialgleichungen vorzugehen.

1. Losung der homogenen Differentialgleichung

2. Suche nach einer speziellen Losung der nichthomogenen Gleichung mittels Va-riation der Konstanten

3. Ermittlung der allgemeinen Losung nach dem Superpositionsprinzip:

allg. Losung = spez. Losung der inhom. DGL. + allg. Losung der hom. DGl.

Zu 1. Schauen wir uns die homogene Gleichung an

Y ′ + aY = ,

so sehen wir nichts Besonderes, was auf die Bedeutung als Distribution hinweist. Alsowerden wir diese Gleichung als gewohnliche DGl auffassen und auch so losen, aber dasErgebnis wieder in den Raum der Distributionen geleiten.Ihre charakteristische Gleichung lautet

λ + a = 0 mit der Losung λ = −a.

Die allgemeine Losung der homogenen DGl ist also

Y = c · Exp(−ax), c ∈ R, (9.36)

wobei wir mit Exp(−ax) die von der Exponentialfunktion e−ax erzeugte regulareDistribution meinen. Wir haben also

Y (ϕ) = c ·∫ ∞

−∞e−ax · ϕ(x) dx ∀ϕ ∈ D.

Bis hierher waren die Distributionen gar nicht in Erscheinung getreten, alles spieltesich so ab, wie bei Funktionen. Jetzt geht’s erst los, denn jetzt tritt δ auf den Plan.

Page 339: 3486584472_Mathem

326 9 Distributionen

Zu 2. Eine spezielle Losung der nichthomogenen Gleichung (9.35) versuchen wir mitdemselben Trick, wie er uns bei gewohnlichen DGl begegnet ist, zu finden, der ’Varia-tion der Konstantem’. Dazu wahlen wir den Ansatz:

Yspez := e−ax · C (9.37)also Yspez(ϕ) = e−ax · C(ϕ) (9.38)

= C(e−ax · ϕ(x)

). (9.39)

Wir haben also die Rollen in der allgemeinen Losung fur die homogene DGl (9.36)vertauscht. Die dortige Konstante c wird hier zur gesuchten Distribution C, die dortigeDistribution Exp(−ax) hier zur multiplikativen Funktion.Wir bilden nun die Ableitung

Y ′ = e−axC ′ − ae−axC

und setzen alles in (9.35) ein:

e−axC ′ − ae−axC + ae−axC = e−axC ′ = δ.

Jetzt losen wir nach der Unbekannten C ′ auf und nutzen unser Wissen uber δ aus:

C ′(ϕ) = eaxδ(ϕ) = δ(eaxϕ(x)) = ea0ϕ(0) = ϕ(0) = δ(ϕ).

Das heißt also

C ′(ϕ) = δ(ϕ),

woraus wir sofort eine Losung fur C vermuten und durch Einsetzen bestatigen:

C = Th. (9.40)

Dabei ist Th die von der Heaviside–Funktion erzeugte Distribution.Damit lautet die spezielle Losung

Yspez = e−ax · Th. (9.41)

Zu 3. Die allgemeine Losung ermitteln wir nun noch durch Superposition aus (9.36)und (9.41):

Y = cExp(−ax) + e−axH, (9.42)

also Y (ϕ) = c ·∫ ∞

−∞e−axϕ(x) dx + e−axTh(ϕ), (9.43)

und lacheln milde, wenn anderswo gesagt wird, die Losung sei:

y = c · e−ax + e−ax · h(x);

denn ein richtiger Kern steckt ja drin, wenn wir alle Augen zudrucken, aber wie mandrauf kommt, das haben wir uns oben uberlegt.

Page 340: 3486584472_Mathem

9.10 Anwendung auf Differentialgleichungen 327

Beispiel 9.31 Gegeben sei im Raum der Distributionen die Differentialgleichung

(x + 1)Y ′ + 2Y = δ.

1. Bestimmen Sie die allgemeine Losung der homogenen Gleichung.

2. Berechnen Sie mittels Variation der Konstanten eine spezielle Losung der nichtho-mogenen Differentialgleichung und damit die allgemeine Losung obiger Differen-tialgleichung.

Der Ablauf ist nun ganz genau so wie oben, also konnen wir uns wohl kurzer fassen.Zu 1. Betrachten wir zunachst die homogene Gleichung

(x + 1)Y ′ + 2Y = .

Da hier nichts Distributionelles versteckt ist, losen wir sie so wie fruher, ubertragendas Ergebnis aber dann in den Raum der Distributionen.Die Differentialgleichung

(x + 1)y ′(x) + 2y(x) = 0

losen wir durch Trennung der Veranderlichen:

dy

y= − 2

x + 1dx ⇒ ln y = −2 ln(x + 1) + c

y(x) = ce−2 ln(x+1)

= c(x + 1)−2.

Damit lautet die allgemeine Losung der homogenen DGl in der Sprache der Distribu-tionen, wenn wir mit [f(x)] die von f erzeugte regulare Distribution bezeichnen:

Yhom = c[(x + 1)−2

]. (9.44)

Zu 2. Variation der Konstanten, um eine spezielle Losung der nichthomogenen Glei-chung zu finden:

Ansatz: Yspez = (x + 1)−2 · C, C gesuchte DistributionYspez

′ = C ′(x + 1)−2 + C(−2)(x + 1)−3.

Einsetzen in die DGL:

(x + 1)[C ′(x + 1)−2 + C(−2)(x + 1)−3] + 2C(x + 1)−2 = δ,

C ′(x + 1)−1 − 2C(x + 1)−2 + 2C(x + 1)−2 = δ.

Das heißt also:

C ′ = (x + 1)δ,

Page 341: 3486584472_Mathem

328 9 Distributionen

und damit

C ′(ϕ) = (x + 1)δ(ϕ) = δ((x + 1)ϕ) = (0 + 1)ϕ(0) = ϕ(0) = δ(ϕ), (9.45)

C(ϕ) = Th(ϕ).

So lautet denn eine spezielle Losung der nichthomogenen DGl

Yspez = (x + 1)−2 · Th.

Zu 3. Aus 1. und 2. setzen wir nun die allgemeine Losung der DGL zusammen:

Y = c[(x + 1)−2

]+ (x + 1)−2Th, (9.46)

und wieder strahlt unser mildes Lacheln, wenn wir auch folgende Antwort als allge-meine Losung gelten lassen:

y(x) =c + h(x)(x + 1)2

mit der Sprungfunktion h(x).

Hier schlagen wir zur Abwechslung vor, eine Probe durchzufuhren. Das ubt viele Re-chengesetze. Allerdings wollen wir uns, um nicht zu lange zu rechnen, nur uberlegen,daß die spezielle Losung Yspez die DGl erfullt.

Yspez′ = (x + 1)−2 · δ + (−2)(x + 1)−3Th

(x + 1)Y ′spez + 2Yspez = (x + 1)[(x + 1)−2 · δ − 2(x + 1)−3Th] + 2(x + 1)−2 · Th

= (x + 1)−1 · δ − 2(x + 1)−2 · Th + 2(x + 1)−2 · Th

= (x + 1)−1 · δ= δ analog zu (9.45)

Page 342: 3486584472_Mathem

Kapitel 10

Numerik vonAnfangswertaufgaben

10.1 Einfuhrung

Das Ziel dieses Kapitels ist die numerische Behandlung von gewohnlichen Differential-gleichungen. Wie sich das gehort, werden wir zuerst fragen, ob denn die Aufgaben, diewir uns stellen, uberhaupt losbar sind. Fur die numerische Berechnung einer Nahe-rung ist es dann auch wichtig, daß man nur eine einzige Losung finden kann. In kleinenAnsatzen werden wir auf elementare Losungsmethoden zur Bestimmung einer exak-ten Losung eingehen, dies aber nur soweit, wie es unseren Beispielen geziemt. Einevollstandige Abhandlung der exakten Losungsverfahren findet man in Spezialbuchernuber Differentialgleichungen.Zur Motivation mochte das folgende Beispiel dienen. Es zeigt recht anschaulich, wouberall mit dem Auftreten von Differentialgleichungen zu rechnen ist. Mit ihrer Hilfelassen sich sehr viele, wenn nicht gar die meisten Naturphanomene beschreiben.

10.2 Warum ein Auto bei Glatte schleudert1

Wie kommt es eigentlich, daß bei durchdrehenden Radern ein Auto so leicht seitlichwegrutscht? Eine Frage, die man sich so in Einzelheiten kaum selbst stellt, aber jeder,der einmal ins Schleudern geraten ist, fragt sich doch, warum das Auto nicht einfachgeradeaus weitergefahren oder besser gerutscht ist. Dann ware ja gar kein Problementstanden. Aber nein, es wollte seitlich weg.Um dieses Phanomen beschreiben zu konnen, mussen wir ein wenig Physik betreiben.Nehmen wir also einen Korper mit der Masse m. Das ist unser Auto. Es hat alsoein Gewicht G = m · g, wobei g die Erdbeschleunigung ist. Wir vereinfachen nunden Vorgang dadurch, daß wir mit dem Auto auf einer perfekten Geraden fahren,

1Dieses Beispiel verdanke ich einer Veroffentlichung meines verehrten Kollegen Dr. D. Wode inMath. Sem. Ber. 35, (1988)

Page 343: 3486584472_Mathem

330 10 Numerik von Anfangswertaufgaben

naturlich der x–Achse, die dazu noch in einer perfekten Ebene eingebettet ist, der x–y–Ebene. Sonst wird es zu kompliziert. Außerdem wollen wir uns mit der Geschwindigkeitv = dx

dt > 0 fortbewegen, t ist die Zeit.Eines der physikalischen Grundgesetze lautet:

Kraft = Masse × BeschleunigungF = m · a

Dabei ist die Beschleunigung a die zweite Ableitung der Bewegung nach der Zeit, alsoa = d2x

dt2, d2y

dt2.

Dieses Gesetz machen wir zur Grundlage unserer Uberlegung.Wir betrachten drei verschiedene Arten von Kraften, die auf das Fahrzeug einwirken.Zuerst ist da die Motorkraft, die wir in Richtung der Fortbewegung, also der x–Achseeinsetzen. Wir bezeichnen sie mit J . Und dann haben wir die bose Seitenkraft inRichtung y, verursacht z. B. durch Seitenwind, Gefalle, schiefe Fahrbahn o.a. Sie seimit K bezeichnet.Außerdem ist da noch die Reibung. Die Physik lehrt uns, daß die Reibungskraft R inRichtung der Fortbewegung, also in Richtung von v = (dx

dt ,dydt )

, zeigt und propor-tional zur Gewichtskraft, also der Kraft senkrecht zur x-y-Ebene ist. Dabei wird einedimensionslose Reibungszahl µ eingefuhrt. Den Geschwindigkeitsvektor normieren wirzu 1, was die Wurzel im Nenner ergibt:

R =G · µ√(

dx

dt

)2

+(

dy

dt

)2·

⎛⎜⎜⎝

dx

dt

dy

dt

⎞⎟⎟⎠

Wir fassen nun alles zusammen und beachten nur noch, daß die Reibungskraft derBewegung entgegengerichtet ist. Also erhalt sie ein negatives Vorzeichen:

⎛⎝ J

K

⎞⎠− G · µ√(

dx

dt

)2

+(

dy

dt

)2·

⎛⎜⎜⎝

dx

dt

dy

dt

⎞⎟⎟⎠ = m ·

⎛⎜⎜⎜⎝

d2x

dt2

d2y

dt2

⎞⎟⎟⎟⎠ (10.1)

Bevor wir uns diese Gleichung etwas genauer ansehen, wollen wir uns noch Gedankenuber den Anfangszustand machen. Wir starten mit der Untersuchung zur Zeit t = 0.Das sei also der Zeitpunkt, zu dem das Fahrzeug seitlich zu rutschen beginnt. Dabefindet es sich demnach noch genau in der Spur, sei also noch nicht von der x–Achseabgewichen, was wir mathematisch so ausdrucken:

y(0) = 0

Zu diesem Zeitpunkt soll das seitliche Rutschen beginnen, eine Anderung dieser Sei-tenbewegung hat also noch nicht Platz gegriffen. Mathematisch heißt das:

dy

dt(0) = 0

Page 344: 3486584472_Mathem

10.2 Warum ein Auto bei Glatte schleudert 331

Diese beiden Bedingungen nennen wir Anfangsbedingungen. Genau das ist die Weltdieses Kapitels, die Untersuchung solcher sog. Anfangswertaufgaben. Sie sind mehr alshaufig in den Anwendungen zu finden. Da diese aber in der Regel sehr viel komplizier-ter gebaut sind, wollen wir uns darauf konzentrieren, solche Aufgaben naherungsweisezu losen.Um die Autorutschpartie zu Ende fuhren zu konnen, wollen wir noch eine weitereVereinfachung hinzufugen. Zumindest am Beginn des Rutschvorgangs, also fur kleinet sei die seitliche Rutschbewegung sehr viel kleiner als die Geradeausbewegung:

dy

dt<

dx

dt⇒(

dy

dt

)2

(

dx

dt

)2

Damit konnen wir die Wurzel im Nenner deutlich vereinfachen. Sie ist gleich v :=dx/dt.Da wir das seitliche Rutschen untersuchen wollen, interessiert uns nur die zweite Kom-ponente der Gleichung (10.1):

K −G · µ · 1v· dy

dt= m · d2y

dt2.

Eine leichte Umformung ergibt dann die Gleichung:

K · vG · µ =

dy

dt+

m · vG · µ

d2y

dt2mit y(0) = 0,

dy

dt(0) = 0 (10.2)

Wir haben somit eine Gleichung erhalten, in der unsere gesuchte Funktion y(t) auftritt,aber etwas versteckt, es sind nur ihre erste und zweite Ableitung vorhanden. Solch eineGleichung nennt man eine Differentialgleichung. Wir werden das gleich im nachstenAbschnitt genau definieren. Zur Interpretation fugen wir die folgenden Bemerkungenan.

Bemerkung 10.1 1. Die erste Komponente der Gleichung (10.1)

J − G · µv

· dx

dt= m · d2x

dt2

beschreibt die normale Fortbewegung auf der Straße, also in x–Richtung. Hierist µ der Haftreibungskoeffizient. Die Industrie versucht, µ moglichst klein zumachen, was durch Schmierung der Achsen, eine bessere Gummimischung derReifen usw. erreicht werden kann. µ → 0 bedeutet dann, daß links der zweiteTerm, also keine Reibungskraft, auftritt. Wir suchen (und finden) sehr leichteine Funktion, deren zweite Ableitung konstant ist, denn das heißt ja, daß dieBeschleunigung konstant ist. Ohne Reibung wird das Auto immer schneller.

2. Die zweite Komponente beschreibt die Querbewegung. Hier ist µ die Gleitreibung.Naturlich mochte man diese moglichst groß machen, um das seitliche Wegrut-schen zu verhindern. Fur µ →∞ entsteht die Gleichung

Page 345: 3486584472_Mathem

332 10 Numerik von Anfangswertaufgaben

dy

dt= 0 =⇒ y = const.

Wegen der Anfangsbedingungen bleibt da nur die Funktion y ≡ 0 ubrig. Das heißtdann, daß das Auto stur geradeaus fahrt. Seitliches Wegrutschen tritt nicht auf.

Als Fazit erhalten wir: Gewunscht wird ein Reibungskoeffizient, der richtungsabhangigund zwar in Fahrtrichtung moglichst klein, quer zur Fahrtrichtung moglichst groß ist.Die Industrie arbeitet daran.

Wir suchen nun eine Losung der Gleichung (10.2). Zur weiteren Vereinfachung nehmenwir noch an, daß wir uns mit konstanter Geschwindigkeit fortbewegen, also v = const.gelte. Es sei darauf hingewiesen, daß (10.2) dann eine lineare Differentialgleichungmit konstanten Koeffizienten ist. In der Theorie der Differentialgleichungen lernt mangleich zu Beginn, wie man eine solche Gleichung lost. Da wir das hier in diesem Buchnicht behandeln – wir wollen ja zur Numerik vorstoßen –, aber doch eine Losungangeben wollen, greifen wir zuruck auf das Kapitel ’Laplace–Transformation’. Dorthaben wir ein Verfahren kennengelernt, daß sich hier ausgezeichnet anwenden laßt.Wir lassen die gesamte Durchrechnung kleingedruckt folgen, der kundige oder auch deran den Einzelheiten nicht so interessierte Leser mag dies dann getrost uberspringen.

Berechnung einer Losung mittels Laplace–Transformation Wir betrachtenalso folgende Anfangswertaufgabe:

K · vG · µ =

dy

dt+

m · vG · µ

d2y

dt2mit y(0) = 0,

dy

dt(0) = 0 (10.3)

y(0) = 0,dy

dt(0) = 0 (10.4)

Auf beide Seiten der Differentialgleichung wenden wir die Laplace–Transformation an:

L[mv

Gµ· d2y

dt2+

dy

dt

](s) = L

[Kv

](s)

Ausnutzen der Linearitat des Laplace–Operators und des Differentiationssatzes ergibt:

mv

Gµ· s2 · L[y](s)− s · y(0)︸︷︷︸

=0

− y ′(0)︸ ︷︷ ︸=0

+s · L[y](s)− y(0)︸︷︷︸=0

=Kv

Gµ· 1s, s > 0

Hier haben wir bereits zusatzlich die Anfangsbedingungen durch Unterklammern ein-gebaut. Da fallen also einige Terme weg. Rechts haben wir unser Wissen von fruher,namlich L[1](s) = 1/s verwendet.Zusammengefaßt ergibt sich:(

mv

Gµ· s2 + s

)L[y](s) =

Kv

Gµ· 1s

Page 346: 3486584472_Mathem

10.2 Warum ein Auto bei Glatte schleudert 333

Das losen wir auf:

L[y](s) =Kv

(mvs + Gµ) · s2

= Kv · 1(mvs + Gµ) · s2

(10.5)

Nun kommt der schwere Akt der Rucktransformation. Dazu versuchen wir, den Termauf der rechten Seite in einfachere Terme aufzuspalten. Als Hilfsmittel dient die Par-tialbruchzerlegung; wir machen dazu folgenden Ansatz:

1(mvs + Gµ) · s2

=As + B

s2+

C

mvs + Gµ(10.6)

Durch Multiplikation mit dem Hauptnenner fuhrt das auf

1 = (As + B)(mvs + Gµ) + Cs2

Drei Unbekannte A, B und C harren ihrer Bestimmung. Irgendwo mussen wir dreiGleichungen fur sie finden. Durch den Hauptnennertrick haben wir die Ausnahme furs = 0 beseitigt. Wir konnen also sagen, daß diese Gleichung fur alle s ∈ R gultigsein moge. Durch Wahl von s = 0, s = 1 und s = −1 erhalten wir dann unsere dreiGleichungen:

s = 0 =⇒ 1 = B ·Gµ =⇒ B =1

s = 1 =⇒ 1 =(

A +1

)(mv + Gµ) + C = A(mv + Gµ) +

mv

Gµ+ 1 + C

Hieraus folgt:

A(mv + Gµ) + C = −mv

Gµ(10.7)

s = −1 =⇒ 1 =(−A +

1Gµ

)(−mv + Gµ) + C = −A(−mv + Gµ)− mv

Gµ+ 1 + C

Das fuhrt auf

−A(−mv + Gµ) + C =mv

Gµ(10.8)

Wir subtrahieren (10.8) von (10.7) und erhalten

Amv + AGµ + C −Amv + AGµ − C = −mv

Gµ− mv

Gµ,

Also

A = − mv

G2µ2(10.9)

Page 347: 3486584472_Mathem

334 10 Numerik von Anfangswertaufgaben

C berechnen wir durch Einsetzen in (10.7):

C = −mv

Gµ+

mv

G2µ2(mv + Gµ)

=m2v2

G2µ2(10.10)

Das setzen wir jetzt in den Ansatz (10.6) zusammen mit (10.5) ein:

L[y](s) = Kv

[− mvG2µ2 s + 1

s2+

m2v2

G2µ2

mvs + Gµ

]

=Kv

G2µ2

[−mvs + Gµ

s2+

m2v2

mvs + Gµ

]

=Kmv2

G2µ2

[−s + Gµ

mv

s2+

mv

mvs + Gµ

]

=Kmv2

G2µ2

[−s + Gµ

mv

s2+

1s + Gµ

mv

]

=Kmv2

G2µ2

[−1

s+

Gµmv

s2+

1s + Gµ

mv

]

= −Kmv2

G2µ2· 1s

+Kv

Gµ· 1s2

+Kmv2

G2µ2· 1s + Gµ

mv

Jetzt ist das Ganze in dem Topf, wo es kocht, wir konnen also rucktransformieren underhalten die Losung:

y = −Kmv2

G2µ2· 1 +

Kv

Gµ· t +

Kmv2

G2µ2· exp

(−Gµ

mvt

)(10.11)

Dies Ergebnis sieht nicht gerade vielversprechend aus, dabei enthalt es alle Informa-tionen, die uns das Rutschen erklart. Wir mussen es nur finden. Wir fragen nach demBeginn des Vorgangs, was geschieht in dem Moment, wo wir auf Glatteis geraten. Alsowerden wir nur kleine Zeiten betrachten.Dazu entwickeln wir die Exponentialfunktion in eine Reihe, wie wir sie ja im Anfangs-studium kennen gelernt haben:

e−kt = 1− kt +k2t2

2!− k3t3

3!+

k4t4

4!± · · ·

Das setzen wir oben ein und werden Erstaunliches feststellen:

y(t) =Kmv2

G2µ2

(−1 + 1− Gµ

mvt +

12

G2µ2

m2v2t2 − 1

6G3µ3

m3v3t3 ± · · ·

)+

Kv

Gµt

=12

K

mt2 − 1

6GKµ

m2vt3 ± · · ·

Page 348: 3486584472_Mathem

10.2 Warum ein Auto bei Glatte schleudert 335

Die Losung enthalt also als erstes einen Term mit t2 und dann nur noch Terme mithoheren Potenzen in t.Physikalisch laßt sich das folgendermaßen deuten: Fur kleines t > 0 ist t3 t2. ZuBeginn des Wegrutschens, also in der Tat fur kleines t, kann daher der zweite Termvernachlassigt werden. Im ersten Term steckt aber kein µ drin. Das bedeutet, daß derRutschbeginn nicht mehr von der Gleitreibung beeinflußt wird. Es ist praktisch ein rei-bungsfreies Abdriften moglich. Jede noch so kleine Unebenheit oder seitliche Windboekann dieses Querrutschen verursachen. Dann aber ist die Bewegung gleichmaßig be-schleunigt, wie der t2–Term sagt. Und genau das spurt man und es ist schrecklichunangenehm, wenn man ins Schleudern gerat.Dieser fur den Autoverkehr so verhangnisvolle Sachverhalt hat aber bei anderen Ge-legenheiten seine Vorteile.

• So wissen wir jetzt, warum man beim Brotschneiden das Messer hin- und herbe-wegt. Eigentlich will man ja nach unten schneiden. Durch die seitliche Bewegungist aber die Reibung fur das senkrechte Schneiden praktisch aufgehoben, und wirkommen leicht nach unten. Das ist ja auch das Prinzip jedes Sagevorgangs, auchder Kreissage.

• Jeder, der mit einer Bohrmaschine hantiert hat, weiß, daß sich der Bohrer amEnde gerne festfrißt. Man kann ihn aber leicht wieder herausziehen, wenn mandie Bohrmaschine weiter drehen laßt.

• Die Autoindustrie bemuht sich zur Zeit intensiv um eine ASR, eine Anti-Schlupf-Regulierung. Sie dient derzeit aber nur zum Anfahren bei Glatteis und nutztlediglich aus, daß die Gleitreibung deutlich kleiner als die Haftreibung ist. Sievermeidet also das Durchdrehen der Rader beim Anfahren. Es ware aber auchsinnvoll, sie wahrend der Fahrt zur Verfugung zu haben. Wenn das uberausnachteilige Durchdrehen oder auch das Blockieren der Rader und damit dasRutschen verhindert werden konnte, ware sicherlich mancher Unfall vermeidbar.

Nach diesem kleinen Ausflug in ein Anwendungsgebiet kommen wir zuruck zu denDifferentialgleichungen. Oben bei dem Beispiel haben wir ausgenutzt, daß wir eineexakte Losung mittels Laplace–Transformation berechnen konnten. Das wird aber inden meisten praktischen Fallen uberhaupt nicht denkbar sein. Eine exakte Losungwird fur die allermeisten technischen Probleme stets ein Wunschtraum bleiben. Wirwerden uns daher um Ideen kummern, wie wir eine Naherungslosung finden konnen.

10.2.1 Explizite Differentialgleichungen n-ter Ordnung

Allgemein konnen wir eine Differentialgleichung so beschreiben:

Definition 10.2 Eine gewohnliche Differentialgleichung ist eine Gleichung, in dereine unbekannte Funktion y(x) der einen unabhangigen Variablen x zusammen mitihren Ableitungen y ′(x), y ′′(x) usw. steht, also eine Gleichung der Form

F (x, y(x), y ′(x), . . . , y(n)) = 0 (10.12)

Page 349: 3486584472_Mathem

336 10 Numerik von Anfangswertaufgaben

mit einer allgemeinen Funktion F von n + 2 Variablen.

Hier haben wir als letzte Ableitung die n–te eingetragen. Die hochste vorkommendeAbleitung bekommt einen Namen:

Definition 10.3 Die Ordnung der hochsten vorkommenden Ableitung nennen wir dieOrdnung der Differentialgleichung.

Unsere allgemeine Differentialgleichung ist also von n–ter Ordnung. Leider konnenwir fur solch einen allgemeinen Typ keine gemeinsame Theorie aufstellen, in der wirmitteilen, unter welchen Bedingungen die Aufgabe uberhaupt losbar ist, vielleicht ge-nau eine Losung besitzt usw. Wir mussen die Aufgabe etwas einschranken. Behandeltwerden nur explizite Differentialgleichungen, also vom Typ

y (n)(x) = f(x, y(x), y ′(x), . . . , y(n−1)(x)).

Um zu sehen, wie einschrankend das ’explizit‘ ist, betrachten wir folgende Differenti-algleichung:

y ′(x) + (y ′)2(x) ·√

y(x)− ln y(x) = 0.

Sie laßt sich nicht explizit nach y ′(x) auflosen, jedenfalls ist es dem Autor nicht ge-lungen. Solche Gleichungen konnen wir also mit unserer Theorie nicht erfassen.

10.2.2 Umwandlung Differentialgleichung n–ter Ordnung in System1. Ordnung

Unser Ziel ist es, Verfahren vorzustellen, mit denen gewohnliche Differentialgleichun-gen naherungsweise gelost werden konnen. Oben haben wir die Einschrankung explizitkennengelernt. Sie ist noch nicht ausreichend, wir mussen uns noch weiter spezialisie-ren, werden aber feststellen, daß dies keine wirkliche Einschrankung bedeutet. Ha-ben wir eine explizite Differentialgleichung n–ter Ordnung vorliegen, so konnen wirnaturlich nicht erwarten, sie in eine Differentialgleichung erster Ordnung uberfuhrenzu konnen. Wir schaffen es aber leicht, aus ihr ein System von n Differentialgleichungenerster Ordnung herzustellen. Das geht so.Betrachten wir eine allgemeine Differentialgleichung n–ter Ordnung

y (n)(x) = f(x, y(x), y ′(x), . . . , y (n−1)(x)). (10.13)

Wir suchen eine Differentialgleichung der Form

y ′(x) = f(x, y(x)) (10.14)

mit y(x) = (y1(x), . . . , yn(x)) und f(x, y(x)) = (f1(x, y(x)), . . . , fn(x, y(x))). Wirbrauchen also Funktionen y1 bis yn und f1 bis fn.

Page 350: 3486584472_Mathem

10.2 Warum ein Auto bei Glatte schleudert 337

Dazu setzen wir

y1(x) = y(x)y2(x) = y ′(x)

...yn(x) = y (n−1)(x)

Durch schlichtes Ableiten auf beiden Seiten erhalten wir sofort das System

y ′1(x) = y2(x) = f1(x, y(x))y ′2(x) = y3(x) = f2(x, y(x))

......

y ′n(x) = y (n)(x) = f(x, y1(x), y2(x), . . . , yn(x)) = fn(x, y(x))

Ein Beispiel mag die Leichtigkeit der Aufgabe verdeutlichen.

Beispiel 10.4 Wir betrachten folgende Differentialgleichung

y ′′′(x) + xy ′′(x)− y ′(x) + 4y(x) = x2

und fuhren sie auf ein System von Differentialgleichungen erster Ordnung zuruck.

Zunachst schreiben wir sie als explizite Gleichung, indem wir sie nach y ′′′(x) auflosen:

y ′′′(x) = −xy ′′(x) + y ′(x)− 4y(x) + x2

Da sie von dritter Ordnung ist, brauchen wir drei Funktionen y1, y2 und y3. Wir setzen

y1(x) = y(x), y2(x) = y ′(x), y3(x) = y ′′(x).

Damit erhalten wir das System

y ′1(x) = y2(x) = f1(x, y(x))y ′2(x) = y3(x) = f2(x, y(x))y ′3(x) = −xy3(x) + y2(x)− 4y1(x) + x2 = f3(x, y(x))

Wir ziehen folgendes Fazit:

Jede explizite Differentialgleichung n–ter Ordnung kann in ein System vonexpliziten Differentialgleichungen 1. Ordnung zuruckgefuhrt werden.

So wissen wir nun, wie wir mit einer expliziten Differentialgleichung hoherer als er-ster Ordnung umgehen. Wir konnen uns daher beschranken auf die Behandlung von(Systemen von) Differentialgleichungen erster Ordnung.Wir sollten unbedingt erwahnen, daß die Losung dieses Systems uns zuviel Informationliefert. Zunachst erhalten wir y1(x) als unsere gesuchte Losung. Daneben bekommenwir aber noch die Funktionen y2(x) und y3(x), also die Ableitungen y ′(x) und y ′′(x)(allgemein y (n)(x)). Vielleicht kann man ja diese Zusatzinformation auch verwerten.

Page 351: 3486584472_Mathem

338 10 Numerik von Anfangswertaufgaben

10.3 Aufgabenstellung

Nach diesen Vorbemerkungen ist also klar, wie die Differentialgleichungen, mit denenwir uns befassen wollen, auszusehen haben.Gegeben sei das folgende explizite Differentialgleichungssystem 1. Ordnung:

y ′(x) = f(x, y(x)) (10.15)

Kommt in einer Gleichung eine Ableitung der gesuchten Funktion vor, so muß man jaim Prinzip einmal integrieren, um die Losung zu ermitteln. Bekanntlich tritt dabei eineIntegrationskonstante auf, die wir frei wahlen konnen. Bei hoheren Ableitungen tretenentsprechend mehr Integrationskonstanten auf. Das bedeutet, daß unsere Gleichungnicht nur genau eine Losung besitzt, sondern wir konnen vielleicht sogar unendlichviele Losungen bestimmen. Das ist nicht nur theoretisch unangenehm, sondern sturzteinen Computer normalerweise in hochste Verwirrung. Der will immer genau eineLosung finden.Wir retten uns aus dieser Misere, indem wir weitere einschrankende Bedingungenhinzufugen. Dazu wahlen wir in diesem Abschnitt sog. Anfangsbedingungen. Auchdiese wollen wir gleich ganz allgemein formulieren, orientieren uns aber zunachst aneinfachen Beispielen.

Beispiel 10.5

1. Ist die Differentialgleichung von erster Ordnung, so bietet es sich an, an ei-ner Stelle x0 im betrachteten Intervall den Wert der gesuchten Funktion y(x)vorzuschreiben:

y(x0) = y0

2. Ist die Differentialgleichung von n–ter Ordnung, n > 1, so kann man n Be-dingungen stellen, z. B. also an einer Stelle x0 im betrachteten Intervall nebendem Funktionswert auch noch die Werte der ersten bis zur n− 1–ten Ableitungvorschreiben:

y(x0) = y0, y ′(x0) = y1, . . . , y(n−1)(x0) = yn−1

3. Aber auch beliebige Kombinationen dieser Ableitungswerte sind als Bedingungvorstellbar:

y2(x0) + y ′(x0)−√

3y(x0)− ln y ′(x0) = 0

Damit wollen wir nun allgemein festlegen, was wir unter Anfangsbedingungen verste-hen.

Page 352: 3486584472_Mathem

10.4 Zur Existenz und Einzigkeit einer Losung 339

Definition 10.6 Unter Anfangsbedingungen fur eine gewohnliche Differentialgleichungn–ter Ordnung verstehen wir n Gleichungen der Form

A1[y(x0), y ′(x0), . . . , y(n−1)(x0)] = 0A2[y(x0), y ′(x0), . . . , y(n−1)(x0)] = 0

...An[y(x0), y ′(x0), . . . , y(n−1)(x0)] = 0

Unsere damit entstehende Aufgabe erhalt einen eigenen Namen:

Definition 10.7 Eine gewohnliche explizite Differentialgleichung erster Ordnung zu-sammen mit Anfangsbedingungen nennen wir eine Anfangswertaufgabe (AWA). Siehat also die Form

y ′(x) = f(x, y(x)) mit y(x0) = y0, (10.16)

wobei wir mit dem Vektorpfeil andeuten, daß es sich evtl. um ein System von Diffe-rentialgleichungen handeln kann.

10.4 Zur Existenz und Einzigkeit einer Losung

Bei der Losung einer solchen Anfangswertaufgabe treten i.a. Parameter auf. Die ent-stehen dadurch, daß man ja eigentlich integrieren muß, um die Losung zu ermitteln.Es sind also die Integrationskonstanten, bei einem System n–ter Ordnung gerade nStuck, die wir noch frei wahlen konnen. Als Losung ergibt sich damit eine ganze Scharvon Kurven. Mit der oder den Anfangsbedingungen wahlen wir dann eine einzelneLosung aus dieser Gesamtheit aus.

Beispiel 10.8 Wir betrachten die AWA

y ′(x) = y(x) mit y(0) = 1.

Die Differentialgleichung y ′(x) = y(x) hat als Losung die Schar y(x) = c · ex, in derc ∈ R eine beliebige Konstante ist. Die Anfangsbedingung y(0) = 1 fuhrt auf c = 1,also auf die einzige Losung y(x) = ex.

Beispiel 10.9 Wir betrachten die AWA

y ′(x) =√

y(x) mit y(0) = 0.

Offensichtlich ist y(x) = 0 eine Losung der DGl, die auch der Anfangsbedingunggenugt. Aber es ist nicht schwer, eine weitere Losung zu finden. Fur jedes c ∈ R ist

y(x) =

0 0 < x < c,14 (x− c)2 x ≥ c

Page 353: 3486584472_Mathem

340 10 Numerik von Anfangswertaufgaben

eine Losung. Also hat die Aufgabe unendlich viele Losungen.Genau diese Fragen nach Existenz und Einzigkeit einer Losung werden von vielenIngenieuren als typisch mathematisch abgetan. Dabei wurde jeder Anwender mit sei-ner Rechenkunst scheitern, wenn er eine Aufgabe behandelt, die gar keine Losungbesitzt. Auch sind Aufgaben mit vielen Losungen nicht gerade computerfreundlich.Dieser Kerl kann ja nicht entscheiden, welche Losung die richtige ware. Also wird erin der Regel mit error antworten. Wir wollen also nicht nur aus mathematischemInteresse, sondern auch zur Hilfe fur den Anwender nach Moglichkeiten suchen, wieman einer Aufgabe von vorne herein ansieht, ob sie uberhaupt losbar ist. Mit welchenEinschrankungen muß man leben, damit wir genau eine Losung haben? Und welchenFehler hat unser Beispiel 10.9?

Tatsachlich hat Peano2 eine recht einfache Bedingung aufgestellt, mit der man schonvor jeder weiteren Rechnung prufen kann, ob es sich uberhaupt lohnt, weiter zu ar-beiten, ob es also eine Losung gibt.

Satz 10.10 (Existenzsatz von Peano) Sei f stetig im Gebiet G ⊆ Rn+1 und sei

(x0, y0) ∈ G. Dann gibt es ein δ > 0, so daß die Anfangswertaufgabe

y ′(x) = f(x, y(x)), y(x0) = y0

(mindestens) eine Losung im Intervall [x− δ, x + δ] besitzt.

Einfach die Stetigkeit der rechten Seite reicht aus, um sicher eine Losung zu finden. Al-so schon, nur in einer kleinen Umgebung, unter δ versteht ja jeder Mathematiker etwasfurchtbar kleines. Aber immerhin, das kann man doch auch als Anwender wenigstensmal kurz in Augenschein nehmen, bevor man losrechnet. Wir sollten zum Beweis nurbemerken, daß hier trefflich das Eulersche Polygonzug-Verfahren eingesetzt werdenkann. Wir wollen das aber erst spater im Rahmen der wirklichen Numerik einfuhren.

Stetigkeit ist eine recht schwache Bedingung. Sie reicht fur die Existenz, aber auchnicht weiter, wie uns das Beispiel 10.9 gelehrt hat. Die folgende Definition nennt eineweitere leicht nachprufbare Bedingung, mit der wir erschopfend Antwort auf die obigenFragen nach genau einer Losung geben konnen.

Definition 10.11 (Lipschitz–Bedingung) Es sei G ⊆ R2 ein Gebiet. Wir sagen

dann, daß eine Funktion f : G → R bezuglich ihrer zweiten Variablen einer Lipschitz–Bedingung3 genugt, wenn es eine Konstante L > 0 gibt, so daß gilt:

|f(x, y1)− f(x, y2)| ≤ L · |y1 − y2| fur alle (x, y1), (x, y2) ∈ G. (10.17)

2Peano, G. (1858 – 1932)3Lipschitz, R. (1832 – 1903)

Page 354: 3486584472_Mathem

10.4 Zur Existenz und Einzigkeit einer Losung 341

Vergleichen wir diese Lipschitzbedingung bitte mit der Kontraktionsbedingung (6.20)fur Systeme im Kapitel ”Nichtlineare Gleichungen“. Dort mußte die Funktion f bezug-lich samtlicher Variablen eine solche Lipschitz–Eigenschaft besitzen, ja, damit es kon-trahiert, mußte dieses L auch noch kleiner als 1 sein. Das ist hier nicht notig. Nur be-zogen auf die zweite Variable brauchen wir eine Beschranktheit mit einer Zahl L > 0.Wir sollten kurz auf Systeme von Differentialgleichungen erster Ordnung eingehen undschildern, wie sich die Lipschitz–Bedingung dahin ubertragt.

Definition 10.12 (Lipschitz–Bedingung fur Systeme) Es sei f eine auf dem Ge-biet G := (x, y) : x0 < x < b, y ∈ G ⊆ R

n ⊆ Rn+1 erklarte Funktion. Wir sagen

dann, daß f(x, y) : G → R bezuglich y einer Lipschitz–Bedingung genugt, wenn eseine Konstante L > 0 gibt, so daß gilt:

‖f(x, y1)− f(x, y2)‖ ≤ L · ‖y1 − y2‖ fur alle (x, y1), (x, y2) ∈ G. (10.18)

Als Norm ‖ ‖ verwenden wir dabei eine Vektornorm des Rn, wie wir sie im Kapitel

”Lineare Gleichungssysteme“ eingefuhrt haben. Da im endlich dimensionalen Vektor-raum R

n alle Normen aquivalent sind, konnen wir uns die raussuchen, die wir ambequemsten berechnen konnen.

Seinerzeit hatten wir auch schon eine hinreichende Bedingung gefunden zum Nachweisder Kontraktion: die erste Ableitung mußte betraglich kleiner als 1 sein. Das konnenwir hierher analog ubertragen und erhalten:

Satz 10.13 (Hinreichende Bedingung fur Lipschitz–Bedingung) Ist die Funk-tion f als Funktion der zwei Variablen x und y stetig und partiell nach y differenzierbarund bleibt diese partielle Ableitung dem Betrage nach beschrankt im Gebiet G, gibt esalso eine Konstante K > 0 mit∣∣∣∣∂f(x, y)

∂y

∣∣∣∣ < K (10.19)

so erfullt f bezgl. y eine Lipschitz–Bedingung.

Beweis: Diese hinreichende Bedingung wird uns vom Mittelwertsatz beschert. Danamlich f nach Voraussetzung eine stetige partielle Ableitung bezgl. y besitzt, gilt

f(x, y1)− f(x, y2) =∂f

∂y(x, y)(y1 − y2) mit y1 < y < y2.

Nennen wir nun unsere Schranke der partiellen Ableitung K, ist also∣∣∣∂f∂y

∣∣∣ < K, sowahlen wir L = K und haben eine Lipschitz–Konstante gefunden.

Auch diese hinreichende Bedingung konnen wir auf Systeme von Differentialgleichun-gen erster Ordnung ubertragen. Die Rolle der 1. Ableitung wird dann von der Funk-tionalmatrix ubernommen.

Page 355: 3486584472_Mathem

342 10 Numerik von Anfangswertaufgaben

Satz 10.14 (Hinreichende Bedingung bei Systemen) Sind samtliche ersten par-

tiellen Ableitungen∂fi

∂yjbeschrankt, so erfullt f bezgl. y eine Lipschitz–Bedingung. Eine

Lipschitzkonstante ist dann die Zahl M , die die Funktionalmatrix in einer beliebigenMatrixnorm beschrankt:∥∥∥∥∥

∂ f

∂y

∥∥∥∥∥ < M (10.20)

Diese Lipschitz–Eigenschaft schafft die Losung herbei. Picard4 und Lindelof5 habenden folgenden Satz bewiesen:

Satz 10.15 (Globaler Existenz– und Einzigkeitssatz) Es sei G ein Gebiet desR

2 und f : G → R eine stetige Funktion, die bezgl. der zweiten Variablen y einerLipschitz–Bedingung genugt, dann gibt es zu jedem Punkt (x0, y0) ∈ G genau eine ste-tig differenzierbare Funktion y = y(x), die der folgenden Anfangswertaufgabe genugt:

y ′(x) = f(x, y(x)) mit y(x0) = y0 (10.21)

Bevor wir etwas zum Beweis sagen, wollen wir unser boses Beispiel 10.9 analysieren.Probieren wir es mit der hinreichenden Bedingung. Es ist

fy(x, y) =

1

2√

y fur y > 0− 1

2√−y

fur y < 0

Oh, oh, fur y = 0 haben wir keine Ableitung, dort ist unsere hinreichende Bedingungalso nicht anwendbar. Aber genau dort liegt ja das Problem, da wir ja als Anfangs-punkt einen Punkt auf der x–Achse vorgeben. Versuchen wir unser Gluck mit derOriginal–Lipschitz–Bedingung.

|f(x, y1)− f(x, y2)| =∣∣√|y1| −

√|y2|∣∣ =

∣∣∣∣∣|y1| − |y2|√|y1|+

√|y2|

∣∣∣∣∣=

1√|y1|+√|y2|

∣∣|y1| − |y2|∣∣

≤ 1√|y1|+

√|y2|

(|y1 − y2|) .

Frage: Konnen wir den umrahmten Ausdruck als L verwenden, bleibt er also be-schrankt? Wegen des Anfangspunktes auf der x–Achse setzen wir y2 = 0. Wenn wirdann noch y1 → 0 streben lassen, geht der Nenner gegen 0, der ganze Bruch also uberjede Schranke hinweg. Auch hiermit ist kein Blumentopf zu gewinnen. So wie wir esmit den unendlich vielen Losungen bereits gesehen haben, war hier von vorne hereinkeine Einzigkeit zu erwarten.

4Picard, E. (1856 – 1941)5Lindelof, E. (1870 – 1946)

Page 356: 3486584472_Mathem

10.4 Zur Existenz und Einzigkeit einer Losung 343

Den Beweis des Satzes wollen wir hier nicht komplett vorstellen, sondern nur denwesentlichen Punkt nennen, mit dem der Beweis vollbracht wird. Er fußt auf der

”Picard–Iteration“. Es ist ein Verfahren, mit dem in den Anfangen der Numerik sogarversucht wurde, eine Naherungslosung einer Anfangswertaufgabe zu erhalten.Wir integrieren die Differentialgleichung y ′(x) = f(x, y(x)) nach x:∫ x

x0

y ′(ξ) dξ =∫ x

x0

f(ξ, y(ξ)) dξ.

Wir beachten dabei, daß wir die Integrationsvariable umbenennen mußten, weil wir alsobere Grenze x wahlen. So entsteht auf beiden Seiten wieder eine Funktion von x. Daslinks stehende Integral konnen wir leicht ausrechnen, da wir ja uber eine Ableitungintegrieren. Nach dem Hauptsatz der Differential- und Integralgleichung folgt:

y(x)− y(x0) =∫ x

x0

f(ξ, y(ξ)) dξ.

Mit der Anfangsbedingung erhalten wir damit folgende Integralgleichung, die nachVolterra6 benannt ist:

y(x) = y0 +∫ x

x0

f(ξ, y(ξ)) dξ. (10.22)

Dies ist eine Integralgleichung zweiter Art, weil die gesuchte Funktion einmal im In-tegral auftaucht, dann aber ein zweites Mal außerhalb, namlich auf der linken Seite.Vielleicht erinnern wir uns an eine ahnlich aufgebaute Gleichung bei den nichtlinea-ren Gleichungen oder beim Gesamt– und Einzelschrittverfahren, wo auch die gesuchteLosung links und rechts in der Gleichung stand. Eine solche Gleichung deuten wir alsFixpunktaufgabe und versuchen, sie naherungsweise zu losen, indem wir eine beliebigeerste Losung y0(x) irgend woher greifen, diese rechts einsetzen und damit links eineneue Naherung y1(x) erhalten und dann genau so weiter fortfahren. So erhalten wiry2(x), y3(x), . . . und hoffen, daß diese Folge gegen unsere gesuchte Losung konvergiert.Genau dies wird dann im Satz von Picard–Lindelof nachgewiesen. Zum Aufbau desVerfahrens liegt es nahe, als erste Naherung die konstante Funktion y0(x) = y0 mit y0

aus der Anfangsbedingung zu wahlen. Damit lautet das Verfahren:

Picard–Iteration

Wahle y0(x) = y0 und bilde

y1(x) = y0 +∫ x

x0

f(ξ, y0(ξ)) dξ

y2(x) = y0 +∫ x

x0

f(ξ, y1(ξ)) dξ

...

6Volterra, V. (1860 – 1940)

Page 357: 3486584472_Mathem

344 10 Numerik von Anfangswertaufgaben

Uben wir das Verfahren an einem Beispiel.

Beispiel 10.16 Gegeben sei die Anfangswertaufgabe

y ′(x) = 2x + y(x), mit y(0) = 1.

Wir wollen eine Naherung an der Stelle x = 0.5 mit Hilfe der Picard–Iteration be-stimmen.

Wir wollen die Gelegenheit wahrnehmen und hier wenigstens an einem Beispiel kurzdemonstrieren, wie man sich bei solch einer einfachen Aufgabe die exakte Losung be-schaffen kann. Es ist ja eine lineare Differentialgleichung mit konstanten Koeffizienten.Die Aufgabe gliedert sich in vier Teile:

1. Allgemeine Losung der homogenen Differentialgleichung

Wir betrachten die Differentialgleichung

y ′(x)− y(x) = 0.

Hier hilft unser guter alter Ansatz

yhom(x) = eλx.

Setzen wir diesen Ansatz in die homogene DGl ein, so erhalten wir

λ · eλx − eλx = (λ− 1) · eλx = 0.

Da die Exponentialfunktion nirgendwo Null wird, muß der Vorfaktor verschwin-den, es ist also

λ = 1.

Die allgemeine Losung der homogenen DGL lautet damit

yhom(x) = c · ex.

2. Eine spezielle Losung der nichthomogenen Differentialgleichung

Am besten ware es, wir konnten eine solche spezielle Losung raten oder vomNachbarn abschreiben. Wenn alles nichts hilft, mussen wir arbeiten. Die Varia-tion der Konstanten ist ein probates Mittel. Also ran an den Ansatz

yspez(x) = C(x) · ex.

Eingesetzt in die nichthomogene DGL folgt

C ′(x) · ex + C(x) · ex = 2x + C(x) · ex.

Page 358: 3486584472_Mathem

10.4 Zur Existenz und Einzigkeit einer Losung 345

Hier bleibt ubrig

C ′(x) · ex = 2x =⇒ C ′(x) = 2x · e−x =⇒ C(x) = 2e−x(−x− 1).

Das ergibt folgende spezielle Losung

yspez(x) = 2e−x(−x− 1) · ex = −2x− 2.

3. Allgemeine Losung der nichthomogenen Differentialgleichung

Die allgemeine Losung ist nun einfach die Summe aus yspez und yhom

yallg(x) = yspez(x) + yhom(x) = −2x− 2 + c · ex.

4. Anpassen der Anfangsbedingung Wir setzen die Anfangsbedingung ein, umdamit die Konstante c zu bestimmen.

yallg(0) = 1 = −2 · 0− 2 + c · e0 = −2 + c =⇒ c = 3.

Damit erhalten wir die Losung, die auch noch der Anfangsbedingung genugt

y(x) = −2x− 2 + 3 · ex. (10.23)

Diese Losung wollen wir nun mit dem Picard–Verfahren annahern. So konnen wirspater beides gut vergleichen. Hier ist x0 = 0 und y0 = 1. Damit laßt sich die Diffe-rentialgleichung sofort als Integralgleichung schreiben:

y(x) = y0 +∫ x

0(2ξ + y(ξ)) dξ.

Als Startfunktion fur die Iteration

y1(x) = y0 +∫ x

x0

f(ξ, y0(ξ)) dξ

wahlen wir die konstante Funktion y0(x) = y0, die Konstante ist also der vorgegebeneAnfangswert. Dann ergibt sich y1(x) zu

y1(x) = 1 +∫ x

0(2ξ + 1) dξ = 1 + x + x2.

Weil das so leicht ging, machen wir weiter:

y2(x) = 1 +∫ x

0(2ξ + y1(ξ)) dξ = 1 +

∫ x

0(2ξ + 1 + ξ + ξ2) dξ

= 1 + x +3x2

2+

x3

3

y3(x) = 1 +∫ x

0(2ξ + y2(ξ)) dξ = 1 +

∫ x

0

(2ξ + 1 + ξ +

3ξ2

2+

ξ3

3

)

= 1 + x +3x2

2+

x3

2+

x4

12

Page 359: 3486584472_Mathem

346 10 Numerik von Anfangswertaufgaben

y4(x) = 1 +∫ x

0(2ξ + y3(ξ)) dξ = 1 +

∫ x

0

(2ξ + 1 + ξ +

3ξ2

2+

ξ3

2+

ξ4

12

)dξ

= 1 + x +3x2

2+

x3

2+

x4

8+

x5

60

y5(x) = 1 +∫ x

0(2ξ + y4(ξ)) dξ = 1 +

∫ x

0

(2ξ + 1 + ξ +

3ξ2

2+

ξ3

2+

ξ4

8+

ξ5

60

)dξ

= 1 + x +3x2

2+

x3

2+

x4

8+

x5

40+

x6

360

Um nun eine Naherung an der Stelle x = 0.5 zu bestimmen, berechnen wir y5(0.5)und erhalten

y(0.5) ≈ y5(0.5) = 1 + 0.5 + 0.375 + 0.0625 + 0.078125 + 0.0007812 = 1.9460937.

Man sieht, daß die einzelnen Summanden immer kleiner werden, so daß am Schluß nurnoch eine Zahl in der vierten Dezimale hinzuaddiert wird. Man kann also annehmen,daß das Ergebnis der Summation zu einer guten Naherung reicht. Und in der Tat sagtuns ja das exakte Ergebnis (10.23)

y(0.5) = −2 · 0.5− 2 + 3 · e0.5 = 1.94616381.

Kommen wir nach der kleinen Abschweifung zuruck zum Existenz- und Einzigkeits-satz. Das folgende geradezu simple Beispiel sollte uns sehr zu denken geben.

Beispiel 10.17 Betrachten wir die AWA

y ′(x) = y2(x), mit y(0) = 1.

Naturlich hat sie genau eine Losung

y(x) =1

1− x

wie man unschwer nachrechnet. Wenn wir aber die Lipschitz–Bedingung oder diehinreichende Bedingung anwenden wollen, so scheitern wir, wenn wir uns nicht auf einendliches Gebiet beschranken. Es ist namlich

f(x, y) = y2 =⇒ ∂f

∂y= 2y.

Dieser Wert 2y strebt aber dem Betrage nach gegen ∞, wenn wir die gesamte (x, y)–Ebene als Gebiet zulassen. Auch Original–Lipschitz fuhrt nicht weiter:

|f(x, y1)− f(x, y2)| = |y21 − y2

2| = |y1 + y2| · |y1 − y2|.Auch |y1 + y2| strebt nach unendlich, wenn y1 und y2 die ganze Ebene durchstreifenkonnen.Zum Gluck reicht eine viel, viel schwachere Bedingung:

Page 360: 3486584472_Mathem

10.5 Numerische Einschritt–Verfahren 347

Satz 10.18 (Lokaler Existenz– und Einzigkeitssatz) Es sei G ein Gebiet desR

2 und f : G → R eine stetige Funktion, die bezgl. der zweiten Variablen y lokaleiner Lipschitz–Bedingung genugt, fur jeden Punkt (x, y) ∈ G gebe es also eine (viel-leicht winzig) kleine Umgebung U(x, y), in der eine Konstante L > 0 existiert mit

|f(x, y1)− f(x, y2)| ≤ L · |y1 − y2| fur alle (x, y1), (x, y2) ∈ U. (10.24)

Dann gibt es zu jedem Punkt (x0, y0) ∈ G genau eine stetig differenzierbare Funktiony : [a, b] → R, die der folgenden Anfangswertaufgabe genugt:

y ′(x) = f(x, y(x)) mit y(x0) = y0 (10.25)

Es reicht also, wenn es zu jedem Punkt eine klitzekleine Umgebung gibt, in der wirLipschitz oder auch die Beschranktheit der partiellen Ableitung haben. Diese Umge-bung muß nicht mal fur jeden Punkt die gleiche Große haben. Das ist wirklich eineschwache Bedingung. Ist denn selbst diese schwache Bedingung bei unserem Beispiel10.9 von Seite 339 nicht erfullt? Richtig, denn wir mussen ja wegen der Anfangsbedin-gung y(x0) = 0 entweder y1 oder y2 auf die x–Achse legen und den anderen Punkt aufdie x–Achse zulaufen lassen. Dann aber geht die Wurzel im Nenner auch in jeder nochso kleinen Umgebung gegen Null, der ganze Bruch also nach unendlich. Um Einzigkeitzu erreichen, mussen wir daher die x–Achse aus unserem Gebiet heraushalten und denAnfangspunkt entweder in die obere oder die untere Halbebene verlegen. Dann gehtdurch jeden Punkt (x0, y0) mit y0 = 0 genau eine Losungskurve, eben der oben schonangegebene Parabelbogen.

10.5 Numerische Einschritt–Verfahren

Unsere bisher vorgestellten und behandelten Beispiele und auch die noch folgendenBeispiele zeigen nicht die wahre Natur. Was Ingenieure heute schon an Aufgaben zulosen haben, sieht weit komplizierter aus. Da wird es in der Regel uberhaupt keineChance geben, eine exakte Losung zu finden. Hier kommt die numerische Mathema-tik ins Spiel. Wenn die Aufgaben so ubermachtig sind, daß wir sie nicht exakt losenkonnen, dann lassen wir unsere Numerik–Puppen tanzen. Mit ihren Verfahren kannman wenigstens eine Naherungslosung finden. Aber prompt stellen sich folgende Fra-gen:

1. Hat die Naherungslosung etwas mit der richtigen exakten Losung der Aufgabezu tun, verdient sie also den Namen Naherungslosung?

2. Kann man erreichen, daß man der gesuchten exakten Losung beliebig nahekommt? Oder anders gefragt, kann man mit dem Naherungsverfahren eine Folgevon Naherungslosungen konstruieren, die gegen die exakte Losung konvergiert?

3. Kann man vielleicht sogar etwas uber die Konvergenzgeschwindigkeit aussagen?

Page 361: 3486584472_Mathem

348 10 Numerik von Anfangswertaufgaben

Im folgenden betrachten wir die Anfangswertaufgabe (AWA)

y ′(x) = f(x, y(x)) mit y(x0) = y0 (10.26)

und versuchen, sie naherungsweise zu losen. Dazu werden wir verschiedene Verfahren,die von klugen Leuten vorgeschlagen wurden, vorstellen, an Beispielen durchrechnen,um dann auch noch obige Fragen zu beantworten.Wir werden generell voraussetzen, daß unsere AWA genau eine Losung besitzt, damitder kleine Computer nicht weint, weil er nicht rechnen kann.Gemaß der Anfangsbedingung werden wir beim Punkt x0, y0 starten. Zunachst gebenwir uns eine Schrittweite h > 0 vor und bilden damit folgende Stutzstellen:

x0 vorgegeben, x1 := x0 + h, x2 = x1 + h = x0 + 2h, . . . , xi = x0 + ih, . . .

Falls wir eine Naherung in einem abgeschlossenen Intervall [a, b] suchen, wobei alsAnfangsstelle a = x0 gesetzt wird, so wahlen wir eine naturliche Zahl N und setzen

h :=b− a

N=⇒ x0 = a, x1 = a + h, . . . , xN = a + N · h = b.

Damit haben wir das Intervall [a, b] in N aquidistante Teilintervalle zerlegt.Mit den durch die Anfangsbedingung gegebenen Werten x0 und y0 = y(x0) suchenwir jetzt Naherungswerte fur die im allgemeinen unbekannte Losung y(x) an denStutzstellen x1, x2,. . . .

Definition 10.19 Bezeichnen wir den Naherungswert fur y(xi) mit yi, i = 1, 2, . . .,so nennen wir folgende Vorschrift zur Berechnung von yi+1 ein Einschritt–Verfahren:

yi+1 = yi + h · Φ(xi, yi;h). (10.27)

Die Funktion Φ(x, y, ;h) ist dabei die Verfahrensfunktion, die fur die Berechnung vonyi+1 nur an der Stelle xi, yi, also einen Schritt zuruck ausgewertet werden muß. Dar-um also Einschritt–Verfahren. Wir werden spater auch noch Mehrschritt–Verfahrenkennenlernen.

10.5.1 Euler–Polygonzug–Verfahren

Eines der einfachsten Verfahren zur naherungsweisen Losung einer Anfangswertaufga-be stammt von Leonhard Euler7. Er benutzte dabei eine Idee von Brook Taylor8, der1712, also mit 27 Jahren, die nach ihm benannte Reihendarstellung differenzierbarerFunktionen gefunden hatte. Wir benutzen sie in der folgenden Fassung:

y(x1) = y(x0 + h) = y(x0) + h · y ′(x0) +h2

2y ′′(ξ),

7Euler, L. (1707 – 1783)8Taylor, B. (1685 – 1731)

Page 362: 3486584472_Mathem

10.5 Numerische Einschritt–Verfahren 349

wobei ξ eine unbekannte Stelle mit x0 < ξ < x1 ist. Wir ignorieren nun diesen letztenSummanden und benutzen den Restausdruck als Naherung fur y(x1), also

y(x1) ≈ y1 = y0 + h · y ′(x0).

Indem wir hier noch die Differentialgleichung verwenden, gelangen wir so immer schonSchrittchen vor Schrittchen zum Verfahren von Euler:

Euler–Polygonzug–Verfahren

y0 = y(x0),yi+1 = yi + h · f(xi, yi), i = 0, 1, 2, . . . . (10.28)

Das schreit nach einem Beispiel, mit dessen Hilfe wir auch die sehr anschauliche Vor-gehensweise graphisch erlautern wollen.

Beispiel 10.20 Wir betrachten die Anfangswertaufgabe

y ′(x) = −x · y(x), mit y(0) = 1.

Wir denken zuerst kurz nach, ob es uberhaupt eine Losung gibt und ob es dann viel-leicht auch keine zweite mehr gibt. Dann berechnen wir eine Naherung an die exakteLosung mittels Euler.

Die Lipschitzbedingung uberprufen wir mit Hilfe der partiellen Ableitung nach y:∂f

∂y= −x

Nun, offensichtlich gibt es fur jeden Punkt (x, y) eine kleine Umgebung, in der dieseAbleitung beschrankt bleibt. Und schon wissen wir, daß sich jede weitere Anstrengungzur Losung der Aufgabe lohnt. Es gibt namlich nur genau eine einzige Losung.Mittels Trennung der Veranderlichen, die wir hier nicht durchfuhren wollen, sonderngetrost den Anfangern uberlassen wollen, erhalt man schnell die Losung:

y(x) = e−x2

2 .

Und nun auf zum Euler–Verfahren:Nach Aufgabenstellung ist x0 = 0 und y0 := y(x0) = 1 und f(x, y) = −x · y. Wirgeben uns die Schrittweite h = 0.2 vor, legen also die Stutzstellen x1 = x0 + h = 0.2,x2 = x0+2h = 0.4, . . . fest und berechnen mit (10.28) Naherungen y1 ≈ y(x1) = y(0.2),y2 ≈= y(x2) = y(0.4), . . . Links daneben schreiben wir die Werte der exakten Losung:

y(0.2) = 0.980 ≈ y1 = y0 + 0.2 · f(0, 1) = 1 + 0.2 · 0 = 1.y(0.4) = 0.923 ≈ y2 = y1 + 0.2 · f(0.2, 1) = 1 + 0.2 · (−0.2 · 1) = 0.96y(0.6) = 0.835 ≈ y3 = y2 + 0.2 · f(0.4, 0.96) = 0.8832y(0.8) = 0.726 ≈ y4 = y3 + 0.2 · f(0.6, 0.8832) = 0.777y(1.0) = 0.6065 ≈ y5 = y4 + 0.2 · f(0.8, 0.777) = 0.653

Page 363: 3486584472_Mathem

350 10 Numerik von Anfangswertaufgaben

Abbildung 10.1: In der Skizze ist die exakte Losung y(x) = e−x2/2 der Anfangswert-aufgabe (untere Kurve) zusammen mit dem Polygonzug (oberer Linienzug) nach Eulerdargestellt.

Gleich beim ersten Schritt fangt man sich einen Fehler ein, der sich dann weiter durch-zieht. Fur diese einfache Aufgabe sieht das Ergebnis nicht gerade berauschend aus.Wir werden also nach besseren Verfahren forschen mussen.Eine Bemerkung, die wir spater im Abschnitt Konsistenz 10.6 noch eingehend erlauternwerden, wollen wir hier schon anfugen.

Bemerkung 10.21 Das war naturlich ein Trick, einfach den Term h2

2 y ′′(ξ) unterden Teppich zu kehren, weil wir die Schrittweite h immer kleiner machen wollen unddaher h2 furchtbar klein wird. Moment, was ist denn, wenn y ′′(xi) zugleich furchtbargroß wird? Es ist doch uberhaupt nicht schwer, eine Funktion hinzuschreiben, derenzweite Ableitung an einer Stelle singular wird.

Das ist die Leiche im Keller aller Verfahren, die auf dem Taylorschen Satz beruhen.Immer muß voraussgesetzt werden, daß die Ableitung im Restterm beschrankt bleibt,damit die Kleinheit von h wirksam werden kann. Fur das Euler–Verfahren bedeutetdas eine Einschrankung fur die zweite Ableitung der gesuchten Losungsfunktion. Aberwie gesagt, dat krieje mer spater.

10.5.2 Verbessertes Euler–Verfahren

Vielleicht war ja die Idee, im Punkt (xi, yi) mit der dortigen Steigung einen gan-zen Schritt durchzufuhren, ein bißchen zu grob. Im folgenden Verfahren wird dieses

0.5

0.6

0.7

0.8

0.9

1

1.1

0 0.2 0.4 0.6 0.8 1

Page 364: 3486584472_Mathem

10.5 Numerische Einschritt–Verfahren 351

Vorgehen verfeinert:

Verbessertes Euler–Verfahren

y0 = y(x0),

yi+1 = yi + h · f(

xi +h

2, yi +

h

2· f(xi, yi)

), i = 0, 1, 2, . . . . (10.29)

Wenn wir versuchen wollen, diese Formel anschaulich zu deuten, so mussen wir sievon rechts nach links sezieren. Ganz rechts der Term f(xi, yi) ist die Steigung derLosung im Punkt (xi, yi). Wir schreiten nun also nur einen halben Schritt voran mitdieser Steigung. Mit der Steigung in dem Punkt, den wir nach diesem halben Schritterreichen, vollfuhren wir dann, wieder bei (xi, yi) startend, unseren Gesamtschritt.Wie wirkt sich diese Verbesserung bei unserem Beispiel aus?

Beispiel 10.22 Wieder betrachten wir die Anfangswertaufgabe

y ′(x) = −x · y(x), mit y(0) = 1.

Mit x0 = 0, y0 = 1 und der Schrittweite h = 0.2 berechnen wir Naherungswertey1 ≈ y(x1) = y(x0 + h), y2 ≈ y(x2) = y(x0 + 2h), y3 ≈ y(x3) = y(x0 + 3h), . . .

y0 = 1y(0.2) = 0.980 ≈ y1 = y0 + h · f(x0 + h

2 , y0 + h2 · f(x0, y0))

= 1 + 0.2 · f(0.1, 1 + 0.1 · f(0, 1)) = 0.9800y(0.4) = 0.923 ≈ y2 = 0.98 + 0.2 · f(0.3, 0.98 + 0.1 · (−0.196)) = 0.9224y(0.6) = 0.835 ≈ y3 = 0.9224 + 0.2 · f(0.5, y2 + 0.1 · f(0.4, 0.9224)) = 0.8338y(0.8) = 0.726 ≈ y4 = = 0.7241y(1.0) = 0.6065 ≈ y5 = = 0.6042

Das sieht nach einer deutlichen Verbesserung aus. Tatsachlich konnen und werden wirim Abschnitt 10.6 genau das zeigen.

10.5.3 Implizites Euler–Verfahren

Man sieht es gar nicht auf den ersten Blick, aber das jetzt folgende Verfahren ist vonganzlich anderer Bauart.Wieder starten wir mit dem Satz von Taylor, machen nun aber einen Schritt vorwarts:

y(x0) = y(x1 − h) = y(x1)− h · y ′(x1) +h2

2y ′′(ξ),

Page 365: 3486584472_Mathem

352 10 Numerik von Anfangswertaufgaben

wobei wie oben ξ eine unbekannte Stelle mit x0 < ξ < x1 ist. Wiederum ignorierenwir diesen letzten Summanden, benutzen den Restausdruck als Naherung fur y(x1)und erhalten, wenn wir noch die Differentialgleichung einbeziehen:

y(x1) ≈ y1 = y0 + h · y ′(x1)= y0 + h · f(x1, y1)

Gehen wir Schritt fur Schritt weiter, so erhalten wir:

Implizites Euler–Polygonzug–Verfahren

y0 = y(x0),yi+1 = yi + h · f(xi+1, yi+1), i = 0, 1, 2, . . . . (10.30)

Ganzlich neu ist hier, daß die zu berechnende Große yi+1 sowohl links wie rechts auf-tritt. Das genau wird mit dem Begriff implizit ausgedruckt. Das Euler–Polygonzug–Verfahren von oben wird daher auch als explizites Euler–Polygonzug–Verfahren be-zeichnet. Wo liegt der Vorteil dieser Vorgehensweise? Es sieht doch eher unbrauchbaraus. Nun, an unserem sehr einfachen Beispiel werden wir gleich zeigen, wie man da-mit umgehen kann. Spater werden wir an zwei weiteren Stellen darauf naher einge-hen, einmal bei der Stabilitatsuntersuchung in 10.6.2, dann ein zweites Mal bei denPradiktor–Korrektor–Verfahren in 10.9.

Beispiel 10.23 Wieder betrachten wir die Anfangswertaufgabe

y ′(x) = −x · y(x), mit y(0) = 1.

Mit x0 = 0, y0 = 1 und der Schrittweite h = 0.2 berechnen wir Naherungswertey1 ≈ y(x1) = y(x0+h), y2 ≈ y(x2) = y(x0+2h), y3 ≈ y(x3) = y(x0+3h), . . . Allgemeinerhalten wir

yi+1 = yi + h · f(xi+1, yi+1) = yi + h · (−xi+1 · yi+1.

Diese implizite Gleichung konnen wir leicht nach yi+1 auflosen, aber das liegt naturlichkrass an dem einfachen Beispiel:

yi+1 =yi

1 + h · xi+1.

Sobald die AWA komplizierter gebaut ist, laßt sich diese Auflosung nur noch schweroder vielleicht gar nicht bewerkstelligen. Unser Rechenergebnis sieht dann so aus:

y0 = 1y(0.2) = 0.980 ≈ y1 = 1

1+0.2·0.2 = 0.9615y(0.2) = 0.923 ≈ y2 = 0.9615

1+0.2·0.4 = 0.8903y(0.2) = 0.835 ≈ y3 = 0.8903

1+0.2·0.6 = 0.7949y(0.2) = 0.726 ≈ y4 = 0.7949

1+0.2·0.8 = 0.6853y(0.2) = 0.6065 ≈ y5 = 0.6853

1+0.2·1.0 = 0.5711

Page 366: 3486584472_Mathem

10.5 Numerische Einschritt–Verfahren 353

Auch hier tritt bereits im ersten Schritt ein Fehler auf. Wahrend wir aber beim expli-ziten Euler uber der Losung blieben, bleibt der Naherungswert jetzt unter der Losung.Auch dieser Fehler wird im Laufe der weiteren Rechnung nicht kompensiert. Also aufzu noch weiteren Verbesserungen.

10.5.4 Trapez–Verfahren

Jetzt sind wir schon geubter und konnen wohl direkt das nachste Verfahren vorstellen.

Trapez–Verfahren

y0 = y(x0),

y(i + 1) = yi +h

2·[f(xi, yi) + f(xi+1, yi+1)

], i = 0, 1, 2, . . . . (10.31)

Wieder ist hier die unbekannte Große yi+1 links und rechts, also ist auch dies ein im-plizites Verfahren. Wir werden daher stets versuchen, die Formel nach yi+1 aufzulosen,was naturlich nur bei einfachen Beispielen klappt, wie eben auch bei unserm Beispiel:

Beispiel 10.24 Wieder betrachten wir die Anfangswertaufgabe

y ′(x) = −x · y(x), mit y(0) = 1,

und berechnen diesmal eine Naherungslosung mit dem Trapezverfahren.

x0 = 0, y0 = 1 und die Schrittweite h = 0.2 sind vorgegeben. Die Formel ergibt dann

yi+1 = yi − h

2· xi · yi − h

2· xi+1 · yi+1.

Aufgelost folgt mit h/2 = 0.1

yi+1 =1− 0.1 · xi

1 + 0.1 · xi+1· yi.

Hier setzen wir die gegebenen Anfangswerte ein und berechnen folgende Naherungen:

y0 = 1y(0.2) = 0.980 ≈ y1 = 1

1+0.02·1 = 0.9804y(0.2) = 0.923 ≈ y2 = 1−0.02

1+0.04·0.9804 = 0.9238y(0.2) = 0.835 ≈ y3 = 1−0.04

1+0.06·0.9238 = 0.8366y(0.2) = 0.726 ≈ y4 = 1−0.06

1+0.08·0.8366 = 0.7280y(0.2) = 0.6065 ≈ y5 = 1−0.08

1+0.1·0.7280 = 0.6090

Das Ergebnis laßt sich fast mit dem verbesserten Euler–Verfahren verwechseln. Daßdies kein Zufall ist, werden wir im Abschnitt 10.6 sehen.

Page 367: 3486584472_Mathem

354 10 Numerik von Anfangswertaufgaben

10.5.5 Runge–Kutta–Verfahren

Als letztes dieser ganzen Gruppe von Verfahren stellen wir das klassische Runge–Kutta–Verfahren vor. Es hat die meiste Verbreitung und wird gerne von Ingenieurenbenutzt, da es, wie wir sehen werden, ziemlich gute Ergebnisse liefert, was wir nichtnur am Beispiel vormachen werden, sondern auch theoretisch zeigen konnen. Es istetwas aufwendiger in seiner Anwendung, da nicht irgendwie eine Steigung verwendetwird, sondern eine Mixtur aus vier verschiedenen Steigungen. Es ist naturlich fur dieAnwendung durch Computer gedacht, und denen ist es ziemlich egal, wie lang dieFormeln sind.

Runge–Kutta–Verfahren

y0 = y(x0),k1 = f(xi, yi)

k2 = f

(xi +

h

2, yi +

h

2k1

)

k3 = f

(xi +

h

2, yi +

h

2k2

)

k4 = f (xi + h, yi + hk3)

yi+1 = yi +h

6

(k1 + 2k2 + 2k3 + k4

), i = 0, 1, 2, . . . . (10.32)

Weil die Formeln so aufwendig mit Hand zu berechnen sind, wollen wir fur unserBeispiel von oben nur mal die erste Naherung y1 ausrechnen. Die weiteren Naherungenlassen wir den kleinen Rechner machen, der freut sich schon drauf.

Beispiel 10.25 Wieder betrachten wir die Anfangswertaufgabe

y ′(x) = −x · y(x), mit y(0) = 1,

und berechnen diesmal eine Naherungslosung mit dem Runge–Kutta–verfahren.

x0 = 0, y0 = 1 und die Schrittweite h = 0.2 sind wie oben vorgegeben.Wir berechnen die Hilfsgroßen k1,. . . ,k4, die sich ja graphisch als Steigungen darstellenlassen; es sind doch Funktionswerte f(x, y) = y ′(x) laut Differentialgleichung.

k1 = f(x0, y0) = −x0 · y0 = 0

k2 = f

(x0 +

h

2, y0 +

h

2k1

)= −(x0 + 0.1) · (y0 + 0.1 · 0) = −0.1

k3 = f

(x0 +

h

2, y0 +

h

2k2

)= −(x0 + 0.1) · (y0 + 0.1 · k2) = −0.099

Page 368: 3486584472_Mathem

10.5 Numerische Einschritt–Verfahren 355

k4 = f (x0 + h, y0 + hk3) = −(x0 + 0.2) · (y0 + 0.2 · k3) = −0.19604

y1 = y0 +h

6

(k1 + 2k2 + 2k3 + k4

)= 0.9802

Das sieht nicht schlecht aus, ist aber fur eine Beurteilung zu kurz. Erst wenn wirmehrere Schritte durchfuhren, konnen wir das Ergebnis mit den anderen Verfahrenvergleichen. Unser Rechner sagt:

xi 0 0.2 0.4 0.6 0.8 1.0yexakt 1.0 0.980 0.923 0.835 0.726 0.6065

Runge–Kutta 1.0 0.980 0.923 0.835 0.726 0.6065

Hier sieht man also tatsachlich keine Unterschiede mehr zur exakten Losung. Da muß-ten wir mehrere Nachkommastellen berucksichtigen, um Abweichungen zu finden. Dasliegt naturlich auch an dem sehr einfachen Beispiel.Zum Schluß dieses einfuhrenden Abschnittes stellen wir noch einmal die Ergebnissein einer gemeinsamen Tabelle zusammen.

xi 0 0.2 0.4 0.6 0.8 1.0yexakt 1.0 0.980 0.923 0.835 0.726 0.6065Euler 1.0 1.0 0.960 0883 0.777 0.653verb. Euler 1.0 0.980 0.922 0.834 0.724 0.604Euler, impl. 1.0 0.9615 0.8903 0.7949 0.6853 0.5711Trapez 1.0 0.980 0.923 0.837 0.728 0.609Runge–Kutta 1.0 0.980 0.923 0.835 0.726 0.6065

Selbst bei diesem simplen Beispiel fallen Unterschiede deutlich ins Auge. Offensicht-lich tragt das verbesserte Euler–Verfahren seinen Namen nicht zu unrecht. Auch dasTrapezverfahren schafft eine bessere Naherung als der implizite Euler, wo doch beideimplizit sind. Am besten schneidet Runge–Kutta ab. Der nachste Abschnitt hat genaudas zum Ziel, die Verfahren auf ihre Gute hin zu untersuchen.

10.5.6 Die allgemeinen Runge–Kutta–Verfahren

Ein Herr Butcher hat sich ein Schema ausgedacht, mit dem man allgemein Runge–Kutta–Verfahren darstellen kann. Wir wollen ehrlich sein. Diese Darstellung erfreutdas Herz jeden Mathematikers, aber sie hat fur den Anwender herzlich wenig Bedeu-tung. Jener mag dieses Kapitel mit Gewinn lesen, dieser kann es getrost uberspringen.Zur naherungsweisen Losung der Anfangswertaufgabe

y ′(x) = f(x, y(x)), y(x0) = y0

sei wieder eine Schrittweite h > 0 vorgegeben, und mit xi := x0 + i · h werden dieNaherungswerte yi ≈ y(xi), i = 1, 2, 3, . . . bestimmt.

Page 369: 3486584472_Mathem

356 10 Numerik von Anfangswertaufgaben

Definition 10.26 Ein explizites s–stufiges Runge–Kutta–Verfahren hat die Gestalt:

y0 := y(x0)xi+1 := xi + h i = 0, 1, 2, . . .yi+1 := yi + h · Φ(xi, yi, h), i = 0, 1, 2, . . .

mit

Φ(x, y, h) :=s∑

j=1

bj · vj(x, y)

und

v1(x, y) := f(x, y)v2(x, y) := f(x + c2 · h, y + h · a21 · v1(x, y))

...

vs(x, y) := f

⎛⎝x + cs · h, y + h ·

s−1∑j=1

asj · vj(x, y)

⎞⎠

Die Koeffizienten aik, bi, ci ∈ R konnen wir in folgendem Schema, dem Butcher–Dia-gramm anordnen:

0c2 a21

c3 a31 a32...

.... . .

cs as1 as2 · · · as,s−1

b1 b2 · · · bs−1 bs

(10.33)

In dieses Diagramm lassen sich alle unsere bisherigen expliziten Verfahren einordnenund es lassen sich weitere daraus gewinnen.

Beispiel 10.27 Das Euler–Verfahren im Butcher–Diagramm :

01

Aus diesem Schema liest man wegen b1 =1 die Formel ab:

yi+1 = yi + h · f(xi, yi), alsoΦ(xi, yi, h) = f(xi, yi) = v1(xi, yi),

und das ist genau das Euler–Verfahren.

Beispiel 10.28 Das verbesserte Euler–Verfahren im Butcher–Diagramm:

Page 370: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 357

01/2 1/2

0 1

Hier ist also c2 = 12 und a21 = 1

2 und b1 = 0, b2 = 1.Also ergibt sich die Formel:

yi+1 = yi + h · f(

xi +h

2, yi +

h

2· f(xi, yi)

), also

Φ(xi, yi, h) = 0 · v1(xi, yi) + 1 · v2(xi, yi) mit

v2(x, y) := f

(x +

h

2, y + h · 1

2· v1(x, y)

),

und das ist genau das verbesserte Euler–Verfahren.

Beispiel 10.29 Weitere Verfahren im Butcher–Diagramm:

01 1

1/2 1/2

Euler–Cauchy–Verfahren

01/3 1/32/3 0 2/3

1/4 0 3/4

Heun–Verfahren

01/2 1/21 −1 2

1/6 4/6 1/6

Kutta–Verfahren

01/2 1/21/2 0 1/21 0 0 1

1/6 2/6 2/6 1/6

Runge–Kutta–Verfahren

Der freundliche Leser mag sich ja mal daran versuchen, aus dem letzten Diagrammunser klassisches Runge–Kutta–Verfahren (10.32) von Seite 354 wieder zu gewinnen.

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschritt-

verfahren

10.6.1 Konsistenz

Im vorigen Abschnitt sah alles so leicht und glatt aus. Dem mussen wir gegensteuernund schildern nun ein Beispiel, das eigentlich auch ganz harmlos daherkommt, bei dem

Page 371: 3486584472_Mathem

358 10 Numerik von Anfangswertaufgaben

aber erhebliche Probleme auftreten:

Beispiel 10.30 Wir betrachten die Anfangswertaufgabe

y ′(x) = −100 · y(x) + 100, y(0.05) = e−5 + 1 ≈ 1.006738. (10.34)

Es handelt sich um eine lineare inhomogene Differentialgleichung mit konstanten Ko-effizienten erster Ordnung. Einfacher geht es kaum. Wie man sofort sieht, ist y(x) ≡ 1eine spezielle Losung der inhomogenen Differentialgleichung, die allgemeine Losungder homogenen lautet y(x) = c · e−100x. Dann ist y(x) = c · e−100x + 1 die allgemeineLosung. Durch Einsetzen der Anfangsbedingung ergibt sich c = 1. Damit lautet dieLosung der Anfangswertaufgabe

y(x) = e−100x + 1. (10.35)

Diese Funktion hat bei 0 den Wert 2 und fallt dann sehr schnell gegen die x–Achsehin ab.

Wir berechnen nun eine Naherungslosung mit dem Euler–Verfahren. Dazu sei alsox0 = 0.05 und y0 = 1.006738. Um nicht zu lange rechnen zu mussen und somit dieRundungsfehler klein zu halten, wahlen wir eine moderate Schrittweite h = 0.05,und sind vollig uberrascht uber das folgende desastrose Verhalten der Naherung. Wirschreiben als dritte Spalte den Fehler zur exakten Losung auf:

xi yi y(xi)− yi

0.10 0.973048 0.02699520.15 1.107807 −0.1078070.20 0.568771 0.4312290.25 2.724914 −1.7249140.30 −5.899658 6.8996580.35 28.59863 −27.598630.40 −109.3945 110.39450.45 442.5781 −441.57810.50 −1175.312 1766.3120.55 7066.250 −7065.250

(10.36)

Der Fehler wird offensichtlich immer großer, er schaukelt sich auf.

Jetzt wahlen wir doch eine kleinere Schrittweite (”Scheiß’ auf die Rundungsfehler!“, denkt man sich).

Und siehe da, es wird besser. In der Tabelle haben wir die Ergebnisse mit der Schritt-

Page 372: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 359

weite h = 0.02 und h = 0.01 nebeneinander gestellt.

h = 0.02 h = 0.01xi yi y(xi)− yi xi yi y(xi)− yi

0.06 1.000000 0.0024787520.07 0.993262 0.006738 0.07 1.000000 0.000911882

0.08 1.000000 0.0003354630.09 1.006738 −0.006738 0.09 1.000000 0.000124098

0.10 1.000000 0.0000453990.11 0.993262 0.006738 0.11 1.000000 0.000016702

0.12 1.000000 0.0000061440.13 1.006738 −0.006738 0.13 1.000000 0.000002260

0.14 1.000000 0.0000008320.15 0.993262 0.006738 0.15 1.000000 0.000000306

0.16 1.000000 0.0000001130.17 1.006738 −0.006738 0.17 1.000000 0.000000041

0.18 1.000000 0.0000000150.19 0.993262 0.006738 0.19 1.000000 0.000000006

0.20 1.000000 0.0000000020.21 1.006738 −0.006738 0.21 1.000000 0.0000000008

0.22 1.000000 0.00000000030.23 0.993262 0.006738 0.23 1.000000 0.0000000001

0.24 1.000000 0.000000000040.25 1.006738 −0.006738 0.25 1.000000 0.00000000001

Auf der linken Seite bei Schrittweite h = 0.02 schwanken die Werte hin und her,wahrend rechts bei Schrittweite h = 0.01 der Fehler immer kleiner wird, je weiterwir voranschreiten. Nix da mit Rundungsfehlern, die uns angeblich alles kaputt ma-chen, wenn wir die Schrittweite verfeinern und dadurch immer mehr Berechnungendurchfuhren mussen. Hier scheinen sie noch keine Rolle zu spielen.

Irgendwie juckt es, eines der anderen Verfahren anzuwenden. Wir versuchen es mitdem impliziten Euler–Verfahren. Fur unsere Differentialgleichung ergibt sich durchAuflosen nach yi+1 folgende Formel:

yi+1 = yi + h · f(xi+1, yi+1) =⇒ yi+1 =yi + 100h1 + 100h

.

Page 373: 3486584472_Mathem

360 10 Numerik von Anfangswertaufgaben

Wieder lassen wir den Rechenknecht arbeiten und erhalten:

xi yi y(xi)− yi

0.05 1.006738 −1.07756 · 10−3

0.10 1.001123 −1.86859 · 10−4

0.15 1.000187 −3.11921 · 10−5

0.20 1.000031 −5.19902 · 10−6

0.25 1.000005 −8.66506 · 10−7

0.30 1.000001 −1.44419 · 10−7

0.35 1.000000 −2.40707 · 10−8

0.40 1.000000 −4.01269 · 10−9

0.45 1.000000 −6.69388 · 10−10

0.50 1.000000 −1.10958 · 10−10

Was ist denn das? Hier geht der Fehler offenkundig gegen Null, es gibt uberhaupt keinProblem, die Losung anzunahern. Wir konnten noch das Ergebnis aufschreiben, wennwir die Schrittweite auf h = 0.02 herabsetzen, Aber es wird niemanden uberraschen,daß auch da der Fehler gegen Null geht. Wir sparen uns den Abdruck der Tabelleund fragen statt dessen, wie dieses Verhalten zu erklaren ist. Warum hat der expliziteEuler ein Problem, der implizite Euler aber nicht? Was ist so anders bei diesen sonstfast identischen Verfahren?Dieses erstaunliche Verhalten zu analysieren ist der Zweck der folgenden Abschnitte.Bei der ganzen Fehleruntersuchung unterscheiden wir prinzipiell zwei Arten von Feh-lern:

• den lokalen Fehler,

• den globalen Fehler

Lokal meint dabei, daß wir nur den Fehlerbeitrag wahrend der Ausfuhrung eines ein-zigen Schrittes untersuchen. Das ist das Ziel dieses Abschnittes. Mit dem globalenFehler fassen wir samtliche Beitrage von Fehlern im Laufe der gesamten Rechnungzusammen. Dies gipfelt dann in der Konvergenzuntersuchung eines Verfahrens. Unddamit werden wir uns im Abschnitt 10.6.3 befassen.Beginnen wir mit der Definition des lokalen Diskretisierungsfehlers. Im Prinzip ist esder Fehler y(xi+1)− yi+1, links steht die exakte Losung an der Stelle xi+1, rechts derNaherungswert an dieser Stelle. Lokal bedeutet jetzt aber, daß wir nur den Fehlerbetrachten wollen, der bei dem einen Schritt von xi nach xi+1 aufgetreten ist. Dazuwerden wir also verlangen, daß bei xi kein Fehler entstanden ist. Das drucken wirdadurch aus, daß wir bei xi den nicht mit Fehlern behafteten Wert der exakten Losungy(xi) verwenden. Man mochte also bitte die folgende Definition sehr sorgfaltig lesen.

Definition 10.31 Sei y die Losung der Anfangswertaufgabe

y ′(x) = f(x, y(x)) mit y(x0) = y0 (10.37)

Page 374: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 361

im Intervall I. Seien xi und xi + h, h > 0, zwei Punkte aus I. Dann nennen wir

d(xi, y(xi), h) := y(xi + h)− [y(xi) + h · Φ(xi, y(xi), h)]

(10.38)

den lokalen Diskretisierungsfehler des Einschrittverfahrens (10.27) an der Stelle(xi, y(xi)).

Vielleicht noch mal ein Blick zuruck. In der eckigen Klammer steht der mit dem Ein-schrittverfahren berechnete Naherungswert an der Stelle xi+1, wobei wir an der Stellexi den exakten Wert y(xi) verwenden, also bei xi keinen Fehler zulassen. Dadurchwird es eben der lokale Fehler.Mit diesem jetzt hoffentlich nicht mehr geheimnisvollen Begriff hangt auf einfacheWeise der Begriff Konsistenz zusammen:

Definition 10.32 Ein Einschrittverfahren (10.27) zur Anfangswertaufgabe (10.37)heißt konsistent mit der AWA, falls gleichmaßig fur alle Stutzstellen xi gilt:

1h

∣∣∣∣d(xi, y(xi), h)∣∣∣∣→ 0 fur h → 0. (10.39)

Das Einschrittverfahren besitzt dann die Konsistenzordnung p > 0, wenn es eine Kon-stante C > 0 gibt, so daß gleichmaßig fur alle Stutzstellen xi gilt:

1h

∣∣∣∣d(xi, y(xi), h)∣∣∣∣ ≤ C · hp fur h → 0. (10.40)

Einige Bemerkungen zu diesem wichtigen Begriff.

1. Links haben wir den Diskretisierungsfehler (betragsmaßig) noch durch h geteilt.Das hat nur ”Schonheitsgrunde“. Einmal sieht es links dann so aus wie ein Diffe-renzenquotient. Aber was wichtiger ist, es wird sich spater zeigen, daß die nochzu definierende Konvergenzordnung mit der obigen Konsistenzordnung uberein-stimmt. Ohne die Division durch h ware sie um 1 großer. Nicht wirklich eintiefliegender Grund.

2. Die Konvergenz mochte fur alle Stutzstellen gleichartig verlaufen, d.h. wenn wiruns eine kleine Schranke ε > 0 vorgeben, unter die wir die linke Seite druckenmochten, so soll dazu, egal welche Stutzstelle wir betrachten, stets dasselbe kleineh > 0 ausreichen. Das bedeutet gleichmaßig. Also gut.

Beispiel 10.33 Ist das Euler–Polygonzug–Verfahren konsistent mit der AWA? Undwie groß ist gegebenenfalls seine Konsistenzordnung?

Der typische Trick zum Nachweis der Konsistenz besteht in der Anwendung der Tay-lorentwicklung. Wir tun das ohne Hemmungen und setzen einfach voraus, daß unsere

Page 375: 3486584472_Mathem

362 10 Numerik von Anfangswertaufgaben

Funktion bitteschon hinreichend oft differenzierbar sein moge, damit wir das durfen.Dann gilt zunachst fur den lokalen Diskretisierungsfehler:

d(xi, y(xi), h) = y(xi+1 −[y(xi) + h · f(xi, y(xi))

]= y(xi + h)− y(xi)− h · f(xi, y(xi))

= y(xi) + hy ′(xi) +h2

2y ′′(xi) + · · · − y(xi)− h · y ′(xi)

=h2

2y ′′(xi) +O(h3)

Zur Konsistenzbetrachtung dividieren wir beide Seiten durch h und erhalten:

1h

d(xi, y(xi), h) =1h· (h

2

2y ′′(xi) +O(h3)) = O(h).

Zusammengefaßt folgt also:

Satz 10.34 (Konsistenz des Euler–Verfahrens) Das Euler–Verfahren ist konsis-tent mit der AWA und hat die Konsistenzordnung 1.

Warum hat es dann aber dieses Problem bei unserem einfachen Beispiel (10.36)? Lokalscheint doch alles in Ordnung. Verwunderlich ist dieses Verhalten um so mehr, wennwir uns die Konsistenz des impliziten Euler–Verfahrens ansehen. Aber was soll daschon passieren? Dort wird ja lediglich statt des vorwarts genommenen Differenzen-quotienten der ruckwartige verwendet. Die Taylorentwicklung fuhrt also zum gleichenErgebnis:

Satz 10.35 (Konsistenz des impliziten Euler–Verfahrens) Das implizite Euler–Verfahren ist konsistent mit der AWA und hat die Konsistenzordnung 1.

Da muß also noch etwas versteckt sein, was diese beiden lokal so ahnlichen Verfah-ren wesentlich unterscheidet. Wir kommen im nachsten Abschnitt ausfuhrlich daraufzuruck.Es lohnt sich, die Verbesserung des verbesserten Euler–Verfahrens zu untersuchen.Beim Nachweis der Konsistenz ergibt sich auch ein klein wenig Neues.

Beispiel 10.36 Ist das verbesserte Euler–Verfahren konsistent mit der AWA? Undwie groß ist gegebenenfalls seine Konsistenzordnung?

Das verbesserte Euler–Verfahren lautete:

yi+1 = yi + h · f(

xi +h

2, yi +

h

2· f(xi, yi)

), i = 0, 1, 2, . . .

mit der sogenannten Flußfunktion:

Φ(x, y, h) = f

(x +

h

2, y +

h

2· f(x, y)

).

Page 376: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 363

Zur Abschatzung des lokalen Diskretisierungsfehlers betrachten wir die Differenz:

d(xi, y(xi), h) = y(xi + h)− [y(xi) + h · Φ(xi, y(xi), h)]= [y(xi + h)− y(xi)]− h · Φ(xi, y(xi), h).

Sowohl den Term in eckigen Klammern als auch die Funktion Φ(xi, yi, h) entwickelnwir nach Taylor.Fur die Funktion Φ benutzen wir die Taylorformel fur zwei Variable in der Form:

f(x + a, y + b) = f(x, y) +∂f(x, y)

∂x· a +

∂f(x, y)∂y

· b

+12!

(∂2f(x, y)

∂x2· a2 + 2

∂2f(x, y)∂x∂y

· a · b +∂2f(x, y)

∂y2· b2

)

+Terme 3. Ordnung, (10.41)

und erhalten, wenn wir im Auge behalten, daß hier a = h2 und b = h

2 · f(xi, y(xi))ist, einfach durch Einsetzen, wobei wir zur Abkurzung wie gewohnt die partiellenAbleitungen mit unteren Indizes bezeichnen:

Φ(xi, y(xi), h) = f(xi +h

2, y(xi) +

h

2f(xi, y(xi))

= f(xi, y(xi)) +h

2fx(xi, y(xi)) +

h

2· f(xi, y(xi)) · fy(xi, y(xi)) +

+h2

2

(14fxx(xi, y(xi)) +

12· f(xi, y(xi)) · fxy(xi, y(xi))

+14· f2(xi, y(xi)) · fyy(xi, y(xi))

)+O(h3).

Etwas schwieriger wird es mit dem Term in eckigen Klammern. Zunachst entwickelnwir mit der einfachen Formel:

y(xi + h) = y(xi) + h · y ′(xi) +h2

2· y ′′(xi) +

h3

6· y ′′′(xi) +O(h4).

Dann jedoch fallt uns ein, daß wir ja mit Hilfe der Differentialgleichung die Ableitungvon y durch die Funktion f der rechten Seite ersetzen konnen. Und jetzt wird eskompliziert, denn in dieser Funktion f steckt ja x in beiden Variablen. Also muß manimmer noch die inneren Ableitungen dazupacken. Damit wird dann z.B.:

y ′′(xi) =d

dx(y ′(xi)) =

d

dxf(xi, y(xi))

= fx(xi, y(xi)) + fy(xi, y(xi)) · dy(xi)dx

= fx(xi, y(xi)) + fy(xi, y(xi)) · f(xi, y(xi)).

Page 377: 3486584472_Mathem

364 10 Numerik von Anfangswertaufgaben

Ganz analog, aber mit ein paar Termen mehr, rechnet man (wir lassen jetzt, um dieUbersicht zu erleichtern, die jeweilige Stelle (xi, y(xi)) weg):

y ′′′ =d2

dx2y ′ =

d2

dx2f

=d

dx(fx + fy · f)

= fxx + fxy · f + fyx · f + fyy · f2 + fy · fx + fy · f · fy +O(h4)

Man darf nie die inneren Ableitungen vergessen! Nun packen wir alles zusammen undlassen wieder die Stelle (xi, y(xi)) weg:

1h· d(xi, y(xi), h) =

1h

(x · (xi + h)− x(xi))− h · Φ(xi, y(xi), h)

= h2

[124

(fxx + 2 · f · fxy + f2 · fyy) +16(fx + f · fy) · fy

]+O(h3)

= O(h2)

Das fassen wir, weil es so schon ist, im folgenden Satz zusammen:

Satz 10.37 (Konsistenz des verbesserten Euler–Verfahrens) Das verbesserteEuler–Verfahren ist konsistent mit der AWA und hat die Konsistenzordnung 2.

Es ist also wirklich lokal besser als der einfache Euler: nomen est omen.Wir wollen die Leser nicht mit noch mehr Taylorentwicklung nerven und verweisen aufdie Literatur, z.B. [8] wenn man sich die Konsistenz des Trapez–Verfahrens anschauenwill. Als Ergebnis folgt:

Satz 10.38 (Konsistenz des Trapez–Verfahrens) Das Trapez–Verfahren ist kon-sistent mit der Anfangswertaufgabe und hat die Konsistenzordnung 2.

Richtig viel Arbeit mußte man bei Runge–Kutta einsetzen, um die Konsistenz nach-zuweisen. M. Lotkin hat sich dieser Muhe schon 1951 unterzogen und bewiesen:

Satz 10.39 (Konsistenz des Runge–Kutta–Verfahrens) Das klassische Runge–Kutta–Verfahren ist konsistent mit der AWA und hat die Konsistenzordnung 4.

Nun, das macht jedenfalls Sinn. Runge–Kutta berechnet ja aus vier Steigungen dennachsten Wert durch eine geschickte Mittelbildung. Da muß naturlich etwas Besseresrauskommen. Wir wiederholen aber noch einmal: Lokal ist der Diskretisierungsfehlervon 5. Ordnung, die Konsistenzordnung ist also 4. Das sagt aber noch nichts uberdie Gute der Konvergenz. Da mussen wir noch heftig dran arbeiten. Dazu dient dasfolgende Kapitel.

Page 378: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 365

10.6.2 Stabilitat

Hinter dem Begriff Stabilitat verbirgt sich eigentlich gar kein großes Geheimnis, mankann es recht leicht anschaulich erklaren. Trotzdem fallt es gerade Ingenieuren haufigschwer, diesen Begriff umzusetzen. Vielleicht liegt es an der umgangssprachlichen Be-deutung oder auch der anschaulichen ingenieurmaßigen Darstellung, die den Anwenderauf das Glatteis fuhrt. Wir werden daher versuchen, durch viel Anschauung Stabilitatauch im mathematischen Kontext zu verdeutlichen.

Absolute Stabilitat Beginnen wir mit einigen Festlegungen und der Definition desBegriffes Stabilitat. Dazu betrachten wir folgende Anfangswertaufgabe fur ein Systemvon gewohnlichen Differentialgleichungen:

y ′(x) = f(x, y(x)), y(x0) = y0. (10.42)

Definition 10.40 y heißt Gleichgewichtspunkt der Anfangswertaufgabe (10.42), wenngilt:

f(x, y) = 0 ∀x ≥ x0 (10.43)

Denken wir uns die Variable x als die Zeit, so ist also ein Gleichgewichtspunkt einPunkt, in dem keine zeitliche Anderung der Losung stattfindet. Dort ruht das Systemalso, oder wie man so sagt, es befindet sich im Gleichgewicht. Vielleicht stellen wir unseinen Ball vor, der auf dem Erdboden in einer Kuhle liegt und der andererseits auf demZeigefinger balanciert wird. Beide Male befindet sich der Ball in Ruhestellung, alsoim Gleichgewicht, wenn man das Balancieren geubt hat. Aber von der Fingerspitzekann ihn der Flugelschlag eines Schmetterlings herunterschupsen. In der Kuhle liegter ziemlich sicher. Der Zustand in der Kuhle ist stabil, auf der Fingerspitze ziemlichwackelig, also instabil. Dies ubertragen wir auf Differentialgleichungen.

Definition 10.41 Sei y ein Gleichgewichtspunkt fur die Anfangswertaufgabe (10.42),und sei y(x) eine Losung, die der Anfangsbedingung y(x0) = y0 genugt. Dann heißty stabil (im Sinne von Ljapunov9), wenn es zu jedem ε > 0 ein δ > 0 gibt mit derEigenschaft:Ist fur den Anfangspunkt ‖y(x0)− y(x0)‖ < δ, so ist auch

‖y(x)− y(x)‖ < ε ∀x ≥ x0. (10.44)

Ist der Gleichgewichtspunkt nicht stabil im obigen Sinn, so heißt er instabil.

Es geht also um eine langfristige Vorhersage, wie verhalt sich die Losung nach langerZeit oder nach vielen Schritten. Der Kernpunkt liegt in dem ∀x ≥ x0, also fur allex ≥ x0 in (10.44).Die Abb. 10.2 kann das nur vage verdeutlichen.Als Sonderfall der Stabilitat nach Ljapunov fuhren wir den Begriff asymptotisch stabilein:

9Ljapunov,A.M. (1857 – 1918)

Page 379: 3486584472_Mathem

366 10 Numerik von Anfangswertaufgaben

-0.5

0

0.5

1

1.5

2

2.5

3

3.5

0 2 4 6 8 10

y1(x)y(x)

y2(x)

Abbildung 10.2: Dies kann nur eine grobe Skizze zur Veranschaulichung von Stabi-litat sein. Als Gleichgewichtspunkt denken wir uns die Funktion y(x) ≡ 2, als Losungy1(x) haben wir eine sinusformige Funktion eingetragen, als Losung y2(x) eine po-lynomartige. Starten wir am Anfangspunkt y(x0) = 2.1, wie eingetragen, so mochtefur Stabilitat die Losung fur alle Zeit in einer kleinen Umgebung von y(x) bleiben,also sich so verhalten wie y1(x), und in der gepunkteten Umgebung verlaufen. Driftetsie dagegen ab und bleibt nicht in einer kleinen Umgebung, wie wir das fur y2(x)skizziert haben, so nennen wir y(x) instabil. Der Ball auf der Fingerkuppe – diese istder Gleichgewichtspunkt – kann sich durch eine kleinste Luftbewegung sehr weit wegbewegen, wenn er herunterfallt. Stuppst man ihn in der Kuhle – der unterste Punktist ein Gleichgewichtspunkt – an, bleibt er nur in der kleinen Umgebung.

Definition 10.42 y heißt asymptotisch stabil, falls gilt:

1. y ist stabil

2. ∃γ > 0 : |y(x)− y(x)| < γ =⇒ limx→∞ y(x) = 0.

Wenn wir unser Bild oben vervollstandigen wollten, um asymptotisch stabil zu erlautern,so mußten wir eine Funktion hineinzeichnen, die sich immer mehr der Funktion y(x)annahert. Da man sich das leicht vorstellen kann, wollen wir unser Bild nicht uber-frachten. Denken Sie noch einmal an den Ball in der Kuhle. Der tiefste Punkt derKuhle ist wohl als asymptotisch stabil anzusehen, wenn man obigen Begriff sinnvollubertragen will.Die interessante Frage ist nun, wie man der Losung einer Differentialgleichung ansehenkann, ob sie stabil ist. Wir brauchen also ein Kriterium fur Stabilitat. Hierzu gibt esganz erstaunliche Satze.

Page 380: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 367

Wir betrachten zunachst einen sehr speziellen Fall. Man rumpfe nicht die Nase, dennes wird sich zeigen, daß dieser Fall fast alles enthalt.

Definition 10.43 Ein Differentialgleichungssystem y ′(x) = f(x, y(x)) heißt auto-nom, wenn die Variable x auf der rechten Seite nicht explizit vorkommt. Im anderenFall heißt es nichtautonom oder heteronom.

Solch ein lineares autonomes System kann man einfach als Matrizengleichung mit einerkonstanten Matrix A schreiben. Das sieht dann vielleicht so aus:

Beispiel 10.44

y1′ = −2y1 + y2 + 3y3

y2′ = −6y2 − 5y3

y3′ = − y3

Offensichtlich ist fur ein solches System stets y ≡ 0 ein Gleichgewichtspunkt. Denwollen wir auf Stabilitat untersuchen. Gesetzt den Fall, wir hatten Stabilitat von ynachgewiesen, mussen wir das dann fur alle weiteren Losungen auch noch nachweisenoder ergibt sich das von allein? Nun, wir zeigen:

Satz 10.45 Ist die Losung y ≡ 0 des Differentialgleichungssystems y ′(x) = Ay(x),wobei A eine konstante (n×n)–Matrix ist, asymptotisch stabil, stabil oder instabil, sogilt dasselbe fur jede weitere Losung y dieses Systems.

Beweis: Das ist schnell uberlegt. Gehen wir davon aus, daß y ≡ 0 stabil ist, undbetrachten wir eine weitere Losung y1(x). Um ihre Stabilitat zu prufen, starten wirin der Nahe von y1(x0) mit einer weiteren Losung, nennen wir sie y2(x). Als Trickbetrachten wir z(x) = y1(x) − y2(x). Jetzt kommt die Linearitat der Differentialglei-chung zum Zuge. Offensichtlich ist auch z(x) eine Losung, und z(x0) liegt ganz in derNahe von 0. Da y ≡ 0 stabil ist, bleibt damit z(x) fur alle x > x0 in der Nahe vony ≡ 0. Das bedeutet aber, daß z(x) immer klein bleibt. Damit bleibt y2(x) stets inder Nahe von y1(x), also ist y1 stabil.Das gleiche Argument kann man wiederholen fur den Fall, daß y ≡ 0 asymptotischstabil ist.Ist dagegen y ≡ 0 nicht stabil, so bleibt eine weitere Losung, die ganz in der Nahe vony(x0) startet, nicht in der Nahe von y. Diese dumme Kuh nennen wir y3(x). Betrachtenwir jetzt wieder y1(x) und untersuchen ihre Stabilitat, so werfen wir einen Blick aufz(x) = y1(x) + y3(x), was ja wieder eine Losung ist, die aber bei x0 ganz in der Nahevon y1 startet. Sie bleibt aber nicht in der Nahe, da sich y3(x) zu immer großerenWerten aufschaukelt. Also ist y1 auch nicht stabil.

Das haben wir ganz schon kompliziert ausgedruckt, aber im wesentlichen doch nur dieLinearitat der Differentialgleichung ausgenutzt. Also nicht bange machen lassen. Als

Page 381: 3486584472_Mathem

368 10 Numerik von Anfangswertaufgaben

Fazit stellen wir fest, daß es reicht, die Losung y ≡ 0 auf Stabilitat zu untersuchen.Dann wissen wir alles auch von den anderen Losungen.Der folgende Satz gibt uns ein sehr einfaches Hilfsmittel in die Hand, die Stabilitatvon y ≡ 0 zu uberprufen:

Satz 10.46 Gegeben sei ein lineares autonomes Differentialgleichungssystem

y ′(x) = A · y(x). (10.45)

Dabei sei A regular, so daß also y ≡ 0 isolierter Gleichgewichtspunkt ist. Dann gilt:

1. Haben alle Eigenwerte von A einen negativen Realteil, so ist y ≡ 0 asymptotischstabil.

2. Hat auch nur ein Eigenwert von A einen Realteil großer als 0, so ist y ≡ 0instabil.

3. Haben alle Eigenwerte einen Realteil kleiner oder gleich 0 und haben die Eigen-werte mit Realteil gleich 0 genau soviele linear unabhangige Eigenvektoren wieihre Vielfachheit, so ist y ≡ 0 stabil.

Beispiel 10.47 Betrachten wir folgendes System

y1′ = −2y1 + y2 + 3y3

y2′ = −6y2 − 5y3

y3′ = − y3

und fragen nach der Stabilitat des Gleichgewichtspunktes y ≡ 0.

Dazu schauen wir uns die Systemmatrix an:

A =

⎛⎝ −2 1 3

0 −6 −50 0 −1

⎞⎠ .

Als Dreiecksmatrix liest man ihre Eigenwerte auf der Hauptdiagonalen ab:

λ1 = −2, λ2 = −6, λ3 = −1.

Da sie alle reell und negativ sind, haben sie auch negativen Realteil. Also trifft Fall 1.aus dem Satz zu, die Losung y ≡ 0 ist asymptotisch stabil.Einige weitere Beispiele konnen nicht schaden.

Beispiel 10.48 Die folgenden Matrizen seien Systemmatrizen eines linearen autono-men Systems von Differentialgleichungen. Wir untersuchen jeweils das Stabilitatsver-halten jeder Losung y(t):

A =

⎛⎝ −1 0 0−2 −1 2−3 −2 −1

⎞⎠ , B =

(1 55 1

), C =

(0 −32 0

), D =

⎛⎝ 2 −3 0

0 −6 −2−6 0 −3

⎞⎠ .

Page 382: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 369

Zu A:Das charakteristische Polynom erhalten wir sofort durch Entwicklung der Determi-nante nach der ersten Zeile:

pA(λ) = −(1 + λ)3 − 4(1 + λ) = −(1 + λ)(λ2 + 2λ + 5).

Seine Nullstellen und damit die Eigenwerte sind:

λ1 = −1, λ2,3 = −1± 2i.

Alle drei haben also einen negativen Realteil, also ist jede Losung asymptotisch stabil.

Zu B:Hier lautet das charakteristische Polynom

pB(λ) = (1− λ)2 − 25.

Damit sind λ1 = 6 und λ2 = −4 die Eigenwerte, von denen λ1 einen Realteil deutlichgroßer als 0 hat; also ist jede Losung instabil.

Zu C:

pC(λ) = λ2 + 6.

Die Eigenwerte lauten also:

λ1,2 = ±√

6 i.

Beide Eigenwerte haben also den Realteil = 0 und sind einfach, also ist jede Losungzwar stabil, aber nicht asymptotisch stabil.

Zu D:

pD(λ) = −λ2(λ + 7),

und die Eigenwerte sind

λ1 = −7, λ2 = λ3 = 0.

λ2,3 ist also ein zweifacher Eigenwert mit verschwindendem Realteil. Fur diesen Fallmussen wir etwas mehr arbeiten, namlich die Anzahl der linear unabhangigen Eigen-vektoren bestimmen. Die Eigenvektoren selbst brauchen wir nicht. Es ist

D − λ2E =

⎛⎝ 2 −3 0

0 −6 −2−6 0 −3

⎞⎠

Page 383: 3486584472_Mathem

370 10 Numerik von Anfangswertaufgaben

Man sieht sofort, daß rg (A−λ2E) = 2, daß es also zu λ2 nur einen linear unabhangigenEigenvektor gibt. Daher ist jede Losung instabil.

Damit haben wir theoretisch alles gesagt, um bei linearen autonomen Systemen Sta-bilitat zu uberprufen. Die Berechnung der Eigenwerte mag bei großeren Matrizen auf-wendig sein; dann mussen wir halt die Verfahren aus dem Kapitel Eigenwertaufgabenheranziehen, aber im Prinzip ist diese Aufgabe erledigt.Nun kommen wir zu einem der großen erstaunlichen Satze der Mathematik. Wie obenschon angedeutet, wollen wir ja gar nicht mit solch trivialen linearen Systemen hantie-ren, unser Sinn steht nach nichtlinearen Aufgaben. Die sind aber mathematisch vonganz neuem Kaliber. Normalerweise kann ein Mathematiker bei nichtlinearen Pro-blemen nur die Segel streichen. Der Ingenieur begnugt sich daher haufig mit demzugehorigen linearisierten Problem. Dazu wird der nichtlineare Anteil zum Beispielnach Taylor entwickelt. Der erste Term ist dann der lineare Anteil. Nur diesen be-trachtet man, den Rest wirft man weg. Damit macht man einen Fehler, aber was sollder arme Mensch machen, wenn bessere Moglichkeiten fehlen.Hier nun haben die Herren Hartman, Grobman und Ljapunov eine großartige Antwortgegeben: Die Stabilitatsanalyse des linearisierten Problems laßt sich fast vollstandigauf das nichtlineare Problem ubertragen.

Satz 10.49 (Hartman, Grobman, Ljapunov) Gegeben sei ein nichtlineares auto-nomes System von Differentialgleichungen erster Ordnung:

y ′ = f(y) (10.46)

mit dem Gleichgewichtspunkt y ≡ 0. Es sei

y ′ = f ′(0) · y (10.47)

das zu diesem System gehorige linearisierte Problem mit der Funktionalmatrix f ′(0).Dann gilt:

1. Haben alle Eigenwerte von f ′(0) einen negativen Realteil, so ist y ≡ 0 asympto-tisch stabil.

2. Hat auch nur ein Eigenwert von f ′(0) einen Realteil großer als 0, so ist y ≡ 0instabil.

Das ist also fast vollstandig parallel zum Satz 10.46 (S. 368). Allerdings fehlt eineUbertragung des Falles mehrfacher Eigenwerte mit verschwindendem Realteil. Dassollte man nicht vergessen.Die Anwendung dieses Satzes laßt nun das Herzchen jubeln. Kaum zu glauben, wieeinfach das geht. Betrachten wir folgendes Beispiel:

Page 384: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 371

Beispiel 10.50 Gegeben sei das Differentialgleichungssystem:

y1 = −2y1 + y2 + 3y3 + 9y32

y2 = −6y2 − 5y3 + 7y53

y3 = −y3 + y21 + y2

2

Wir untersuchen, ob die Losung y ≡ 0 stabil oder instabil ist.

Was ist hier das zugehorige linearisierte Problem? Nun, wir lassen einfach die additivennichtlinearen Terme weg und erhalten:

y1 = −2y1 + y2 + 3y3

y2 = −6y2 − 5y3

y3 = −y3

Zu diesem linearisierten Problem gehort die Matrix

A =

⎛⎝ −2 1 3

0 −6 −50 0 −1

⎞⎠

Sie hat die Eigenwerte λ1 = −2, λ2 = −6 und λ3 = −1, die samtlich einen negativenRealteil haben; also ist die Gleichgewichtslosung y ≡ 0 des linearisierten Problemsund damit auch zugleich des nichtlinearen Problems asymptotisch stabil.Das folgende Beispiel hat eine kleine Abwandlung:

Beispiel 10.51 Gegeben sei das Differentialgleichungssystem:

y′1 = 1− y1 · y2

y′2 = y1 − y32

.

Wir untersuchen seine Gleichgewichtspunkte auf Stabilitat.

Seine Gleichgewichtslosungen erhalt man aus y′1 = 0 und y′2 = 0, also aus 1 = y1 · y2,also y1 = 1/y2, und y1 = y3

2 = 1/y2. Daraus folgt y42 = 1 also y2 = ±1.

Wahlen wir y2 = +1, so folgt y1 = +1, aus y2 = −1 folgt y1 = −1. Die beidenGleichgewichtslosungen lauten also:

y1 =(

11

), y2 =

( −1−1

)

Beginnen wir mit der Untersuchung des Gleichgewichtspunktes y1 = (1, 1).Da es nicht der Nullvektor ist, nehmen wir eine kleine Transformation vor:

u1 := y1 − 1, u2 := y2 − 1.

Damit folgt:

du1

dx=

dy1

dx= 1− (1 + u1)(1 + u2) = −u1 − u2 − u1u2,

du2

dx=

dy2

dx= (1 + u1)− (1− u2)3 = u1 − 3u2 − 3u2

2 − u32.

Page 385: 3486584472_Mathem

372 10 Numerik von Anfangswertaufgaben

Wir erhalten damit die neue Aufgabe: Zu untersuchen ist, ob u = (0, 0) ein stabilerGleichgewichtspunkt des folgenden Systems ist:(

u1′

u2′

)=( −1 −1

1 −3

)(u1

u2

)−(

u1u2

3u22 + u3

2

).

Jetzt sind wir auf der leichten Schiene. Wir betrachten nur das linearisierte Problem(u1′

u2′

)=( −1 −1

1 −3

)(u1

u2

).

Die Systemmatrix hat den doppelten Eigenwert λ1 = λ2 = −2. Dieser hat einen nega-tiven Realteil. u ist also asymptotisch stabil. Nach Hartman–Grobman–Ljapunov istalso auch der Gleichgewichtspunkt y des nichtlinearen Problems asymptotisch stabil.Der Vollstandigkeit wegen wollen wir noch kurz auf den zweiten Gleichgewichtspunkty2 = (−1,−1) eingehen, obwohl sich prinzipiell nicht Neues ergibt. Mit der Trans-formation

u1 := y1 + 1, u2 := y2 + 1

entsteht das System:

du1

dx=

dy1

dx= 1− (u1 − 1)(u2 − 1) = u1 + u2 − u1u2,

du2

dx=

dy2

dx= (u1 − 1)− (u2 − 1)3 = u1 − 3u2 + 3u2

2 − u32.

Wir untersuchen hier also, ob u = (0, 0) ein stabiler Gleichgewichtspunkt des folgen-den Systems ist:(

u1′

u2′

)=(

1 11 −3

)(u1

u2

)+( −u1u2

3u22 − u3

2

).

Die Eigenwerte der Matrix des linearisierten Problems sind

λ1 = −1−√

5, λ2 = −1 +√

5.

λ2 ist positiv, hat also positiven Realteil, daher ist u = (0, 0) instabiler Gleichge-

wichtspunkt des linearisierten Problems und y2 =( −1−1

)instabiler Gleichgewichts-

punkt des nichtlinearen Problems.Das folgende Beispiel dient dazu aufzuzeigen, daß Hartman–Grobman–Ljapunov nichtdas volle Programm abdecken.

Beispiel 10.52 Gegeben sei das Differentialgleichungssystem

dy1

dx= −y2 + y3

1

dy2

dx= y1 + y3

2

Warum hilft der Satz von Hartman–Grobman–Ljapunov nicht bei der Stabilitatsana-lyse?

Page 386: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 373

Der einzige Gleichgewichtspunkt ist y = (0, 0). Die Eigenwerte der Systemmatrix(

0 −11 0

)

sind λ1 = i, λ2 = −i. Beide haben verschwindenden Realteil, dafur gibt unser Satzleider nichts her.

Numerische Stabilitat Nun wollen wir ernten, was wir im vorigen Abschnitt gesathaben. Wir untersuchen also, welche Bedeutung die Stabilitat bei den verschiedenenEinschrittverfahren hat.Der Hauptgedanke wird uns durch den Satz von Hartman–Grobmann–Ljapunov nahegelegt.

Statt der gegebenen Differentialgleichung

y ′(x) = f( y(x)) (10.48)

betrachten wir ihre linearisierte Form:

y ′ = Ay mit A = f ′(0).

Da sind wir ja sofort beim vorigen Abschnitt. Wir untersuchen lediglich die Matrix Aund sind fertig. Aber halt, jetzt kommt ein zusatzlicher Effekt, der sich aus der nume-rischen Behandlung ergibt. Die absolute Stabilitat konnte doch durch die Fehler derNaherung aufgehoben werden. Wir mussen also eine genauere Analyse durchfuhrenund werden dabei auf erstaunliche Tatsachen gefuhrt, die das Verhalten der Nahe-rungslosungen bei unserm Beispiel 10.30 von Seite 358 erklaren.Um nun die Ubersicht nicht zu verlieren, wollen wir uns auf die Betrachtung vongewohnlichen Differentialgleichungen 1. Ordnung beschranken, Systeme von gewohn-lichen Differentialgleichungen also außer Acht lassen. Die wurden inhaltlich nichtsNeues bringen, aber durch viele Symbole vielleicht Verwirrung stiften.

Definition 10.53 Die Anfangswertaufgabe

y ′(x) = λy(x), y(x0) = y0, λ ∈ C (10.49)

nennen wir das Testproblem zur Analyse der Fehlerfortpflanzung bei der Stabilitats-untersuchung.

Die Systemmatrix A ist hier lediglich einzeilig und einspaltig und besteht aus der Zahlλ. Zur absoluten Stabilitat der Losung y ≡ 0 muß demnach der Realteil von λ kleinerals 0 sein. Dies reicht aber zur numerischen Stabilitat noch nicht aus.

Page 387: 3486584472_Mathem

374 10 Numerik von Anfangswertaufgaben

Stabilitat des Euler–Verfahrens Beginnen wir mit dem einfachen Euler–Verfahrenund wenden es an auf unser Testproblem. Ausgehend vom gegebenen Anfangswerty0 = y(x0) ergibt sich nach Euler

yi+1 = yi + h · f(xi, yi) = yi + h · λ · yi = (1 + h · λ)yi (10.50)

Zur Stabilitatsanalyse denken wir uns zusatzlich am Beginn einen kleinen Fehler, wirkonnen also den Anfangswert y0 nicht exakt angeben, sondern haben lediglich einemit Fehler behaftete Große

y0 = y0 + ε0.

Dann ist auch der Naherungswert y1 mit einem zusatzlichen Fehler versehen, und wirerhalten:

y1 = y1 + ε1 = y0 + h · f(x0, y0) = y0 + h · λ · y0

Allgemein folgt:

yi+1 = yi+1 + εi+1 = yi + h · f(xi, yi) = yi + h · λ · yi = (1 + λ · h)yi︸ ︷︷ ︸yi+1

+(1 + λ · h)εi

= yi+1 + (1 + λ · h)εi (10.51)

Wir erhalten also

εi+1 = (1 + λ · h)εi.

Eine einfache Fortfuhrung dieses Schrittes ergibt dann:

εi+1 = (1 + λ · h)εi = (1 + λ · h)2εi−1 = · · · = (1 + λ · h)i+1ε0 (10.52)

Stabilitat bedeutet, daß sich der kleine Fehler ε0 nicht schwerwiegend fortpflanzt. Ausder letzten Gleichung lesen wir ab, daß dazu gelten muß:

|1 + λ · h| < 1 (10.53)

Da λ eine beliebige komplexe Zahl sein darf, ist das ein Kreis in der λ · h–Ebenemit Mittelpunkt (−1, 0) und Radius 1. Das Innere dieses Kreises ist das sog. Stabi-litatsgebiet des Euler–Verfahrens. Es bedeutet eine Einschrankung an die zu wahlendeSchrittweite h; denn λ wird ja durch die Differentialgleichung vorgegeben. Wenn wirwie bei den meisten von uns betrachteten Differentialgleichungen λ als reell annehmen,so ergibt sich folgende Einschrankung an die Schrittweite h:

|1 + λ · h| < 1 ⇐⇒ −1 < 1 + λ · h < 1.

Die rechte Ungleichung ergibt

λ · h < 0, also λ < 0,

weil ja die Schrittweite h stets positiv gewahlt wird. Diese Bedingung hatten wir obenschon aus der absoluten Stabilitat erhalten, sie ist also nichts Neues.

Page 388: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 375

Die linke Ungleichung fuhrt, da λ < 0, also −λ > 0 ist, auf

−λ · h < 2 ⇐⇒ h <2−λ

.

Das ist eine echte Einschrankung an die Schrittweite: wir durfen sie nicht zu großwahlen.

Satz 10.54 (Stabilitat des Euler–Verfahrens) Gegeben sei die Anfangswertauf-gabe

y ′(x) = f(x, y(x)), y0 = y(x0) (10.54)

und ihre linearisierte Form:

y ′ = λy, y0 = y(x0).

Dann ist das Euler–Verfahren mit der Schrittweite h > 0 genau dann stabil, wenn gilt:

h <2−λ

(10.55)

Wenden wir diese Erkenntnis an auf unser Beispiel 10.30 von Seite 358. Dort warλ = −100 < 0. Das bedeutet eine Einschrankung an die Schrittweite

h < 0.02

Erinnern wir uns an das Ergebnis der Rechnung. Genau bei h = 0.02 war die Schnitt-stelle, die Losung schwankte hin und her. Jetzt ist auch klar, warum bei der Schritt-weite h = 0.05 das reine Chaos auftrat. Da war eben keine Stabilitat gegeben. Beih = 0.01 aber herrschte eitel Sonnenschein.

Stabilitat des impliziten Euler–Verfahrens Wir erinnern uns, daß das impli-zite Euler–Verfahren dieses Rumgezicke nicht machte. Egal, welche Schrittweite wirwahlten, es klappte gut. Also, auf geht’s, analysieren wir auch dieses Verfahren.Die Formel zur Berechnung von yi+1 lautet hier, angewendet auf unser Testproblem:

yi+1 = yi + h · f(xi+1, yi+1) = yi + h · λ · yi+1.

Daraus folgt sofort:

yi+1 =1

1− h · λyi.

Vergleichen wir das mit der Gleichung (10.50). Eine ganz analoge Auswertung derFehlerfortpflanzung ergibt hier die Bedingung:∣∣∣∣ 1

1− h · λ∣∣∣∣ < 1 ⇐⇒ |h · λ− 1| > 1 (10.56)

Page 389: 3486584472_Mathem

376 10 Numerik von Anfangswertaufgaben

Wieder spielt ein Kreis mit Radius 1, diesmal aber um den Punkt (1, 0), die Hauptrolle;und hier wird das Außengebiet betrachtet.Nehmen wir auch hier an, daß unsere Zahl λ reell und negativ ist, weil wir ja sonstschon wissen, daß keine absolute Stabilitat gegeben ist. Dann bedeutet die Unglei-chung:

h · λ− 1 > 1 oder h · λ− 1 < −1.

Die linke Ungleichung fuhrt ins Leere, denn wegen λ < 0 mußte h auch negativ werden.Aber was soll eine negative Schrittweite?Die rechte Ungleichung ergibt:

h · λ < 0 ⇐⇒ h > 0.

Das bedeutet, numerische Stabilitat haben wir fur jede Schrittweite h > 0. Das ist diewichtige Nachricht. Wir konnen unsere Schrittweite beim impliziten Euler–Verfahrenbeliebig einrichten, es herrscht immer Stabilitat. Das erklart das gutmutige Verhaltenim Beispiel 10.30.

Satz 10.55 (Stabilitat des impliziten Euler–Verfahrens) Das implizite Euler–Verfahren ist fur jede Schrittweite stabil.

Stabilitat des Trapez–Verfahrens Weil das so schon ging, versuchen wir unserGluck auch noch mit dem Trapez–Verfahren. Wieder wenden wir dieses Verfahren aufunser Testproblem 10.49 an. Hartman-Grobman-Ljapunov lassen grußen. Wir erhal-ten:

yi+1 = yi +h

2[f(xi, yi) + f(xi+1, yi+1)] = yi +

h

2[λ · yi + λ · yi+1].

Daraus ergibt sich:

yi+1 =1 + λ·h

2

1− λ·h2

· yi =2 + λ · h2− λ · h · yi (10.57)

Mit der analogen Uberlegung wie bei Euler lautet hier die Bedingung dafur, daß sichder Fehler nicht in rasende Hohen begibt:

∣∣∣∣2 + λ · h2− λ · h

∣∣∣∣ < 1 (10.58)

Nun mussen wir in unsere Uberlegung ernsthaft einbeziehen, daß λ eine komplexeZahl sein kann. Erinnern wir uns bitte an folgende Rechengesetze fur komplexe Zahlenz = a + ib:

|z|2 = z · z, z + z = 2a ∈ R.

Page 390: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 377

Wir setzen λ = λ1 + i · λ2 und rechnen damit jetzt los:∣∣∣∣2 + λ · h2− λ · h

∣∣∣∣ =

√(2 + λ · h) · (2 + λ · h)(2− λ · h) · (2− λ · h)

=

√(2 + λ · h) · (2 + λ · h)(2− λ · h) · (2− λ · h)

=

√4 + 2 · λ · h + 2λ · h + |λ|2 · h2

4− 2 · λ · h− 2λ · h + |λ|2 · h2

=

√4 + 4 · λ1 · h + |λ|2 · h2

4− 4 · λ1 · h + |λ|2 · h2

Hier steht im Zahler fast das gleiche wie im Nenner, aber der mittlere Term wirdim Zahler addiert und im Nenner subtrahiert. Damit wird normalerweise der Zahlervergroßert und der Nenner verkleinert.Es sei denn, ja, es sei denn, daß λ1 negativ ist. Dann wird aus der Addition im Zahlereine Subtraktion und aus der Subtraktion im Nenner eine Addition. Der Zahler wirdalso verkleinert und der Nenner vergroßert. Genau dann ist der ganze Bruch und dannnaturlich auch die Quadratwurzel kleiner als 1, und unsere Konvergenzbedingung isterfullt.Damit erhalten wir die Stabilitatsbedingung fur das Trapez–Verfahren:

λ1 := (λ) < 0. (10.59)

Das Stabilitatsgebiet des Trapez–Verfahrens ist also die ganze linke Halbebene. Ist λreell und (damit sein Realteil) negativ, was wir wegen der absoluten Stabilitat habenmussen, so ist das Trapez–Verfahren fur jede beliebige Schrittweite h > 0 stabil.

Satz 10.56 (Stabilitat des Trapez–Verfahrens) Das Trapez–Verfahren ist fur je-de Schrittweite stabil.

Stabilitat des klassischen Runge–Kutta–Verfahrens Erstaunlicherweise ist dieRechnung fur dieses Verfahren gar nicht so aufwendig. Wir mussen die vier k-Faktorenberechnen, indem wir wieder unser Testproblem betrachten. Es ist

k1 = λ · yi

k2 = λ ·(

yi +h

2· k1

)= λ · yi +

h

2· λ2 · yi

k3 = λ ·(

yi +h

2· k2

)= λ · yi +

h

2· λ2 · yi +

h2

4· λ3 · yi

k4 = λ · (yi + h · k3) = λ · yi + h · λ2 · yi +h2

2· λ3 · yi +

h3

4· λ4 · yi

=⇒yi+1 =

(1 + h · λ +

(h · λ)2

2+

(h · λ)3

6+

(h · λ)4

24

)· yi

Page 391: 3486584472_Mathem

378 10 Numerik von Anfangswertaufgaben

Analog zu oben erhalten wir folgende Bedingung fur numerische Stabilitat:∣∣∣∣1 + h · λ +(h · λ)2

2+

(h · λ)3

6+

(h · λ)4

24

∣∣∣∣ < 1 (10.60)

Einen Plot des zugehorigen Stabilitatsgebietes wollen wir auslassen, aber statt dessenauf den wesentlichen Punkt hinweisen. Wenn wir uns auf reelle Differentialgleichungenbeschranken, so ergibt sich als Bedingung fur Stabilitat

−2.78 < h · λ < 0.

Aus der rechten Ungleichung entnehmen wir wegen h > 0 sofort λ < 0. Aus der linkenUngleichung bekommen wir damit eine Einschrankung fur unsere Schrittweite h:

0 < h <2.78−λ

Nur fur eine solche Wahl der Schrittweite bekommen wir ein stabiles Verfahren. Analogerhalten wir fur alle anderen expliziten R–K–Verfahren ein beschranktes Stabilitats-gebiet, wahrend bei den impliziten die Gebiete die ganze linke Halbebene enthalten.Wir fassen das im folgenden Satz zusammen:

Satz 10.57 (Stabilitat des Runge–Kutta–Verfahrens) Die Stabilitatsgebiete ex-pliziter Runge–Kutta–Verfahren sind samtlich beschrankt.Implizite Runge–Kutta–Verfahren sind fur jede Schrittweite stabil.

10.6.3 Konvergenz

Konvergenz ist ein Begriff, der sehr haufig falsch angewendet, also nicht verstandenwird, oder gar mißbrauchlich verwendet wird. Man denke nur zuruck an die ”Konver-genzkriterien“ von Maastricht; das waren Bedingungen, die festlegen sollten, wer vonden Staaten der Europaischen Union am gemeinsamen Geld, dem ”Euro“ teilnehmendurfte. Was sollte nur in diesem Zusammenhang der Begriff ”Konvergenz“?In der Mathematik benutzen wir diesen Begriff nur im Zusammenhang mit Folgenoder Reihen, also Gebilden, die irgendetwas mit ∞ zu tun haben. Davon kann dienormale Welt und erst recht ein Politiker doch nur traumen, wo sie doch gerade maleine Wahlperiode im Kopf haben.Aber auch außermathematische Wissenschaftler begehen hier Frevel, wenn sie z. B.verkunden, daß das Runge–Kutta–Verfahren ”konvergiert“. Sie meinen damit, daß sichnach mehreren Schritten die Naherungslosung nicht weit von der erwarteten Losungwegbewegt. Wo spielt hier ∞ eine Rolle?Nein, nein, das mussen wir schon richten. Bleiben wir bei dem Beispiel der R–K–Verfahren. Damit wird bei festgehaltener Schrittweite eine Naherungslosung berech-net. Eine Schwalbe macht aber noch keinen Sommer und eine Naherungslosung nochkeine Konvergenz. Interessant wird die Geschichte, wenn wir eine weitere, naturlichkleinere Schrittweite betrachten und erneut mit R–K eine Naherung berechnen. Dasist immer noch nicht ∞, aber warten Sie’s ab. Denn jetzt fragt der Mathematiker

Page 392: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 379

nach immer kleineren Schrittweiten, ja schließlich wird er vermessen und jagt h → 0.Damit entstehen ∞ viele Naherungslosungen (bitte beachten Sie den Plural), und esmacht Sinn zu fragen, ob die gegen die wahre und damit meist unbekannte Losungkonvergieren. Und hier mussen die Mathematiker ran, es zu beweisen oder Gegen-beispiele zu finden, wohlgemerkt, bei ∞ vielen Naherungslosungen, die kein Menschund erst recht kein Computer berechnen kann. Das ganze kann sich also nur im Kopfabspielen. Wir mussen rein theoretisch vorgehen, um hier Aussagen treffen zu konnen.Eigentlich sollte sich beim Leser ein gewisser Schauer einstellen, wenn er oder sie sichklarmachen, daß wir hier uber ∞ reden und zu sinnvollen Aussagen gelangen uber dieAnnaherung, wobei wir noch nicht einmal die wahre Losung kennen.Also erklaren wir zuerst, was wir unter Konvergenz verstehen wollen. Dazu betrachtenwir folgende Anfangswertaufgabe:

y ′(x) = f(x, y(x)) mit y(x0) = y0, (10.61)

und setzen voraus, daß f eine Lipschitzbedingung bezgl. y erfullt, so daß es durchjeden Anfangspunkt genau eine Losung gibt. Außerdem betrachten wir ein numerischesVerfahren, welches zuerst fur ein h > 0 ein Gitter ∆h festlegt

∆h : x0, x1 = x0 + h, x2 = x0 + 2h, x3 = x0 + 3h, . . .

und dann, ausgehend vom Anfangswert (x0y0), zu den Stutzstellen x1, x2, x3, . . . Nahe-rungswerte y1, y2, y3, . . . berechnet.

Definition 10.58 Das oben beschriebene numerische Verfahren zur angenaherten Lo-sung der AWA heißt konvergent fur die AWA, wenn fur den globalen Fehler gilt:

maxxi

|yh(xi)− y(xi)| → 0 fur h → 0 (10.62)

Wir sagen, das Verfahren hat die Konvergenzordnung p > 0, wenn gilt:

maxxi

|yh(xi)− y(xi)| = O(hp) (10.63)

Erst beim zweiten Blick sieht man hier ∞ durchleuchten. Verschamt auf der rechtenSeite in (10.62) steht h → 0. Wir betrachten also mit immer kleinerer Schrittweite heine Folge von Naherungslosungen und fragen, ob diese Folge gegen die wahre Losungkonvergiert. Hier macht der Begriff Konvergenz Sinn.Schauen wir uns das an einem Beispiel an.

Beispiel 10.59 Wir betrachten gleich die linearisierte Form einer gewohnlichen An-fangswertaufgabe

y ′(x) = λ · y(x), y0 = y(x0), λ ∈ R

und fragen nach der Konvergenz des Euler–Verfahrens.

Page 393: 3486584472_Mathem

380 10 Numerik von Anfangswertaufgaben

Wir mussen also an den Stutzstellen die exakte Losung mit den Naherungswertenvergleichen. Dazu brauchen wir die exakte Losung, die wir leicht durch Trennung derVeranderlichen erhalten:∫

dy

y= λ ·

∫dx =⇒ ln y(x) = λ · x + c =⇒ y(x) = c · eλx.

Mit der Anfangsbedingung erhalten wir dann die allgemeine Losung:

y(x) = y0 · eλ(x−x0).

Wenden wir nun Herrn Euler, beginnend mit y0 = y(x0), an, so erhalten wir nachetlichen Schritten

yj = yj−1 + λ · h · yj−1 = (1 + h · λ)yj−1 = (1 + h · λ)2yj−2 = · · · = (1 + h · λ)jy0.

Eine kleine Erinnerung an den Studienanfang fuhrt uns jetzt den entscheidendenSchritt weiter. Wir kennen folgende Reihenentwicklung fur die Exponentialfunktion

ehλ = 1 + hλ +(hλ)2

2!+

(hλ)3

3!+ · · · = 1 + hλ +O(h2)

Daraus folgt

1 + hλ = ehλ +O(h2)

Das setzen wir oben ein und erhalten

yj = (1 + hλ)jy0 = (ehλ +O(h2))jy0

= (ejhλ +O(jh2))y0

Damit folgt fur die gesuchte Differenz

max0≤j≤m

|yj − y(x0 + jh) = max0≤j≤m

|(ejhλ +O(jh2))y0 − ejhλy0|= max

0≤j≤m|O(jh2)y0|

Nun hangt aber doch die Anzahl j der Schritte mit der Schrittweite zusammen, undzwar sind sie umgekehrt proportional zueinander, je kleiner die Schrittweite ist, umsomehr Schritte muß man tun, um ein Ziel zu erreichen. Es ist also

j =M

hmit einer Konst. M.

Daher folgt

max0≤j≤m

|yj − y(x0 + jh) = O(h);

das Euler–Verfahren ist also konvergent mit der Ordnung 1.Da stellt sich doch die Frage nach dem Zusammenhang mit dem Begriff ’Konsistenz’.Und in der Tat, ein Zusammenhang besteht. Zum Beweis des folgenden Satzes benotigtman ein diskretes Analogon des Gronwallschen Lemmas. Wir verweisen auf die Spe-zialliteratur und zitieren hier nur:

Page 394: 3486584472_Mathem

10.6 Konsistenz, Stabilitat und Konvergenz bei Einschrittverfahren 381

Satz 10.60 (Konvergenzsatz fur Einschrittverfahren) Gegeben sei fur eine AWAein Einschrittverfahren

yi+1 = yi + h · Φ(xi, yi;h).

1. Ist die Verfahrensfunktion Φ(x, y;h) Lipschitzstetig bezuglich der Variablen yund

2. ist das Einschrittverfahren konsistent mit der AWA,

so ist das Verfahren auch konvergent.Die Konsistenzordnung ist dann zugleich die Konvergenzordnung.

Beispiel 10.61 Als Beispiel betrachten wir folgende AWA

y ′(x) = −x · y(x), y(0) = 1

und untersuchen das verbesserte Euler–Verfahren.

Zunachst suchen wir die Verfahrensfunktion Φ(x, y;h) fur das verbesserte Euler–Verfahren. Es ist

yi+1 = yi + h · f(xi +h

2, yi +

h

2· f(xi, yi))

= yi + h · f(

xi +h

2, yi +

h

2· (−xi · yi)

)

= yi + h · f(

xi +h

2, (1− h

2· xi)yi

)

= yi−h ·(

xi +h

2

)(1− h

2xi

)· yi︸ ︷︷ ︸

Φ(xi,yi;h)

Die Verfahrensfunktion lautet also

Φ(x, y;h) = −h ·(

x +h

2

)(1− h

2x

)· y

Zur Untersuchung, ob diese Funktion bezgl. y Lipschitzstetig ist, benutzen wir dashinreichende Kriterium und betrachten die partielle Ableitung nach y:

∂Φ∂y

= −(

x +h

2

)·(

1 +h

2x

)

Diese Ableitung bleibt auf jedem endlichen Intervall beschrankt. Also ist Φ bezgl. yLipschitzstetig.Im Satz 10.37 auf Seite 364 haben wir gesehen, daß das verbesserte Euler–Verfahrendie Konsistenzsordnung 2 besitzt. Unser Satz liefert damit, daß das verbesserte Euler–Verfahren mit der Ordnung 2 auch konvergiert.

Page 395: 3486584472_Mathem

382 10 Numerik von Anfangswertaufgaben

10.7 Lineare Mehrschritt–Verfahren

Bisher haben wir uns mit sog. Einschritt–Verfahren befaßt. Das sind Verfahren, beidenen aus der Kenntnis einer Naherung an einer Stelle xi die Naherung an der nachstenStelle xi+1 berechnet wird. Man macht also nur einen Schritt der Schrittweite h vor-warts, um den nachsten Wert zu berechnen.Anders ist das bei Mehrschritt–Verfahren. Dort berechnet man z. B. bei einem Vier–Schritt–Verfahren aus der Kenntnis von Naherungswerten an den Stellen xi, xi+1,xi+2 und xi+3 den neuen Naherungswert an der Stelle xi+4. Kennt man also bei xi

den Naherungswert yi, bei xi+1 den Naherungswert yi+1, bei xi+2 den Naherungswertyi+2und dann noch bei xi+3 den Naherungswert yi+3, so kommt man nach dem viertenSchritt nach xi+4 und berechnet dort den neuen Naherungswert yi+4 aus den viervorherigen Werten.Um die Situation uberschaubar zu halten, beschranken wir uns auf lineare Mehrschritt–Verfahren, die wir folgendermaßen definieren:

Definition 10.62 Sind die Naherungswerte yi, yi+1, . . . ,yi+k−1 bekannt, so nenntman folgende Formel zur Berechnung von yi+k

α0yi + α1yi+1 + · · ·+ αkyi+k == h · [β0f(xi, yi) + β1f(xi+1, yi+1) + · · ·+ βkf(xi+k, yi+k)] (10.64)

ein lineares k–Schritt–Verfahren zur Losung der Anfangswertaufgabe (10.37).Fur βk = 0 heißt das Verfahren explizit, fur βk = 0 heißt es implizit.

Das sieht schlimmer aus, als es ist. Fur k = 1, α0 = −1; α1 = 1, β0 = 1 und β1 = 0entsteht, wie man hoffentlich sofort sieht, unser guter alter expliziter Euler.Fur k = 1, α0 = −1; α1 = 1, β0 = 0 und β1 = 1 erhalt man den impliziten Euler.Beides sind aber Einschritt–Verfahren, die wahre Mehrschrittigkeit sieht man an ihnennicht.Mit der folgenden Formel

yi+1 = yi +h

2· (3f(xi, yi)− f(xi−1, yi−1) (10.65)

wird dagegen ein echtes Zwei–Schritt–Verfahren vorgestellt: Man braucht die Werteyi−1 und yi, um dann damit yi+1 berechnen zu konnen. Es ist außerdem explizit, dader neu zu berechnende Naherungswert yi+1 nur links auftritt.Wir wollen an diesem Beispiel stellvertretend erklaren, wie man im Prinzip solcheMehrschritt–Verfahren entwickelt.

10.7.1 Herleitung von Mehrschritt–Verfahren

Wir betrachten statt der Anfangswertaufgabe (10.37) die zugeordnete Integralglei-chung∫ xi+1

xi

y ′(t) dt =∫ xi+1

xi

f(t, y(t)) , dt

Page 396: 3486584472_Mathem

10.7 Lineare Mehrschritt–Verfahren 383

aus der wir durch einfaches Ausnutzen des Hauptsatzes der Diff.- und Integralrechnungerhalten:

y(xi+1) = y(xi) +∫ xi+1

xi

f(t, y(t)) , dt.

Nun kommt der Trick: Wir ersetzen im Integral die Funktion f durch das zugehori-ge Interpolationspolynom, das f in den beiden Stellen xi und xi−1 interpoliert. Einsolches Polynom laßt sich leicht integrieren, und auf diese Weise erhalten wir unseregewunschte 2–Schritt–Formel.Mit Schulmethoden (Zwei–Punkte–Form) oder auch dem Newton–Verfahren kann mansofort das Polynom 1. Grades durch die Punkte (xi, f(xi, yi)) und (xi−1, f(xi−1, yi−1))hinschreiben. Es lautet

p1(x) = f(xi, yi) +f(xi, yi)− f(xi−1, yi−1)

h· (x− xi).

Das ist genau so schnell integriert:∫ xi+1

xi

p1(t) dt =∫ xi+1

xi

[f(xi, yi) +

f(xi, yi)− f(xi−1, yi−1)h

· (t− xi)]

dt

= f(xi, yi) · h +f(xi, yi)− f(xi−1, yi−1)

h· (xi−1 − xi)2

2

= h

[f(xi, yi) +

f(xi, yi)− f(xi−1, yi−1)2

]

=h

2[3f(xi, yi)− f(xi−1, yi−1)]

Das ergibt unsere 2–Schritt–Formel:

yi+1 = yi +h

2[3f(xi, yi)− f(xi−1, yi−1)]

Aha, so spielt die Musik also. Wir berechnen zu den vorgegebenen Stutzstellen mitden Funktionswerten das zugehorige Interpolationspolynom, das sich leicht integrierenlaßt. Daraus entsteht je nach Anzahl der vorgegeben Stutzstellen eine Mehrschritt–Formel.Wie schon bei Einschritt–Verfahren treibt uns auch hier die Frage um, ob diese Ver-fahren freundlich genug sind, uns zum richtigen Ergebnis zu fuhren. Hier wie dortmussen wir dazu drei verschiedene Punkte beachten.

• Wie steht es mit dem lokalen Fehler, also dem Fehler, der sich bei Ausfuhrungeines einzigen Schrittes ergibt? → Konsistenz

• Bleibt das Verfahren lieb, wenn man sehr, sehr viele Schritte ausfuhrt? → Sta-bilitat

• Fuhrt uns das Verfahren schließlich auch zur gesuchten Losung? → Konvergenz

Damit ist klar, wie unser nachster Abschnitt heißt.

Page 397: 3486584472_Mathem

384 10 Numerik von Anfangswertaufgaben

10.8 Konsistenz, Stabilitat und Konvergenz bei Mehr-schrittverfahren

10.8.1 Konsistenz

Wir erinnern an den Abschnitt 10.6 von Seite 357, wo wir einfuhrend uber den BegriffKonsistenz gesprochen haben. Es geht um den Fehler, der bei einem einzigen Schrittgemacht wird. Hier bei den Mehrschritt–Verfahren ubertragt sich die Definition fastwortlich. Aber wegen der Linearitat der Verfahren ergeben sich einfachere Kriterienzum Nachweis der Konsistenz.Bei dem Mehrschritt–Verfahren wird die Naherung yi+k zum Wert y(xi+k) der exaktenLosung berechnet. Betrachten wir daher die Differenz

y(xi+k)− yi+k

und setzen den Naherungswert yi+k aus dem Mehrschritt–Verfahren ein, wobei wirvoraussetzen und das in der Schreibweise auch ausdrucken, daß die Werte y(xi, . . . ,y(xi+k−1) an den vorderen Stellen exakt sind. Eine harmlose Hin- und Herrechnereifuhrt uns sofort zur Definition:

Definition 10.63 Wir betrachten wieder eine Anfangswertaufgabe (10.37) und zu ihrein lineares k–Schritt–Verfahren wie in (10.64). Wir nennen das k–Schritt–Verfahrenkonsistent mit der AWA, wenn gleichmaßig fur alle Stutzstellen gilt:

1h

∣∣∣∣ (α0y(xi) + · · ·+ αky(xi+k)) − h · [β0f(xi, y(xi) + · · ·+ βkf(xi+k, y(xi+k))]∣∣∣∣→ 0

fur h → 0 (10.66)

Wir sagen, daß das k–Schritt–Verfahren die Konsistenzordnung p ≥ 0 hat, wenn furjede Funktion f ∈ Cp+1 gleichmaßig fur alle Stutzstellen gilt:

1h

∣∣∣∣ (α0y(xi) + · · ·+ αky(xi+k)) − h[β0f(xi, y(xi) + · · ·+ βkf(xi+k, y(xi+k))]∣∣∣∣ = O(hp)

fur h → 0 (10.67)

Wir weisen noch einmal auf die kleine Wichtigkeit hin, daß wir uberall statt der Nahe-rung yi, . . . , yi+k die exakten Werte y(xi), . . . , y(xi+k) verwenden. Außerdem habenwir auch hier durch die Schrittweite h dividiert. Dadurch wird die Potenz von h auf derrechten Seite um 1 erniedrigt, und so schaffen wir es, daß auch bei den Mehrschritt–Verfahren die Konsistenzordnung mit der Konvergenzordnung in Ubereinstimmungbleibt, wie wir spater sehen werden. So haben wir es ja auch oben schon gemacht.Der nachste Satz enthalt ein sehr einfaches hinreichendes Kriterium, wann ein linearesk–Schritt–Verfahren konsistent ist. Es lautet:

Satz 10.64 Das lineare k–Schritt–Verfahren (10.64) zur AWA (10.37) ist konsistentmit mindestens der Konsistenzordnung 1, falls folgende beiden Gleichungen erfullt

Page 398: 3486584472_Mathem

10.8 Konsistenz, Stabilitat und Konvergenz bei Mehrschrittverfahren 385

sind:

α0 + α1 + · · ·+ αk = 0 (10.68)1 · α1 + 2 · α2 + · · ·+ k · αk = β0 + β1 + · · ·+ βk (10.69)

Bevor wir ein Beispiel dazu betrachten, wollen wir erwahnen, daß man diese Bedin-gungen auch ganz witzig mit Hilfe der das k–Schritt–Verfahren erzeugenden Polynomebeschreiben kann.Dazu nennen wir

(x) = α0 + α1 · x + α2 · x2 + · · ·+ αk · xk (10.70)

das erste charakteristische Polynom und

σ(x) = β0 + β1 · x + β2 · x2 + · · ·+ βkxk (10.71)

das zweite charakteristische Polynom des k–Schritt–Verfahrens. Betrachten Sie nundiese Polynome lange genug, so sehen Sie, daß sich die beiden Gleichungen (10.68)und (10.69) auch so ausdrucken lassen:

Satz 10.65 Das lineare k–Schritt–Verfahren (10.64) zur AWA (10.37) ist konsistentmit mindestens der Konsistenzordnung 1, falls folgende beiden Gleichungen erfulltsind:

(1) = 0, ′(1) = σ(1) (10.72)

Beispiel 10.66 Wenn wir, wie wir es oben schon mal erlautert haben, unsere An-fangswertaufgabe in eine Integralgleichung verwandeln und diese dann mit der Kep-lerschen Faßregel (vgl. Kapitel ’Numerische Quadratur’ Seite 217) integrieren, so er-halten wir folgende Formel, die nach Milne–Simpson benannt wird:

yi = yi−2 +h

3(f(xi, yi) + 4f(xi−1, yi−1) + f(xi−2, yi−2)) (10.73)

Offensichtlich handelt es sich um ein implizites Verfahren, da die neu zu berechnen-de Naherung yi auch rechts zu finden ist. Wir wollen untersuchen, ob diese Formelkonsistent ist.

Zuerst mussen wir die Formel in die Form unserer MSV (10.64) bringen. Man sieht ihran, daß es ein 2–Schritt–Verfahren ist. Eine Indexverschiebung i → i+2 laßt folgendeFormel entstehen:

yi+2 = yi +h

3(f(xi+2, yi+2) + 4f(xi+1, yi+1) + f(xi, yi))

Daraus lesen wir das erste charakteristische Polynom

(x) = x2 − 1

Page 399: 3486584472_Mathem

386 10 Numerik von Anfangswertaufgaben

und das zweite charakteristische Polynom

σ(x) =13(x2 + 4x + 1

)ab. Naturlich sieht man sofort

(1) = 0 und ′(1) = 2 = σ(1).

Damit ist (10.72) erfullt, unser Verfahren ist also konsistent. Wir wissen aber nochnichts uber die Konsistenzordnung.Der folgende Satz gibt uns ein Kriterium in die Hand, die Konsistenzordnung direktaus dem Verfahren zu berechnen.

Satz 10.67 Das lineare k–Schritt–Verfahren (10.64) zur AWA (10.37) hat die Kon-sistenzordnung p genau dann, wenn gilt

α0 + α1 + · · ·+ αk = 0 (10.74)

und zugleich folgende Gleichungen fur λ = 1, . . . , p erfullt sind:k∑

j=0

[αj · jλ

λ!− βj · jλ−1

(λ− 1)!

]= 0, λ = 1, . . . , p (10.75)

Um nicht den Uberblick zu verlieren, schreiben wir die Formeln fur die Ordnung p = 4mal explizit auf.

Beispiel 10.68 Gleichungen zur Uberprufung der Konsistenzordnung p = 4 fur einlineares Mehrschritt–Verfahren.

Wir schreiben die ersten Glieder der jeweiligen Gleichung hin, den Rest kann mandann leicht weiter fortsetzen.

α0 + α1 + · · ·+ αk = 0 (10.76)

λ = 1 : −β0 +α1 −β1 +2α2 −β2 +3α3 −β3 +− · · · = 0

λ = 2 : 12α1 −β1 +4

2α2 −2β2 +92α3 −3β3 +− · · · = 0

λ = 3 : 16α1 −1

2β1 +86α2 −4

2β2 +276 α3 −9

2β3 +− · · · = 0

λ = 4 : 124α1 −1

6β1 +1624α2 −8

6β2 +8124α3 −27

6 β3 +− · · · = 0

(10.77)

Beispiel 10.69 Wieder nehmen wir das Verfahren von Milne–Simpson

yi = yi−2 +h

3(f(xi, yi) + 4f(xi−1, yi−1) + f(xi−2, yi−2)) ,

schreiben es aber gleich um in die Form der Definition (10.64)

−yi + yi+2 =h

3(f(xi, yi) + 4f(xi+1, yi+1) + f(xi+2, yi+2))

und fragen jetzt nach der genauen Konsistenzordnung.

Page 400: 3486584472_Mathem

10.8 Konsistenz, Stabilitat und Konvergenz bei Mehrschrittverfahren 387

Nun, durch Vergleich sehen wir α0 = −1, α1 = 0, α2 = 1 und auf der rechten Seiteβ0 = 1

3 , β1 = 43 , β2 = 1

3 . Das setzen wir ein in die Gleichung (10.74)

α0 + α1 + · · ·+ αk = −1 + 0 + 1 = 0

und in die Gleichungen (10.77)

λ = 1 : −β0 + α1 − β1 + 2α2 − β2 + 3α3 − β3 = −13 + 0− 4

3 + 2 · 1− 13 = 0

λ = 2 : 12α1 − β1 + 4

2α2 − 2β2 = 12 · 0− 4

3 + 42 · 1− 2 · 1

3 = 0

λ = 3 : 16α1 − 1

2β1 + 86α2 − 4

2β2 = 16 · 0− 1

2 · 43 + 8

6 · 1− 42 · 1

3 = 0

λ = 4 : 124α1 − 1

6β1 + 1624α2 − 8

6β2 = 124 · 0− 1

6 · 43 + 16

24 · 1− 86 · 1

3 = 0

Damit haben wir locker gezeigt, daß dieses Verfahren mindestens die Konsistenzord-nung 4 besitzt. Jetzt werden wir frech und probieren noch eine Gleichung weiter. Hates vielleicht gar die Ordnung 5?

λ = 5 :1

120α1 − 1

24β1 +

32120

α2 − 1624

β2 =1

120· 0− 1

24· 43

+32120

· 1− 1624· 13

= − 190

= 0

Also, es war ja einen Versuch wert, so konnten wir immerhin die Konsistenzordnung4 dingfest machen.Wir wollen noch erwahnen, daß man den Satz 10.67 in einer Art Umkehrung dazubenutzen kann, lineare Mehrschritt–Verfahren zu entwickeln. Dazu nutzen wir dasgenau dann, wenn . . . im Satz aus.

Beispiel 10.70 Wir betrachten folgendes explizite 3-Schritt–Verfahren:

yi+1 = α · yi + h[β2 · f(xi, yi) + β1 · f(xi−1, yi−1) + β0 · f(xi−2, yi−2)]

Wir bestimmen mit Hilfe des Kriteriums in Satz 10.67 die Koeffizienten α, β0, β1 undβ2 so, daß dieses Verfahren die großtmogliche Konsistenzordnung besitzt.

Zunachst bringen wir unser Verfahren durch eine harmlose Indexverschiebung (i →i + 2) auf die Form in Definition 10.64 von Seite 382:

yi+3 − α · yi+2 = h[β0 · f(xi, yi) + β1 · f(xi+1, yi+1) + β2 · f(xi+2, yi+2)]

Jetzt sehen wir unmittelbar das 3-Schritt–Verfahren durchleuchten. Im Vergleich mitDef. 10.64 ist dabei: α0 = α1 = 0, α2 = −α, α3 = 1.Aus der ersten Gleichung (10.76) folgt sofort

−α + 1 = 0 ⇐⇒ α = 1

Page 401: 3486584472_Mathem

388 10 Numerik von Anfangswertaufgaben

Damit bleiben noch drei Unbekannte β0, β1 und β2 zu bestimmen. Wir benutzen dahervon (10.75) drei Gleichungen und erhalten

λ = 1 : −β0 −β1 −2α −β2 +3 = 0

λ = 2 : −β1 −2α −2β2 +92 = 0

λ = 3 : −12β1 −8

6α −42β2 +27

6 = 0

Daraus ergibt sich folgendes lineare Gleichungssystem

⎛⎝ −1 −1 −1

0 −1 −10 −1

2 −2

⎞⎠⎛⎝ β0

β1

β2

⎞⎠ =

⎛⎝ −1

−52

−196

⎞⎠ ,

das genau eine Losung besitzt, namlich

β2 =2312

, β1 = −43, β0 =

512

.

Damit erhalten wir unser gesuchtes 3-Schritt–Verfahren mit der Konsistenzordnung3:

yi+1 = yi + h[2312

· f(xi, yi)− 43· f(xi−1, yi−1) +

512· f(xi−2, yi−2)]

Dieses Verfahren wurde seinerzeit von Adams10 und Bashforth11 entwickelt. Wir stel-len hier die wichtigsten ihrer Formeln zusammen.

Adams–Bashforth–Formeln

yi+1 = yi + hf(xi, yi)

yi+1 = yi +h

2[3f(xi, yi)− f(xi−1, yi−1)]

yi+1 = yi +h

12[23f(xi, yi)− 16f(xi−1, yi−1) + 5f(xi−2, yi−2)]

Analoge Formeln fur den impliziten Fall wurden von Adams zusammen mit Moulton12

entwickelt.

10Adams, J.C. (1819-1892)11Bashforth, F. (1819-1912)12Leider ist es dem Autor nicht gelungen, der Lebensdaten von Frau oder Herrn Moulton habhaft

zu werden.

Page 402: 3486584472_Mathem

10.8 Konsistenz, Stabilitat und Konvergenz bei Mehrschrittverfahren 389

Adams–Moulton–Formeln

yi+1 = yi +h

2[f(xi, yi) + f(xi+1, yi+1)]

yi+1 = yi +h

12[5f(xi+1, yi+1) + 8f(xi, yi)− f(xi−1, yi−1)]

yi+1 = yi +h

24[9f(xi+1, yi+1) + 19f(xi, yi)− 5f(xi−1, yi−1) + f(xi−2, yi−2)]

10.8.2 Stabilitat

Zur Motivation fur die neuerliche Untersuchung des Begriffs Stabilitat beginnen wirmit einem Beispiel.

Beispiel 10.71 Wir betrachten folgende sehr einfache Anfangswertaufgabe

y ′(x) = 0 mit y(0) = 0,

der die Losung y ≡ 0 aus allen Knopflochern schaut. Zur naherungsweisen Losunggeben wir uns eine Schrittweite h > 0 vor, bestimmen damit die Stutzstellen x0, x1,. . . und verwenden das 2–Schritt–Verfahren

yi − 4yi−1 + 3yi−2 = −2f(xi−2, yi−2), i = 2, 3, 4 . . . (10.78)

mit den Startwerten

y0 = y(0) = 0, y1 = 2h,

um damit die Naherungen y2, y3, . . . zu berechnen.

Die beiden charakteristischen Polynome lauten:

(x) = x2 − 4x + 3, σ(x) = −2.

Wir sehen sofort, daß (1) = 1 und ′(1) = σ(1) = −2 ist, daß also unser Verfahrenmindestens die Konsistenzordnung 1 besitzt.Die Gleichung (10.78) ist eine sog. lineare Differenzengleichung, bei der auf der rechtenSeite die Funktion f aus der Differentialgleichung auftritt, also die Nullfunktion f ≡ 0.Damit ist die Differenzengleichung homogen, und wir losen sie mit ganz ahnlichenMethoden wie eine lineare Differentialgleichung.Wir berechnen die Nullstellen des sog. charakteristischen Polynoms, das sich aus denKoeffizienten der linken Seite zusammensetzt:

p(x) = x2 − 4x + 3 = 0 =⇒ x1 = 3, x2 = 1

Page 403: 3486584472_Mathem

390 10 Numerik von Anfangswertaufgaben

Damit entsteht die allgemeine Losung der Differenzengleichung, indem wir als Grund-funktion hier die allgemeine Exponentialfunktion verwenden, also

yi = A · 3i + B · 1i = A · 3i + B

Hier setzen wir die beiden Anfangsterme ein und erhalten

y0 = 0 =⇒ A · 30 + B = A + B = 0 ⇒ B = −A,

y1 = 2h =⇒ A · 31 + B = 2h ⇒ A = h = −B.

Und damit lautet die Losung

yi = (3i − 1) · h.

So, nun kommen wir zur Konvergenz. Dazu betrachten wir eine feste Stelle x, Nehmenwir an, daß wir i Schritte getan haben, um nach x zu gelangen. Dann ist also x = i ·hoder wenn wir anders auflosen

i =x

h.

Die Schrittweite h ist also bei festem x umgekehrt proportional zur Schrittzahl i.Die exakte Losung bei x hat ja den Wert 0. Den Naherungswert bei x nennen wir yi.Also mussen wir nur yi gegen 0 abschatzen. Nun ist

yi = (3i − 1) · h = (3xh − 1) · h.

Jetzt sehen wir, daß zwar der Faktor h mit kleinerer Schrittweite gegen 0 geht, aber derTerm 3

xh geht weit schneller nach ∞, es handelt sich ja um eine Exponentialfunktion.

Der Naherungswert yi wird sich also fur h → 0 nicht der exakten Losung annahern,und das trotz Konsistenzordnung 1.Es braucht also etwas mehr als nur die Konsistenz, um Konvergenz zu sichern. Wirbrauchen Stabilitat, die wir nun fur Mehrschritt–Verfahren definieren.

Definition 10.72 (Stabilitat) Wir betrachten eine Anfangswertaufgabe (10.37) undzu ihr ein lineares k–Schritt–Verfahren wie in (10.64). Fur eine Schrittweite h > 0bestimmen wir also, ausgehend vom Anfangswert (x0, y0), Stutzstellen x1, x2,. . . undmit dem k–Schrittverfahren Naherungswerte y1,y2 . . .Mit Dh werde die folgende aufden Stutzstellen definierte Defektfunktion bezeichnet:

Dh(v) =

⎧⎪⎨⎪⎩

vj − yj fur j = 0, 1, . . . , k − 1 Startwerte1h

[α0vi + · · ·+ αkvi+k −h[β0fi + · · ·+ βkfi+k]

]fur i = 0, 1, . . . ,m− k

Das k–Schrittverfahren heißt dann stabil, wenn es positive Konstanten H und K gibt,so dass fur jedes h ≤ H und jede Gitterfunktion v gilt:

‖v‖ ≤ K · ‖Dh(v)‖Die Norm ist hierbei die Maximumnorm.

Page 404: 3486584472_Mathem

10.9 Pradiktor–Korrektor–Verfahren 391

In der letzten Ungleichung ist zu beachten, da die Konstante K unabhangig von derSchrittweite h zu sein hat. Es muß also eine globale Konstante K geben, so daß dieInverse der Defektfunktion Lipschitz–stetig mit derselben Lipschitzkonstanten fur alleSchrittweiten h ist. Diese Bedingung ist wirklich schwer uberprufbar. Bei Mehrschritt-verfahren kann diese Bedingung durch eine einfach nachweisbare ”Wurzelbedingung“ersetzt werden.

Satz 10.73 (Wurzelbedingung) Das k–Schrittverfahren (10.64) ist fur beliebigeStartwerte genau dann stabil, wenn die Nullstellen des charakteristischen Polynoms

(x) = α0 + α1x + · · ·+ αkxk

einen Betrag kleiner oder gleich 1 haben und wenn diejenigen vom Betrag 1 einfacheNullstellen sind.

Jetzt klart sich unser obiges Beispiel. Die Nullstellen haben wir ja berechnet, undsiehe da, eine war 3 und hatte daher einen Betrag großer als 1, also ist unser 2–Schrittverfahren nicht stabil.

10.8.3 Konvergenz

Hier fassen wir uns kurz und schildern lediglich das Hauptergebnis. Der Beweis kannin der Spezialliteratur nachgelesen werden.Den Zusammenhang mit der Konvergenz liefert der folgende wichtige Satz:

Satz 10.74 (Aquivalenzsatz von Lax) Ist das k–Schrittverfahren fur die Anfangs-wertaufgabe stabil, so ist das Verfahren genau dann konvergent, wenn es konsistentist.Die Konsistenzordnung p ist dann zugleich die Konvergenzordnung.

In den Anwendungen wird man diesen Satz wohl eher zur Begrundung fur Konvergenzheranziehen, nicht um Stabilitat zu prufen. Darum durfte sich folgende Kurzformbesser im Gedachtnis einnisten:

Satz 10.75 (Aquivalenzsatz von Lax, in Kurzform) Aus Konsistenz und Stabi-litat folgt Konvergenz.

10.9 Pradiktor–Korrektor–Verfahren

Dieses Verfahren ist eine interessante Kombination aus expliziten und impliziten Ver-fahren. Dabei nutzt man die Vorteile beider Verfahren geschickt aus.

• explizite Verfahren: Schritt fur Schritt kann man bei guter Konsistenz immerweitere Naherungswerte ausrechnen,leider sind sie nur eingeschrankt stabil

Page 405: 3486584472_Mathem

392 10 Numerik von Anfangswertaufgaben

• implizite Verfahren: Zur Berechnung weiterer Werte mußte man eine impliziteGleichung losen,sie sind weitgehend stabil, das Trapezverfahren ist unbedingt stabil

Eine Kleinigkeit muß noch geklart werden. Zur Anwendung eines k–Schritt–Verfahrensbraucht man die Startwerte y0 bei x0 – dafur nimmt man in der Regel den gegebenenAnfangswert y0 = y(x0) – und die Werte y1, . . . , yk bei x1, . . . , xk. Zu ihrer Berechnungbedient man sich einer sogenannten Anlaufrechnung, da treibt man es z. B. mit HerrnEuler oder den Herren Runge und Kutta. Erst dann beginnt das Pradizieren undKorrigieren.

Pradiktor–Korrektor–Verfahren

1. Anlaufrechnung: Ausgehend vom Anfangswert y0 = y(x0) verschaffen wiruns mit einem expliziten Einschritt–Verfahren die Startwerte y1, . . . , yk beix1, . . . , xk.

2. Pradiktorschritt: Mit einem expliziten k–Schritt–Verfahren berechnen wireinen Naherungswert yk+1 bei xk+1.

3. Korrektorschritt: Diesen Wert yk+1 nehmen wir als Startwert y(0)k+1 fur ein ite-

ratives Vorgehen mit dem impliziten Verfahren, mit dem wir einen korrigiertenWert y

(1)k+1 berechnen, um damit erneut durch Einsetzen auf der rechten Seite

der Verfahrensgleichung einen neuen korrigierten Wert y(2)k+1 zu berechnen und

so fort.

4. Pradiktorschritt: Wenn sich die Korrektur nach n Schritten nicht mehr we-sentlich andert, nehmen wir den so entstandenen Wert y

(n)k+1 als Wert yk+1 in

die explizite Formel, mit der wir durch Erhohung des Indexes um 1 den Wertyk+2 berechnen, den wir dann auf dieselbe Weise wie zuvor mit dem implizitenVerfahren korrigierenund so weiter und so fort

Man beginnt also mit einem der expliziten Mehrschritt–Verfahren, dabei dessen guteKonsistenz ausnutzend, und berechnet einen neuen Naherungswert an der nachstenStutzstelle.Dann verbessert man diesen Wert durch iteratives Vorgehen mit dem impliziten Ver-fahren. Dabei benutzt man den expliziten Wert als Startwert auf der rechten Seiteder impliziten Gleichung und berechnet links den neuen Wert als Korrektur des altenWertes. Genau so kommt der Name fur dieses Vorgehen zustande.Da gibt es nun eine Fulle von Abwandlungen, vielleicht will ja jemand erst nach dreibis vier direkten Schritten mit dem impliziten Verfahren korrigierend eingreifen. Dasbleibt dem Anwender uberlassen.

Page 406: 3486584472_Mathem

10.9 Pradiktor–Korrektor–Verfahren 393

Die Erfahrung zeigt, daß man beim Korrigieren gar nicht viel investieren muß; haufigsind ein oder zwei Korrekturschritte genug, um die gewunschte Genauigkeit zu errei-chen.Wir zeigen das Vorgehen am besten an einem Beispiel.

Beispiel 10.76 Gegeben sei die Anfangswertaufgabe

y ′(x) = −x · y2(x), y(0) = 2.

Wir berechnen eine Naherung fur y(1) mit dem folgenden Pradiktor–Korrektor–Ver-fahren zur Schrittweite h = 1

2 :Setze x0 = 0, y0 = 2 (gegebener Anfangswert) und xk = k · h, k = 1, 2, . . ..

Fur k = 0 und k = 1 berechne

y(0)k+1 = yk + h · f(xk, yk) (Euler–Verfahren)

Fur = 0 und = 1 berechne

y(+1)k+1 = yk +

h

2·(f(xk, yk) + f(xk+1, y

()k+1)

)(Trapez–Verfahren)

Setze yk+1 = y(2)k+1, bestimme also y2 als Naherung fur y(1).

Mit Euler als Pradiktor und dem Trapez–Verfahren als Korrektor wollen wir unserVerfahren durchfuhren. Dabei wollen wir den jeweiligen Euler–Wert zweimal mit demTrapez–Verfahren korrigieren.

k = 0 Erster Eulerschritt

y(0)1 = y0 + h · f(x0, y0) = 2 +

12(−0 · 22) = 2

= 0 Erster Korrekturschritt

y(1)1 = y0 +

h

2(f(x0, y0) + f(x1, y

(0)1 )) = 2 +

14

(0− 1

2· 22

)= 1.5

= 1 Zweiter Korrekturschritt

y(2)1 = y0 +

h

2(f(x0, y0) + f(x1, y

(1)1 )) = 2 +

14

(0− 1

2·(

32

)2)

=5532

= 1.71875

Damit erhalten wir als Naherung fur y(0.5) den Wert

y1 =5532

= 1.71875

Page 407: 3486584472_Mathem

394 10 Numerik von Anfangswertaufgaben

k = 1 Zweiter Eulerschritt

y(0)2 = y1 + h · f(x1, y1) =

5532

+12(−1

2·(

5532

)2

) =40154096

= 0.98022

= 0 Erster Korrekturschritt

y(1)2 = y1 +

h

2(f(x1, y1) + f(x2, y

(0)2 ))

= 1.71875 +14

(−1

2· 1.718752 − 1 · (0.98022)2

)= 1.10928

= 1 Zweiter Korrekturschritt

y(2)2 = y1 +

h

2(f(x1, y1) + f(x2, y

(1)1 ))

= 1.71875 +14

(−1

2· (1.71875)2 − 1 · (1.10928)2

)=

5532

= 1.04186

Damit erhalten wir insgesamt

y(1) ≈ y2 = y(2)2 = 1.04186

Die exakte Losung der Anfangswertaufgabe lautet ubrigens

y(x) =2

1 + x2, also ist y(1) = 1.

Die Korrektur bringt also noch eine deutliche Verbesserung.

Page 408: 3486584472_Mathem

Kapitel 11

Numerik von Randwertaufgaben

11.1 Aufgabenstellung

Beginnen wir diesen Abschnitt mit einem Beispiel.

Beispiel 11.1 Durchhangendes elastisches SeilBetrachten wir doch einmal ein langeres Seil aus einem elastischen Material, dessenbeide Enden an zwei Punkten festgemacht sind. Unter dem Einfluß der Schwerkrafthangt es dann nach unten durch. Interessant ist doch die Frage, was das fur eineKurve ist, die das Seil annimmt. Nun, die Physik lehrt, daß dieses Seil einer Diffe-rentialgleichung gehorcht:

−(E(x) · y′(x))′ = F (x),

wobei E(x) die Elastizitat des Materials beschreibt, F (x) die Kraft ist, die das Seilnach unten zieht, und y(x) die Funktion ist, deren Graph unsere Seilkurve ist. DasFestmachen des Seils bedeutet, daß zwei Punkte vorgegeben ist, die unverruckbar mitdem Seil verbunden sind. Die gesuchte Kurve y(x) muß durch diese beiden Punktehindurchgehen. Nehmen wir an, wir hangen es bei x = a in der Hohe A und dann beix = b in der Hohe B auf, so bedeutet das:

y(a) = A, y(b) = B. (11.1)

Diese beiden Bedingungen sind es, die unsere Aufgabenstellung von den Anfangswert-aufgaben des vorigen Abschnittes unterscheidet. Wir geben nicht an einer Stelle zweiBedingungen vor, also vielleicht den Ort und die Geschwindigkeit, sondern betrachtenzwei verschiedene Stellen, an denen wir jeweils einen Wert vorschreiben. Diese Stellenbestimmen das Intervall, in dem wir uns fur eine Losung interessieren. Wir nennensie die Rander, und damit heißen die beiden Bedingungen (11.1) Randbedingungenund die Differentialgleichung zusammen mit den Randbedingungen Randwertaufgabe.

Page 409: 3486584472_Mathem

396 11 Numerik von Randwertaufgaben

Damit konnen wir nun allgemein unsere Aufgabe beschreiben, wobei wir uns auf Dif-ferentialgleichungen zweiter Ordnung beschranken wollen, um die Ubersicht nicht zuverlieren. Eine Verallgemeinerung auf hohere Ordnung ist nicht schwer.

Definition 11.2 Unter einer Randwertaufgabe verstehen wir folgende Fragestellung:Gesucht ist eine Funktion y(x), die der Differentialgleichung

F(x, y(x), y ′(x), y ′′(x)

)= 0 (11.2)

und den Randbedingungen

R1

(a, y(a), y ′(a), b, y(b), y ′(b)

)= 0 (11.3)

R2

(a, y(a), y ′(a), b, y(b), y ′(b)

)= 0 (11.4)

genugt.

Dabei sind also F und R1 und R2 willkurlich vorgebbare oder aus einer physikalischenAufgabe hervorgehende Funktionen fur die DGl und die beiden Randbedingungen.Dies ist die allgemeinste Randwertaufgabe zweiter Ordnung, wie wir sie hier nur derVollstandigkeit wegen zitieren. Wenn wir gleich anschließend verschiedene Verfahrenschildern, werden wir uns auf Spezialfalle beschranken, weil fur diese allgemeine FormAussagen nur schwer erreichbar sind.

11.1.1 Homogenisierung der Randbedingungen

Bei vielen numerischen Verfahren ist es angenehmer, wenn man sich nicht mit verruck-ten Randbedingungen herumplagen muß, sondern wenn sie homogen sind. Aber ma-chen wir uns, wenn wir lediglich homogene Randbedingungen betrachten, das Lebennicht zu leicht? Gehen wir den wahren Schwierigkeiten aus dem Weg? Oder ist dasegal?Wir wollen uns hier uberlegen, daß man fur eine ziemlich weite Klasse von Aufgabengetrost homogene Randbedingungen betrachten kann, nichthomogene lassen sich stetsauf homogene zuruckfuhren.Betrachten wir folgende Randwertaufgabe:

y ′′(x) = f(x, y(x)) mit y(a) = A, y(b) = B,

und hier seien haßlicherweise A = 0 und B = 0. Es ist also eine explizite DGl zweiterOrdnung, die keine erste Ableitung der gesuchten Funktion enthalt; sie darf aber ganzschon nichtlinear sein.Dann suchen wir uns eine lineare Funktion u(x), die durch die beiden Punkte (a,A)und (b,B) geht. Die Zwei–Punkte–Form aus der seeligen Schulzeit liefert die Funktion:

u(x) = A + (x− a) · B −A

b− a.

Bezeichnen wir mit y(x) die Losung unserer Randwertaufgabe, so betrachten wir jetztdie Funktion

w(x) := y(x)− u(x).

Page 410: 3486584472_Mathem

11.1 Aufgabenstellung 397

Die hat es ganz schon in sich, sie erfullt namlich die homogenen Randbedingungen

w(a) = y(a)− u(a) = A−A = 0, w(b) = y(b)− u(b) = B −B = 0.

Bilden wir w ′′(x) und benutzen wir unsere DGl, so erhalten wir, da u(x) eine lineareFunktion ist,

w ′′(x) = y ′′(x)− u ′′(x) = f(x, y(x)) + 0 = f(x,w(x) + u(x)).

Das bedeutet also, daß wir folgende neue Randwertaufgabe mit homogenen Randbe-dingungen fur w(x) losen:

w ′′(x) = f(x,w(x) + u(x)) mit w(a) = w(b) = 0.

Anschließend nach hoffentlich erfolgreicher Bestimmung von w(x) addieren wir dieInterpolationsfunktion u(x) und erhalten als Losung unserer ursprunglichen Aufgabedie Funktion:

y(x) = w(x) + u(x).

Beispiel 11.3 Betrachte

y ′′(x) = y(x)− x + π

π, y(0) = 1, y(π) = 2.

Wir suchen eine Funktion u(x), die durch die beiden Punkte (0, 1) und (π, 2) geht:

u(x) =x

π+ 1 mit u ′(x) =

und u ′′(x) = 0.

Setze w(x) = y(x) − u(x), woraus sofort w(0) = w(π) = 0 folgt. Dann bilden wirw ′′(x) und verwenden die DGl

−w ′′(x) = −(y ′′(x)− u ′′(x))

= −y(x) +x + π

π+ u ′′(x)︸ ︷︷ ︸

=0

= −w(x)− u(x) +x + π

π= −w(x)

Damit erhalten wir die neue RWA fur die Funktion w(x) mit homogenen Randbedin-gungen

−w ′′(x) + w(x) = 0, w(0) = w(π) = 0.

Page 411: 3486584472_Mathem

398 11 Numerik von Randwertaufgaben

11.2 Zur Existenz und Einzigkeit einer Losung

Die Frage, ob eine Randwertaufgabe uberhaupt eine Losung besitzt und dann vielleichtsogar keine zweite mehr, ist leider nicht so ganz leicht zu beantworten. Das folgendeBeispiel gibt einen Hinweis, wo das Ubel verborgen ist.

Beispiel 11.4 Wir betrachten folgende Randwertaufgaben

(i) −y ′′(x)− y(x) = 0, y(0) = 1, y(1) = 0

(ii) −y ′′(x)− y(x) = 0, y(−π

2

)= 0, y

2

)= 0

(iii) −y ′′(x)− y(x) = 0, y(−π

2

)= 0, y

2

)= 1

Hier ist also jedesmal genau die gleiche simple Differentialgleichung gegeben, die Auf-gaben unterscheiden sich nur in den Randbedingungen. Die allgemeine Losung dieserlinearen DGl mit konst. Koeffizienten gewinnen wir sofort aus den Nullstellen dercharakteristischen Gleichung

λ2 + 1 = 0 ⇒ λ1,2 = ±i.

Damit sind also zwei unabhangige Losungen

y1(x) = eix und y2(x) = e−ix.

Wir hatten nun gerne reelle Losungen, da ja die ganze Aufgabe im Reellen formuliertist. Benutzen wir dazu die Formel von Euler–Moivre

eiz = cos z + i · sin z, bzw. e−iz = cos z − i · sin z,

und bilden wir die beiden Linearkombinationen12(y1(x) + y2(x)) = cos x,

12i

(y1(x)− y2(x)) = sin x,

so erhalten wir zwei reelle linear unabhangige Losungen, aus denen wir unsere neuereelle allgemeine Losung zusammensetzen konnen.

y(x) = c1 · cos x + c2 · sin x.

Wie gesagt, das ist die allgemeine Losung fur die Differentialgleichung in jeder derobigen Aufgaben. Nun kommen die Randbedingungen.

Zu (i): Die erste ergibt sofort

y(0) = 1 = c1

Die zweite sagt uns dann

y(1) = 0 = cos 1 + c2 · sin 1 =⇒ c2 = −cos 1sin 1

= −0.642

Page 412: 3486584472_Mathem

11.2 Zur Existenz und Einzigkeit einer Losung 399

Damit ist also

y(x) = −0.642 · sin x + cos x

Losung unserer RWA und zugleich die einzige Losung.

Zu (ii): Hier ergeben die beiden RBen

y(−π

2

)= 0 = −c2, y

2

)= 0 = c2

Wir finden keine Einschrankung fur c1. Das bedeutet, wir konnen c1 beliebigwahlen, stets ergibt sich eine Losung. Wir erhalten also unendlich viele Losungendieser RWA

y(x) = c1 · cos x c1 ∈ R

Zu (iii): Die erste RB fuhrt zu

y(−π

2

)= 0 = −c2 =⇒ c2 = 0,

die zweite ergibt

y(π

2

)= 1 = c2 =⇒ c2 = 1,

ein glatter Widerspruch, also gibt es diesmal leider uberhaupt keine Losung.

Es liegt also an den Randbedingungen, ob wir keine oder eine oder gar unendlich vieleLosungen finden.Unsere DGl war linear, dafur hat Stakgold 1979 einen allgemeinen Satz angegeben,von dem wir hier eine vereinfachte Version angeben, um obiges Verhalten zu erklaren:

Satz 11.5 Genau dann, wenn die lineare vollhomogene RWA

y ′′(x) + p(x) · y ′(x) + q(x) · y(x) = 0, y(a) = y(b) = 0

nur die triviale Losung y ≡ 0 besitzt, hat die nichthomogene RWA

y ′′(x) + p(x) · y ′(x) + q(x) · y(x) = r(x), y(a) = A, y(b) = B

fur jede Vorgabe von r(x), A und B eine einzige Losung.

Schauen wir zuruck auf obiges Beispiel. Im Fall (i) mussen wir uns nur die ersteRandbedingung homogen denken, um zu sehen, daß diese homogene Aufgabe c1 = 0und c2 = 0 ergibt, also nur die triviale Losung. Damit hat die nichthomogene Aufgabegenau eine Losung.Im Fall (ii) haben wir andere Randbedingungen, aber es handelt sich um eine sowohlin der rechten Seite als auch den Randbedingungen homogene Aufgabe. Fur sie ha-ben wir eine nichttriviale Losung gefunden. Der Satz sagt dafur, daß eben nicht furjede beliebige Vorgabe von nichthomogenen Randbedingungen genau eine Losung zuerwarten ist. Und in der Tat, unser Fall (iii) fuhrt zu gar keiner Losung.

Page 413: 3486584472_Mathem

400 11 Numerik von Randwertaufgaben

11.3 Kollokationsverfahren

Als erstes stellen wir ein ziemlich einfaches Verfahren zur numerischen Losung derRandwertaufgabe

y ′′(x) = f(x, y(x)), y(a) = y(b) = 0 (11.5)

vor. Die Differentialgleichung ist dabei recht allgemein; zwar ist sie explizit, aber rechtskonnen ganz schon nichtlineare Terme auftreten. Zur Vereinfachung der Rechnunghaben wir homogene Randbedingungen gewahlt, was ja nach Abschnitt 11.1.1 keineEinschrankung bedeutet.Als erste Tat zur Annaherung wahlen wir als mogliche Losung eine Kombination ausFunktionen, die wir einfacher berechnen konnen oder von denen wir das zumindestglauben. Klugerweise werden wir darauf achten, daß diese erhoffte Losung den Rand-bedingungen genugt, damit wir mit denen keinen Stress mehr haben. Diese Idee einerAnsatzfunktion findet sich in vielen Verfahren. Wir verweisen auf Ritz und Galerkin,die wir spater vorstellen werden. Mit Kombination meinen wir naturlich eine Linear-kombination, also lautet unser

Ansatz: w(x, a1, . . . , an) = a1 · w1(x) + · · ·+ an · wn(x), a1, . . . , an ∈ R

wobei die wi(x) naturlich linear unabhangig sein mussen, da es sonst keinen Sinnmacht. Man konnte sie ja sonst einfach zusammen fassen. Außerdem mussen sie denRandbedingungen genugen. Damit genugt dann die Ansatzfunktion w(x) auch denRandbedingungen.Dann kommt der zweite Schritt. Woher gewinnen wir die unbekannten Koeffizientena1,. . . ,an? Hier kommt jetzt die Spezialitat der Kollokation zum Tragen. Wir verlangennicht, daß diese Ansatzfunktion die Differentialgleichung uberall erfullt, das wurdepraktisch bedeuten, die Differentialgleichung exakt zu losen.Nein, als Naherung reicht es uns aus, wenn die Differentialgleichung in diskreten Punk-ten x1, . . . , xn, den Kollokationsstellen, erfullt wird. Dabei wahlen wir uns gerade soviele Stellen, wie wir unbekannte Koeffizienten haben. So erhalten wir durch Einsetzendieser Stellen die entsprechende Anzahl von Gleichungen. Ist die Differentialgleichunglinear, so entsteht auf die Weise ein System von n linearen Gleichungen fur die unbe-kannten a1,. . . ,an. Das losen wir mit unseren Kenntnissen aus Kapitel 1.Eine Warnung vor einem Fehlschluß darf nicht fehlen. Dadurch, daß in den Kolloka-tionsstellen die Differentialgleichung erfullt ist, ist keineswegs gewahrleistet, daß dieAnsatzfunktion dort mit der exakten Losung y(x) ubereinstimmt. In aller Regel ist

w(xi, a1, . . . , an) = y(xi), i = 1, . . . , n

Beispiel 11.6 Gegeben sei die Randwertaufgabe

−((1 + x)y ′) ′ + y = 2x mit y(0) = y(1) = 0.

Wir wollen diese Aufgabe naherungsweise mit dem Kollokationsverfahren unter Ver-

wendung eines 2–parametrigen Ansatzes und mit den Kollokationsstellen x1 =13,

x2 =23

losen

Page 414: 3486584472_Mathem

11.3 Kollokationsverfahren 401

Kollokationsverfahren

Wir betrachten die Randwertaufgabe

y ′′(x) = f(x, y(x)), y(a) = y(b) = 0

1. Wir wahlen (linear unabhangige) Funktionen w1(x),. . . ,wn(x) mit wi(a) =wi(b) = 0, i = 1, . . . , n und bilden mit ihnen den

Ansatz: w(x, a1, . . . , an) = a1 · w1(x) + · · ·+ an · wn(x), a1, . . . , an ∈ R

2. Wir setzen diese Ansatzfunktion in die Differentialgleichung ein und bildenden Defekt (linke Seite minus rechte Seite)

d(x, a1, . . . , an) = w ′′(x, a1, . . . , an)− f(x,w(x, a1, . . . , an))

(Ware w(x, a1, . . . , an) die exakte Losung, so ware dieser Defekt exakt 0.)

3. Wir wahlen n (nicht notwendig aquidistante) Knoten, die Kollokationsstellenx1, . . . , xn im Intervall [a, b].

4. Wir fordern, daß der Defekt d(x, a1, . . . , an) in den Kollokationsstellen ver-schwindet

d(xi, a1, . . . , an) = w ′′(xi, a1, . . . , an)− f(xi, w(x, a1, . . . , an)) = 0, i = 1, . . . , n.

Dadurch entstehen n Gleichungen, aus denen wir die unbekannten Koeffizien-ten a1, . . . , an versuchen zu berechnen. Ist die Differentialgleichung linear, soist dies ein lineares Gleichungssystem, und die Berechnung ist leicht moglich.

Der Ansatz wird so gewahlt, daß die Randbedingungen erfullt sind. Dazu nehmen wir

v1(x) = x(x− 1), v2(x) = x2(x− 1),

zwei Funktionen, die offensichtlich den Randbedingungen genugen, und bilden mitihnen den

Ansatz: w(x, a1, a2) := a1 · x(x− 1) + a2 · x2(x− 1), a1, a2 ∈ R.

Leichte Rechnung ergibt

w′(x; a1, a2) = 2a1x− a1 + 3a2x2 − 2a2x

w′′(x; a1, a2) = 2a1 + 6a2x− 2a2

Page 415: 3486584472_Mathem

402 11 Numerik von Randwertaufgaben

Diesen Ansatz setzen wir in die Differentialgleichung ein

−((1 + x)w ′(x, a1, a2)) ′ + w(x, a1, a2) = 2x

Jetzt kommt die Kollokation. Als Kollokationsstellen hat uns der freundliche Aufga-bensteller bereits x1 = 1/3, x2 = 2/3 vorgegeben. Also bilden wir

x1 = 13 : −4

3 [2a1 + 6a2 · 13 − 2a2]− [2a1 · 1

3 − a1 + 3a2 · 19 − 2a2 · 1

3 ]

+a1[19 − 13 ] + a2[ 1

27 − 19 ] = 2 · 1

3

x2 = 23 : −5

3 [2a1 + 6a2 · 23 − 2a2]− [2a1 · 2

3 − a1 + 3a2 · 49 − 2a2 · 2

3 ]

+a1[49 − 23 ] + a2[ 8

27 − 49 ] = 2 · 2

3

Das sind zwei lineare Gleichungen fur die zwei Unbekannten a1, a2. Ein klein wenigRumrechnerei fuhrt auf das System

−69a1 + 7a2 = 18−105a1 − 94a2 = 36,

dessen Losung a1 = −0, 2692 und a2 = −0, 0823 lautet. Als Naherung ergibt sich also

w(x) = −0, 2692x(x − 1)− 0, 0823x2(x− 1).

11.4 Finite Differenzenmethode FDM

Dieses Verfahren zeichnet sich durch seine große Einfachheit aus. Wir stellen zunachstdie Aufgabe vor, die wir behandeln mochten.Gesucht ist eine Funktion y(x), die folgender RWA genugt:

−p(x) · y ′′(x)−m(x) · y ′(x) + q(x) · y(x) = r(x), y(a) = y(b) = 0 (11.6)

Es handelt sich also um eine lineare DGl zweiter Ordnung mit nichtkonstanten Koeffi-zientenfunktionen. Die Randbedingungen sind getrennt nach Anfangs– und Endpunkt.Die FDM ist ein Verfahren zur Berechnung von Naherungswerten an bestimmtenStellen an die exakte Losung, es liefert also keine Funktion als Naherung, sondern nurdiskrete Werte.Diese Stellen sind in aller Regel aquidistant verteilte Punkte im Intervall [a, b], dasdurch die Randbedingungen bestimmt wird. Wir werden gleich sehen, wo die Aquidi-stanz von Vorteil ist.

Wahl der Stutzstellen

Wahle N ∈ N und berechne die Schrittweite

h :=b− a

N

Setze x0 = a, x1 = a + h, x2 = a + 2h, . . . , xN = a + N · h = a + N · b−aN = b

Page 416: 3486584472_Mathem

11.4 Finite Differenzenmethode FDM 403

An diesen Stutzstellen werden nun Naherungswerte gesucht. Wenn wir die exaktenWerte mit y(x) bezeichnen, so suchen wir also folgende

Naherungswerte

y0 = y(a)(durch 1. RB gegebener Wert,y1 ≈ y(x1), y2 ≈ y(x2), . . . ,yN = y(xN ) = y(b)durch 2. RB gegener Wert

Wie gewinnt man nun diese Naherungswerte?

Hauptgedanke der finiten Differenzenmethode FDM

Betrachte die Differentialgleichung nur an den Stutzstellen und ersetze alle Ab-leitungen in der Differentialgleichung (und auch in den Randbedingungen) durchDifferenzenquotienten.

Betrachten wir mal eine beliebige Stutzstelle xi+1 und wenden dort die Taylor–Ent-wicklung an:

y(xi+1 = y(xi + h) = y(xi) + h · y ′(xi) +h2

2!· y ′′(ξ) mit ξ ∈ (xi, xi+1). (11.7)

Hier ist ξ eine im allgemeinen unbekannte Stelle im Innern des Intervalls (xi, xi+1).Diese Gleichung losen wir nach y ′(xi) auf:

y ′(xi) =y(xi + h)− y(xi)

h− h

2!· y ′′(ξ).

Wenn jetzt also in der vorgelegten DGl die erste Ableitung erscheint, so wahlen wir alsStelle x eine Stutzstelle xi und ersetzen die Ableitung bei xi durch obige rechte Seite.Unglucklicherweise steht rechts dieses dumme ξ, das wir nicht kennen. Diesen additivenTerm lassen wir einfach weg. Soll er doch bleiben, wo der Pfeffer wachst; denn da stehtja vor ihm ein h. Wenn nun h → 0 geht, wird doch dieser Term immer kleiner, oder???Oh, oh, das ist reichlich vorlaut geschlossen. Was ist denn bitte, wenn gleichzeitigy ′′(ξ) immer großer wird, ja schließlich gegen ∞ geht? Dann ist nix mit weglassen.Also genau so haben wir doch schon beim Euler–Verfahren argumentiert (vgl. Seite350). Diese Bemerkung zeigt eine wesentliche Beschrankung der Differenzenmethode.Wenn wir diesen Term jetzt trotzdem weglassen, so unter der klaren Pramisse, daßunsere Losung y(x) sich bitte anstandig zu benehmen hat und schon beschrankt bleibt,eine harte Bedingung, da wir ja normalerweise y(x) gar nicht kennen, sondern erstberechnen wollen.Damit erhalten wir aber immerhin unter Einschrankungen eine Naherung:

y ′(xi) ≈ y(xi + h)− y(xi)h

+O(h), falls sup |y ′′(x)| < ∞.

Page 417: 3486584472_Mathem

404 11 Numerik von Randwertaufgaben

Dies nennt man den ersten vorwarts genommenen Differenzenquotienten (DQ) oderkurz Vorwarts-DQ. Wir haben schließlich bei der Taylor–Entwicklung einen Schrittvorwarts getan.Wenn jetzt unsere Stutzstellen nicht aquidistant gewahlt waren, so mußten wir furjedes xi ein anderes h verwenden. Dies ist moglich, aber doch ein recht erheblicherAufwand.Das schreit geradezu nach dem Ruckwarts–DQ, also ran an den Speck. Es ist

y(xi−1) = y(xi − h) = y(xi)− h · y ′(xi) +h2

2!· y ′′(ξ). (11.8)

Wieder dieses ξ wie oben, aber naturlich verschieden von obigem und genau so un-bekannt. Wir losen auch hier nach y ′(xi) auf und lassen den Term h

2! · y ′′(ξ) unterderselben Voraussetzung an die Losungsfunktion y(x) wie oben weg. Das ergibt eineetwas andere Naherung fur die erste Ableitung:

y ′(xi) ≈ y(xi)− y(xi − h)h

+O(h), falls sup |y ′′(x)| < ∞. (11.9)

Eine interessante Variante ergibt sich, wenn wir die Taylorentwicklungen fur den Vor-warts–DQ und fur den Ruckwarts–DQ jeweils noch etwas weiter treiben und dannvoneinander subtrahieren:

y(xi+1) = y(xi + h) = y(xi) + h · y ′(xi) +h2

2!· y ′′(ξ) +

h3

3!· y ′′′(ξ) mit ξ ∈ (xi, xi+1)

und analog

y(xi−1) = y(xi − h) = y(xi)− h · y ′(xi) +h2

2!· y ′′(ξ)− h3

3!· y ′′′(ξ) mit ξ ∈ (xi−1, xi)

Bei der Subtraktion heben sich dann die Terme mit h2 gegenseitig auf; es bleibt einTerm, der h3 enthalt. Nach Division durch 2h bleibt also noch immer ein Term, derh2 enthalt. Wir erhalten also eine h2–Naherung fur die erste Ableitung. Da hierbei dieStutzstelle xi in der Mitte zwischen den beiden verwendeten anderen liegt, entstehtein sog. zentraler DQ:

y ′(xi) ≈ y(xi + h)− y(xi − h)2h

+O(h2) falls sup |y ′′′(x)| < ∞.

Jetzt treiben wir das Spielchen noch einen kleinen Schritt weiter, entwickeln also nocheinen Term mehr (ξ ∈ (xi, xi+1))

y(xi+1) = y(xi + h) = y(xi) + h · y ′(xi) +h2

2!· y ′′(ξ) +

h3

3!· y ′′′(ξ) +

h4

4!· y ′′′′(ξ)

und analog (ξ ∈ (xi−1, xi))

y(xi−1) = y(xi − h) = y(xi)− h · y ′(xi) +h2

2!· y ′′(ξ)− h3

3!· y ′′′(ξ) +

h4

4!· y ′′′′(ξ),

Page 418: 3486584472_Mathem

11.4 Finite Differenzenmethode FDM 405

und addieren die beiden Gleichungen. Das ergibt den zentralen DQ fur die zweiteAbleitung:

y ′′(xi) ≈ y(xi + h)− 2y(xi) + y(xi − h)h2

+O(h2), falls sup |y ′′′′(x)| < ∞.(11.10)

Interessant ist hier, daß der Fehlerterm so wie oben beim zentralen DQ erster Ordnungvon h2 abhangt. Hat man es also in einer DGL mit erster und zweiter Ableitung zutun, so wird man tunlichst beide Male den zentralen DQ verwenden und nicht miteinem lappischen DQ erster Ordnung fur die erste Ableitung hantieren.Die ublicherweise verwendeten Differenzenquotienten stellen wir in der folgenden Ta-belle zusammen.

Differenzenquotienten

y ′(xi) ≈ y(xi+1)− y(xi)h

+O(h) vorderer DQ

y ′(xi) ≈ y(xi+1)− y(xi−1)2h

+O(h2) zentraler DQ

y ′(xi) ≈ y(xi)− y(xi−1)h

+O(h) hinterer DQ

y ′′(xi) ≈ y(xi+1)− 2y(xi) + y(xi−1)h2

+O(h2) zentraler DQ

y ′′′(xi) ≈ y(xi+2)− 2y(xi+1) + 2y(xi−1)− y(xi−2)2h3

+O(h4) zentraler DQ

Zuruck zur FDM. Obige DQ verwenden wir also an Stelle der Ableitungen. Dabeilassen wir die Fehlerterme weg, wodurch in der Tat nur noch eine Naherungsformelentsteht. Unsere DGl

−p(x) · y ′′(x)−m(x) · y ′(x) + q(x) · y(x) = r(x) (11.11)

wird also ersetzt bei Verwendung des zentralen DQ fur die 2. Ableitung und des Vor-warts–DQ fur die 1. Ableitung durch

−p(xi)h2

[yi+1 − 2yi + yi−1]− m(xi)2h

[yi+1 − yi] + q(xi)yi = r(xi), (11.12)

und das ganze fur i = 1, . . . , N − 1; es entstehen also N − 1 Gleichungen fur dieUnbekannten y0, y1, . . . ,yN−1 und yN . Hier sind aber y0 = yN = 0 aus den RBbekannt, also haben wir auch genau N − 1 wirkliche Unbekannte.Nun mussen wir das ganze Verfahren an einem Beispiel durchrechnen.

Beispiel 11.7 Gegeben sei die Randwertaufgabe

−y ′′(x) + y(x) = 0, y(0) = 0, y(1) = 1.

Page 419: 3486584472_Mathem

406 11 Numerik von Randwertaufgaben

(a) Wir bestimmen ihre exakte Losung zum Vergleichen.

(b) Wir homogenisieren die RB.

(c) Wir berechnen Naherungen nach der FDM mit Schrittweite h = 0.2, zentraleDQ.

(d) Zum guten Schluß vergleichen wir die Naherungswerte mit der exakten Losung.

Die exakte Losung ist sehr leicht ermittelt, handelt es sich doch um eine lineare ho-mogene DGl mit konstanten Koeffizienten. Ihre charakteristische Gleichung lautet

−λ2 + 1 = 0 =⇒ λ1 = 1, λ2 = −1.

Damit lautet die allgemeine Losung (der homogenen DGL)

y(x) = c1 · eλ1x + c2 · eλ2x = c1 · ex + c2 · e−x.

Anpassen der Randbedingungen:

y(0) = 0 = c1 + c2, =⇒ c2 = −c1

y(1) = 1 = c1 · e + (−c1)e−1 =⇒ c1 =1

e− e−1=

e

e2 − 1.

Also lautet die exakte Losung

y(x) =e

e2 − 1(ex − e−x

).

Zur Anwendung unserer Differenzenmethode fuhren wir die Aufgabe auf eine anderemit homogenen RB zuruck.Sei u(x) = x. Dann ist u(0) = 0 und u(1) = 1, also erfullt u(x) die RB. Setze mit y(x)als exakter Losung

w(x) = y(x)− u(x).

Damit wird aus der DGl

−w ′′(x) + w(x) = −y ′′(x) + u ′′(x) + y(x)− u(x)= −y ′′(x) + y(x)︸ ︷︷ ︸

=0,urspr. DGl

+u ′′(x)− u(x)

= u ′′(x)− u(x)= = −x.

Also erhalten wir eine neue RWA

−w ′′(x) + w(x) = −x, w(0) = w(1) = 0.

Page 420: 3486584472_Mathem

11.4 Finite Differenzenmethode FDM 407

Jetzt zur FDM. Wir setzen x0 = 0, dann lauten wegen h = 0.2 die nachsten Stutzstellex1 = 0.2, x2 = 0.4, x3 = 0.6, x4 = 0.8, und schließlich setzen wir noch x5 = 1.Mit y0 = 0 und y5 = 1 aus den RB sind dann gesucht die Naherungswerte w1 ≈ w(0.2),w2 ≈ w(0.4), w3 ≈ w(0.6) und w4 ≈ w(0.8).Wir betrachten nun die DGl an der Stutzstelle xi und ersetzen die zweite Ableitungdurch den zentralen DQ zweiter Ordnung an dieser Stelle xi:

−wi+1 − 2wi + wi−1

h2+ wi = −xi, i = 1, . . . , 4.

Das sind vier Gleichungen, und da w0 = 0 und w5 = 0 bekannt sind, bleiben auch nurvier Unbekannte w1, w2, w3 und w4. Paßt ja perfekt.Wir multiplizieren die Gleichungen mit h2 und fassen etwas zusammen:

i = 1 : −w2 + 2w1 + h2 · w1 = −h2 · x1

i = 2 : −w3 + 2w2 − w1 + h2 · w2 = −h2 · x2

i = 3 : −w4 + 2w3 − w2 + h2 · w3 = −h2 · x3

i = 4 : 2w4 − w3 + h2 · w4 = −h2 · x4

Als lineares Gleichungssystem geschrieben, erhalten wir:⎛⎜⎜⎝

2 + h2 −1 0 0−1 2 + h2 −1 00 −1 2 + h2 −10 0 −1 2 + h2

⎞⎟⎟⎠

⎛⎜⎜⎝

w1

w2

w3

w4

⎞⎟⎟⎠ = −0.04

⎛⎜⎜⎝

0.20.40.60.8

⎞⎟⎟⎠

Zur Losung benutzen wir eines der Verfahren aus dem ersten Kapitel und erhalten

w = (−0.02859,−0.05033,−0.05808,−0.04416) .

Damit bekommen wir auch schon gleich die Naherungswerte an die exakte Losung derursprunglichen Aufgabe, rechts daneben schreiben wir die Werte der exakten Losungzum Vergleich.

y = w +

⎛⎜⎜⎝

0.20.40.60.8

⎞⎟⎟⎠ =

⎛⎜⎜⎝

0.17140.34970.54190.7558

⎞⎟⎟⎠ , yexakt =

⎛⎜⎜⎝

0.130480.266190.412590.57554

⎞⎟⎟⎠

Das Ergebnis ist nicht berauschend, aber wir haben ja auch nur mit vier unbekanntenKnoten gehandelt.Zum Vergleich mit den spater vorgestellten Verfahren zitieren wir hier drei Satze zumtheoretischen Hintergrund der FDM.

Satz 11.8 Es seien p(x) und q(x) stetige Funktionen mit p(x) > 0 und q(x) ≥ 0 in[a, b]. Dann ist die Systemmatrix der FDM nicht zerfallend und schwach diagonaldo-minant, damit also regular, und das lineare Gleichungssystem hat genau eine Losung.

Page 421: 3486584472_Mathem

408 11 Numerik von Randwertaufgaben

Die Voraussetzungen sind ganz schon eigen. Man sieht im ersten Moment gar nicht, obdas uberhaupt Einschrankungen sind. Man kann doch evtl., falls p(x) keine Nullstellehat, die ganze DGl mit −1 multiplizieren, um p(x) > 0 zu erreichen mochte. Dannaber muß gleichzeitig auch q(x) ≥ 0 bleiben. Also jetzt sieht man den Haken.Sind diese Voraussetzungen aber erfullt, sind wir stets auf der sicheren Seite, das LGSlaßt sich immer auf anstandige Weise losen.Die folgenden beiden Satze erklaren uns, unter welchen Voraussetzungen die FDMkonvergiert. Wir konnen ja zu jeder Schrittweite h > 0 mit der FDM Naherungs-werte an die exakte Losung gewinnen. Die Frage ist, ob diese Werte sich der wahrenLosung annahern, wenn h → 0 geht, wenn wir also eine immer feinere Unterteilungdes Grundintervalls vornehmen.

Satz 11.9 (Konvergenz der FDM) Sei y(x) ∈ C4(a, b) die exakte Losung von

−p(x) · y ′′(x)− p ′(x) · y ′(x) + q(x) · y(x) = r(x), y(a) = y(b) = 0 (11.13)

mitp(x) ∈ C3(a, b), p(x) ≥ p0 > 0, q(x) ∈ C(a, b), q(x) ≥ q0 > 0, r(x) ∈ C(a, b).Sei yh = (y1, y2, . . . , yN−1) die FDM–Naherungslosung an den inneren Stutzstellenx1, x2, . . . , xN−1.Dann gibt es eine Konstante K > 0 mit

|y(xi)− yi| ≤ K · h2 fur i = 1, 2, . . . , N − 1. (11.14)

Haben Sie’s gemerkt, wo der Hund begraben liegt? Richtig, in dem C4, die Losung mußalso viermal stetig differenzierbar sein, obwohl die DGl nur zweiter Ordnung ist. Manmochte also meinen, mit einer C2–Losung auszukommen. Aber wir brauchen noch dieStetigkeit der vierten Ableitung. Dann erst konnen wir sicher sein, daß Konvergenzeintritt, und zwar quadratisch. Das ist immerhin eine gute Nachricht.Fur eine noch speziellere DGL konnen wir die Konstante K direkt angeben:

Satz 11.10 Sei y(x) ∈ C4(a, b) die exakte Losung von

−y ′′(x) + q(x) · y(x) = r(x), y(a) = y(b) = 0 (11.15)

mit p(x) = 1, q(x), r(x) ∈ C(a, b), q(x) ≥ 0 in (a, b).Dann gilt

|y(xi)− yi| ≤ (b− a)2

288· h2 · sup

(a,b)|y(4)(x)| fur i = 1, 2, . . . , N − 1. (11.16)

Leider haben wir wieder dieselbe scharfe Voraussetzung an die Losung. Die rechteSeite zeigt uns sehr klar, daß diese Voraussetzung wichtig ist. Dann aber haben wirauch hier quadratische Konvergenz.

Page 422: 3486584472_Mathem

11.5 Verfahren von Galerkin 409

11.5 Verfahren von Galerkin

B.G.Galerkin1, (er schreibt sich eigentlich russisch ’Galerkin’, was heute dank LATEXkein Problem mehr ist, und spricht sich deshalb ’Galorkin’) entwickelte bereits 1915ein Naherungsverfahren zur Losung von Randwertaufgaben mit vor allem partiellenDifferentialgleichungen, das sich aber ebenso fur gewohnliche DGl eignet. Damals wardas naherungsweise Berechnen einer Losung ein muhsames Geschaft, da Zuse nochkeine elektronische Rechenmaschine erfunden hatte und alle Rechnungen per Handerledigt werden mußten. Galerkins Idee hat sich als sehr fruchtbar in den letztenJahren gerade unter Einschluß der neuen Rechner erwiesen. Wir kommen darauf imAbschnitt 11.6 zuruck.Wir betrachten folgende Randwertaufgabe:

−(p(x) · y ′(x))′ + q(x) · y(x) = r(x), y(a) = y(b) = 0 (11.17)

Es handelt sich um eine sogenannte selbstadjungierte Differentialgleichung. Wir gebendie allgemeine Form an:

Definition 11.11 Eine Differentialgleichung der Form

. . . + (p2(x) · y ′′(x))′′ − (p(x) · y ′(x))′ + q(x) · y(x) = r(x) (11.18)

heißt selbstadjungiert.

Einige Bemerkungen zu dieser Differentialgleichung:

1. Der Begriff bezieht sich nur auf die linke Seite, also sollte man eigentlich nurvon selbstadjungiertem Operator sprechen, wie es in vielen Buchern geschieht.

2. Die Vorzeichen wechseln von Term zu Term. Also hat unsere Differentialglei-chung (11.17) das ominose negative Vorzeichen. Das sieht nach rechter Willkuraus; den wahren Grund werden wir spater erlautern.

3. Die Ordnung der Differentialgleichung ist auf jeden Fall gerade, wie ja sofort zusehen ist.

4. Wenn wir in unserer Gleichung (11.17) die Differentiation durchfuhren, erhaltenwir:

−p(x) · y ′′(x)− p ′(x) · y ′(x) + q(x) · y(x) = r(x).

Man sieht sofort die zweite Ordnung, aber erkennt auch die spezielle Gestalt.Der Faktor vor dem y ′ muß die Ableitung des Faktors vor dem y ′′ sein. Dasschrankt die zu behandelnden Differentialgleichungen durchaus ein. So ist zumBeispiel die Gleichung

−x2 · y ′′(x)− x · y ′(x) + y(x) = x

nicht selbstadjungiert, vor dem y ′ mußte der Faktor 2x stehen.1Galerkin, B.G. (1871-1945)

Page 423: 3486584472_Mathem

410 11 Numerik von Randwertaufgaben

5. Andererseits steckt in der selbstadjungierten Form auch eine Verallgemeinerung.Die gesuchte Funktion y muß namlich in dieser Form nicht zweimal differenzier-bar sein; es reicht, wenn sie einmal differenzierbar ist und wenn das Produkt mitp noch einmal abgeleitet werden kann. Dabei kann also p Stellen, wo y schlechtaussieht, auffressen, Polstellen konnen geglattet werden.

6. Interessanterweise sind fast samtliche Differentialgleichungen in der Physik selbst-adjungiert. Man betrachte bei partiellen Differentialgleichungen die Poisson-gleichung, die Membrangleichung, die Bipotentialgleichung und die Plattenglei-chung.

Galerkin hatte folgenden Gedanken: Wir betrachten das Residuum (hier und fur dieweiteren Uberlegungen in diesem Vorabschnitt lassen wir jetzt die Variable x weg, umdie Ubersicht zu verbessern)

R(y) := (−p · y ′)′ + q · y − r (11.19)

Dann wahlen wir eine sog. Testfunktion, das mag eine Funktion sein, die genugendglatt ist, damit wir sie in der DGl verwenden konnen, vor allem aber muß sie denRandbedingungen genugen

Testfunktion v1(x) mit v1(a) = v1(b) = 0

Wir bestimmen eine erste Naherungsfunktion mit Hilfe dieser Testfunktion

y1(x) = α1 · v1(x), α ∈ R

dadurch, daß wir y1 in das Residuum einsetzen und dann α1 so bestimmen, daß dasinnere Produkt genau mit dieser Testfunktion v1 verschwindet:

(−p · y1′)′ + q · y1 − r, v1 = 0, mit (f, g) :=

∫ b

af(x) · g(x) dx.

Ausgeschrieben lautet das

(−p · (α1 · v1 )′)′ + q · α1 · v1 − r, v1) = 0

Inneres Produkt = 0 bedeutet, daß die beiden ’Vektoren’ aufeinander senkrecht stehen,v1 ist also senkrecht zum Residuum R(y1).Jetzt weiter, wir wahlen eine zweite Testfunktion v2 wieder mit v2(a) = v2(b) = 0 undbestimmen damit eine zweite Naherungsfunktion

y2(x) = α1 · v1(x) + α2 · v2(x), α1, α2 ∈ R.

Dann werden die unbekannten Koeffizienten α1, α2 ∈ R dadurch bestimmt, daß dies-mal das Residuum orthogonal zu v1(x) und v2(x) gesetzt wird. Das ergibt zwei Glei-chungen

(R, v1) = 0 ⇒ R ⊥ v1

(R, v2) = 0 ⇒ R ⊥ v2

Page 424: 3486584472_Mathem

11.5 Verfahren von Galerkin 411

Wir wahlen immer mehr Testfunktionen v1, v2, . . . , vN mit vi(a) = vi(b) = 0 furi = 1, . . . , N , bilden mit ihnen die Ansatzfunktion

yN (x) = α1 · v1(x) + α2 · v2(x) + · · ·+ αN · vN (x)

und bestimmen die Koeffizienten α1, . . . , αN dadurch daß wir das Residuum orthogo-nal zu allen Testfunktionen setzen, also

(R, v1) = 0 ⇒ R ⊥ v1...

...(R, vN ) = 0 ⇒ R ⊥ vN

Die Idee oder Hoffnung von Herrn Galerkin bestand nun darin: Wahle so viele v1, v2, . . .,daß diese schließlich den ganzen Raum aufspannen. Dann ist das Residuum R ortho-gonal zum gesamten Raum. Das tut aber nur die Nullfunktion. Also ist R(y) = 0, unddamit ist y die gesuchte exakte Losung.Aber, aber, was ist hier ’der ganze Raum’? Wir suchen ja in einem Funktionenraum,der ist in aller Regel unendlich, ja uberabzahlbar unendlich dimensional. So vieleTestfunktionen kann man gar nicht wahlen. Die Hoffnung auf eine exakte Losungtrugt also, aber ein Naherungsverfahren sollte daraus schon entstehen konnen.

Beispiel 11.12 Wir berechnen eine Naherungslosung nach Galerkin fur die Rand-wertaufgabe

−y ′′(x) + x · y(x) = 2 · x2, y(−1) = y(1) = 0

unter Verwendung eines moglichst einfachen einparametrigen Ansatzes aus Polyno-men.

Wahlen wir als Ansatz eine Funktion y1(x), die den Randbedingungen genugt, washier naturlich sehr leicht ist:

y1(x) = a · (x− 1) · (x + 1) ⇒ y′1(x) = 2a · x, y′′1(x) = 2a.

Als Testfunktion nehmen wir genau diese Funktion, naturlich ohne Parameter:

v1(x) := (x− 1) · (x + 1)

Idee von Galerkin: Residuum senkrecht zu v1:

(R(y1), v1) = 0 ⇔ (−2a + x · a · (x− 1)(x + 1)− 2x2, (x− 1)(x + 1)) = 0

Das bedeutet∫ 1

−1[−2a + x · a · (x− 1)(x + 1)− 2x2] · [(x− 1)(x + 1)] dx = 0

Jetzt mussen wir ein wenig rechnen, was wir aber abkurzen wollen:∫ 1

−1[−2ax2 + 2a + ax5 − 2ax3 + ax− ax3 + ax− 2x4 + 2x2] dx = 0

Page 425: 3486584472_Mathem

412 11 Numerik von Randwertaufgaben

Unser Integrationsintervall ist symmetrisch zum Ursprung, also konnen wir alle un-geraden Potenzen von x weglassen. Nach ausgefuhrter Integration und Einsetzen derGrenzen erhalt man die simple Gleichung:

166

a +815

= 0,

also

a = −15.

Als Naherungslosung ergibt sich damit

y1(x) = −15(x− 1)(x + 1).

Jetzt mußte man den Ansatz erweitern durch Hinzunahme weiterer unabhangigerFunktionen, um eine bessere Annaherung zu erhalten. Aber die Integrale waren jaschon fur diesen einfachsten Fall aufwendig genug auszurechnen, das wird immerschrecklicher und stoßt sehr bald an seine Grenzen. Wir werden daher den Origi-nalweg von Herrn Galerkin nicht weiter verfolgen, sondern benutzen seine Ideen dazu,ein wirklich praktikables Verfahren einzufuhren, die Methode der Finiten Elemente,der wir uns nun in Riesenschritten nahern.

11.5.1 Die schwache Form

Oben unter der Nummer 5. S. 410 haben wir gesehen, daß wir die Forderungen an dieLosung und damit auch an die Ansatzfunktionen schon allein wegen der Aufgaben-stellung abschwachen konnten. Dies laßt sich beim Galerkin–Verfahren noch erheblichverbessern. Wir bilden ja das innere Produkt mit Testfunktionen, also muß doch dieAbleitung des Produktes p · y ′ nur integrierbar sein.Jetzt gehen wir noch einen Schritt weiter, indem wir partiell integrieren. Dabei wollenwir noch einmal ganz von vorne starten.Also, wir betrachten nicht das Residuum – die Idee von Galerkin haben wir ja ver-standen, jetzt geht es um die praktische Umsetzung –, sondern wir gehen von der Dif-ferentialgleichung aus. Diese multiplizieren wir mit einer Testfunktion und integrierenbeide Seiten der Gleichung. Dabei nutzen wir genußlich aus, daß unsere Testfunktionv den homogenen Randbedingungen v(a) = v(b) = 0 genugt:∫ b

a

[−(p(x) · y ′(x))′ · v(x) + q(x) · y(x) · v(x)]

dx =

= −p(x) · y ′(x) · v(x)∣∣∣∣b

a︸ ︷︷ ︸=0

+∫ b

ap(x) · y ′(x) · v ′(x) + q(x) · y(x) · v(x) dx

=∫ b

ar(x) · v(x) dx

Der unterklammerte Teil verschwindet, weil ja unsere Testfunktion die Randwerte 0hat.

Page 426: 3486584472_Mathem

11.5 Verfahren von Galerkin 413

Definition 11.13 Die schwache Form der Differentialgleichung (11.17) lautet∫ b

ap(x) · y ′(x) · v ′(x) + q(x) · y(x) · v(x) dx =

∫ b

ar(x) · v(x) dx fur alle Testfktnen v.

Dabei haben wir noch vollig offen gelassen, was eine Testfunktion nun genau ist. Dielinke Seite dieser Gleichung sieht jetzt viel schoner aus, sie hat eine symmetrischeForm angenommen, was die Ableitungen anbelangt. Eine mogliche Losung y muß nunin der Tat nicht mehr aus C1, also stetig differenzierbar sein, sondern es reicht, wenndie Ableitung integrierbar ist. Da konnen also etliche Lucken auftreten, das Integralwischt ja daruber hinweg. Welche Funktionen das genau sind, die wir hier zulassenkonnen, wollen wir im nachsten Abschnitt besprechen.

11.5.2 Sobolev–Raume

Dieser Abschnitt sieht auf den ersten Blick ziemlich theoretisch aus. Mathematikermogen sich damit vergnugen, wird sich mancher Ingenieur sagen. Aber die moderneEntwicklung geht dahin, daß immer komplexere Aufgaben zu bearbeiten sind. Dortsind dann genau formulierte Voraussetzungen an die zu betrachtenden Funktionen vongroßer Bedeutung. Erst wenn man sie verstanden hat, kann man damit spielen undsie verandern. Darum wollen wir frohen Mutes dieses schwierige Kapitel angehen.Zur Motivation uberlegen wir uns, daß wir ja mit dem Naherungsverfahren nach Ga-lerkin eine Naherungsfunktion ausrechnen. Als erstes stellt sich die Frage, wie gutdiese Naherung ist. Dazu mussen wir versuchen, diese Naherungslosung in Beziehungzur (unbekannten) exakten Losung zu setzen. Wir werden also die Differenz zwischenbeiden abschatzen und dazu brauchen wir eine Norm. Fur Funktionen bietet es sichanalog zur Euklidischen Norm bei Vektoren an, zunachst ein inneres Produkt zu de-finieren, aus dem wir dann eine Norm entwickeln. Aus der Analysis kennen wir furstetige Funktionen f, g : [a, b] → R das innere Produkt:

(f, g) :=∫ b

af(x) · g(x) dx.

Daraus ergibt sich die Norm:

‖f‖ :=

√∫ b

af2(x) dx. (11.20)

Eigentlich reicht es hier aus, wenn f2(x) integrierbar ist, f selbst muß nicht stetig sein.Aber Achtung, eine Norm muß, damit sie diesen Namen verdient, positiv definit sein;es muß sich also stets, wenn f(x) = 0 ist, eine positive Zahl ergeben. Wenn wir aberfrecherweise eine Funktion wahlen, die uberall gleich 0 ist, nur an einer einzigen Stelle= 0, so ist das nicht die Nullfunktion, aber wir erhalten ‖f‖ = 0, da das Integral dieseeine Stelle gar nicht merkt. Wenn wir nur stetige Funktionen zulassen, tritt diesesProblem nicht auf. Aber wir wollen uns ja gerade auf die Suche nach Verallgemei-nerungen begeben. Wir wollen diese Problematik hier nicht weiter vertiefen, sondern

Page 427: 3486584472_Mathem

414 11 Numerik von Randwertaufgaben

lediglich erwahnen, daß Mathematiker einen Trick benutzen. Wir identifizieren einfachFunktionen, die sich nur an wenigen Stelle unterscheiden, miteinander und betrachtenfortan lediglich solche Klassen von Funktionen.Ein zu beachtendes Problem ergibt sich aus einer weiteren Uberlegung. Wir mochtenja nicht nur eine Naherungsfunktion, sondern am besten eine ganze Folge davon be-rechnen. Diese Folge mochte dann aber

• konvergieren,

• und zwar gegen eine Funktion vom selben Typ wie unsere Ansatzfunktion,

• und das mochte dann auch noch die exakte Losung sein.

Das sind durchaus drei verschiedenen Wunsche. Fur das erste brauchen wir eine Cau-chy–Folge, fur das zweite eine Menge von Funktionen, die vollstandig ist, und fur dasdritte eine Fehlerabschatzung. Damit ist das Programm vorgegeben, und wir fangengleich an, ein paar Grundlagen aus der Analysis zu wiederholen.

Definition 11.14 Eine Folge (an)n∈N heißt Cauchy2–Folge, wenn zu jedem ε > 0 einIndex N ∈ N existiert mit

|am − an| < ε fur alle m,n > N (11.21)

Ein Raum X heißt vollstandig, wenn jede Cauchy–Folge dieses Raumes gegen einElement aus X konvergiert.

Beispiel 11.15 Betrachten wirjetzt unsere geliebten stetigen Funk-tionen und bilden eine spezielleFolge:

fn(x) :=

⎧⎨⎩

1 −1 ≤ x ≤ 0√1− nx 0 < x < 1/n

0 1/n ≤ x ≤ 1

Die Stetigkeit erkennt man am Bildrechts. Wir werden zeigen, dass die-se Folge eine Cauchyfolge in obi-ger Norm (11.20) ist, dass aber ihreGrenzfunktion nicht mehr stetig ist,sondern bei 0 einen Sprung macht.

......................................................................

.....................................................

............................................................................................

........................................................................

f1(x)

11/21/n0−1 x

1

Abbildung 11.1: Cauchyfolge mitunstetiger Grenzfunktion

Zunachst zeigen wir, daß wir es mit einer Cauchy–Folge zu tun haben. Dazu mussenwir in obiger Norm (11.20) die Differenz fn− fm abschatzen und zeigen, daß sie kleingenug wird.

2Cauchy, A.L. (1789-1857)

Page 428: 3486584472_Mathem

11.5 Verfahren von Galerkin 415

Bei der folgenden Rechnung benutzen wir einen Trick. Aus den binomischen Formelnergibt sich

(a− b)2 = a2 − 2ab + b2 ≥ 0,

weil ja links ein Quadrat steht. Das bedeutet aber

2ab ≤ a2 + b2

und damit

(a− b)2 ≤ 2(a2 + b2).

Nun geht es los. Fur die Differenz zweier Funktionen ist ja nur das Intervall [0, 1]interessant. Fur Werte kleiner als Null ist die Differenz ja per Definition gleich Null:

‖fn − fm‖2 =∫ 1

0|fn(x)− fm(x)|2 dx

≤∫ 1

02 · (|fn(x)|2 + |fm(x)|2) dx

=1n

+1m

Gibt uns jetzt jemand ein kleines ε > 0 vor, so wahlen wir unser N gerade als dienachstgroßere naturliche Zahl von 1

ε/2 = 2/ε. Nehmen wir dann ein n > N und einm > N , so ist jeder Term der obigen Summe garantiert kleiner als ε/2, also der ganzeAusdruck kleiner als ε, was wir zeigen mußten.Das ging leicht. Noch einfacher ist es zu zeigen, daß die Folge gegen die Sprungfunktion

f(x) :=

1 −1 ≤ x ≤ 00 0 < x ≤ 1

konvergiert. Wieder ist nur das positive Intervall [0, 1] interessant.

‖fn − f‖2 =∫ 1

0|fn(x)|2 dx

=∫ 1/n

0(1− nx) dx

= x− nx2

2

∣∣∣∣1/n

0

=1n− n

2n2

=12n

Wenn hier n immer großer wird und schließlich n →∞ geht, so wird diese Zahl immerkleiner, und damit strebt fn gegen f .

Page 429: 3486584472_Mathem

416 11 Numerik von Randwertaufgaben

Also Konvergenz haben wir schon, und wir kennen die Grenzfunktion, aber die gehortleider nicht mehr zu unseren geliebten stetigen Funktionen; sie macht einen haßlichenSprung bei 0. Das bedeutet, der Raum der stetigen Funktionen ist bezuglich obigerNorm nicht vollstandig.Ist das ein Drama? Nein, denn wir mussen uns zwar nach einem neuen Raum umse-hen, der dieses Manko nicht hat; aber da hat Herr Sobolev glucklicherweise Raumeeingefuhrt, die wir jetzt betrachten.

11.5.3 1. Konstruktion der Sobolev–Raume

Folgende Konstruktion orientiert sich genau an dem Vorgehen, wie man von den ratio-nalen Zahlen Q zu den reellen Zahlen R kommt: Man vervollstandigt Q. Das geschiehtauf recht komplizierte Weise, die wir hier nur kurz andeuten. Man bildet Cauchy–Folgen in Q und betrachtet alle solche Folgen, die denselben Grenzwert haben, alsaquivalent. Jede solche Aquivalenzklasse nennen wir dann eine reelle Zahl.Hier betrachten wir den Raum Ck[a, b] der k-mal stetig-differenzierbaren Funktionenmit der Norm

‖f‖ :=

√∫ b

af2(x) dx +

∫ b

af ′2(x) dx + · · ·+

∫ b

a(f (k))2(x) dx (11.22)

Mit dieser Norm ist, wie man mit einem zu Beispiel 11.15 analogen Beispiel zeigenkann, leider keine Vollstandigkeit zu erreichen. Nun geht man denselben Weg wie obenvon Q nach R, also, Cauchy–Folgen aus Funktionen fn ∈ Ck[a, b] bilden und alle Folgenmit demselben Grenzelement zu Klassen zusammenfassen. Das fuhrt zum

Sobolev–Raum Hk(a, b).

Das hort sich schrecklich an und ist auch in der Praxis nicht wirklich zu gebrauchen.

11.5.4 2. Konstruktion der Sobolev–Raume

Hier beschreiten wir einen ganzlich verschiedenen Weg zur Konstruktion. Wir be-schreiben zunachst eine Verallgemeinerung des Ableitungsbegriffs. Fur Funktionen,die bisher nicht differenzierbar waren, erklaren wir eine ’schwache’ oder ’verallgemei-nerte Ableitung’:

Definition 11.16 Es seien

u, v ∈ L2(a, b) := f : (a, b) → R :∫ b

af(x)2 dx < ∞.

Dann heißt v(x) schwache Ableitung von u(x), wenn gilt:∫ b

au(x) · ϕ ′(x) dx = −

∫ b

av(x) · ϕ(x) dx ∀ ϕ ∈ C∞0 (a, b) (11.23)

Page 430: 3486584472_Mathem

11.5 Verfahren von Galerkin 417

Zu dieser Definition mussen wir einiges an Erklarungen hinzufugen, damit niemanddas Buch verargert zuschlagt:

1. Alle Integrale sind Lebesgue–Integrale, daher ruhrt das L gleich zu Beginn; die 2stammt vom Quadrat unter dem Integral. Die Funktionen aus L2(a, b) (gespro-chen ’L zwei von a,b’) heißen daher auch quadratisch Lebesgue–integrierbar.

2. Der Raum C∞0 (a, b) heißt der Raum der Testfunktionen und wird folgendermaßendefiniert

C∞0 (a, b) := ϕ(x) ∈ C∞(a, b) : supp (ϕ) (a, b) (11.24)

Dabei heißt supp ϕ der Trager von ϕ. Gemeint ist damit die Menge aller Abszis-senpunkte, wo ϕ = 0 ist. Genauer nimmt man davon dann noch die abgeschlos-sene Hulle. Der Trager ist also stets eine abgeschlossene Teilmenge. Das Zeichen bedeutet, daß diese abgeschlossene Menge beschrankt (also insgesamt kom-pakt) sein und vollstandig im offenen Intervall (a, b) liegen moge. Man sprichtdas Zeichen daher auch ’kompakt enthalten in’.

Definition 11.17 Die Menge C∞0 (a, b) heißt die Menge der unendlich oft diffe-renzierbaren Funktionen mit kompaktem Trager in (a, b).

3. Die Formel (11.23) ist merkwurdig genug. Wir werden sie gleich an Beispielenuben. Dann wird klarer, daß hinter dem ganzen nur die partielle Integrationsteckt, woher auch das Minuszeichen stammt. Fur Experten sei noch hinzu-gefugt, daß es sich um die distributionelle Ableitung handelt.

Beispiel 11.18 Wir betrachten im Intervall (a, b) = (−1, 1) die Funktionen u(x) =|x| und v(x) = sign (x) und zeigen, daß v(x) die schwache Ableitung von u(x) ist,obwohl u(x) ja im herkommlichen Sinn bei 0 nicht differenzierbar ist.

Wir beginnen mit der linken Seite der Formel (11.23), nehmen uns also ein Funktionϕ(x) ∈ C∞0 (−1, 1), also mit ϕ(−1) = ϕ(1) = 0 und rechnen los:∫ 1

−1u(x) · ϕ ′(x) dx =

∫ 0

−1(−x) · ϕ ′(x) dx +

∫ 1

0x · ϕ ′(x) dx

p.I.= −x · ϕ(x)

∣∣∣∣0

−1

−∫ 0

−1(−1) · ϕ(x) dx + x · ϕ(x)

∣∣∣∣1

0

−∫ 1

01 · ϕ(x) dx

= −0 · ϕ(0)︸ ︷︷ ︸=0

+ (−1) · ϕ(−1)︸ ︷︷ ︸=0

−∫ 0

−1(−1) · ϕ(x) dx

+ 1 · ϕ(1)︸ ︷︷ ︸=0

− (0) · ϕ(0)︸ ︷︷ ︸=0

−∫ 1

01 · ϕ(x) dx

= −∫ 1

−1sign (x) · ϕ(x) dx,

Page 431: 3486584472_Mathem

418 11 Numerik von Randwertaufgaben

wobei wir beachten, daß das letzte Integral die Sprungstelle des Integranden bei 0mißachtet. Das macht ja schon das Riemann–Intergral. Damit haben wir insgesamtgezeigt, daß u ′(x) = sign (x) im schwachen Sinn ist.Wir fassen einige Tatsachen uber die schwache Ableitung im folgenden Satz zusammen:

Satz 11.19 1. Zu einer Funktion u ∈ L2(a, b) gibt es hochstens eine schwacheAbleitung.

2. Hat u ∈ L2(a, b) eine gewohnliche Ableitung u ′, so ist u ′ auch die schwacheAbleitung von u.

3. Die ublichen Ableitungsregeln wie Linearitat, Produktregel usw. ubertragen sichauf die schwache Ableitung.

Die Definitionsgleichung (11.23 laßt sich vollig analog auf hohere Ableitungen ubertra-gen, und das hat eine interessante Konsequenz:

Definition 11.20 Es seien u, v ∈ L2(a, b).Dann heißt v(x) j–te schwache Ableitung von u(x), wenn gilt:∫ b

au(x) · ϕ (j)(x) dx = (−1)j

∫ b

av(x) · ϕ(x) dx ∀ ϕ ∈ C∞0 (a, b) (11.25)

Bemerkung 11.21 Schauen wir genau hin. In der ganzen Gleichung wird nirgendsdie (j− 1)–te Ableitung benotigt. Das bedeutet, man kann die j–te Ableitung erklaren,ohne die Ableitungen niedrigerer Ordnung zu kennen. Tatsachlich gibt es sogar Funk-tionen, die z. B. die zweite schwache Ableitung besitzen, aber keine erste. Das ist schonrecht seltsam und von unseren bisherigen Vorstellungen arg verschieden.

Der Verdacht liegt nahe, daß wir einen solch allgemeinen Begriff gewahlt haben, daßquasi jede Funktion schwach ableitbar ist. Aber das tauscht, wie unser nachstes Bei-spiel zeigt.

Beispiel 11.22 Sei u : (−1, 1) → R mit

u(x) := sign (x) =

⎧⎨⎩

−1 fur x ∈ (−1, 0)0 fur x = 01 fur x ∈ (0, 1)

Wir werden zeigen, daß diese Funktion keine schwache Ableitung besitzt.

Wir werden die linke Seite von (11.23) ein wenig vereinfachen und zeigen, daß sichkeine rechte Seite finden laßt.∫ 1

−1sign (x) · ϕ ′(x) dx =

∫ 0

−1ϕ ′(x) dx +

∫ 1

0ϕ ′(x) dx

= −ϕ(0)− (−ϕ(−1))︸ ︷︷ ︸=0

+ ϕ(1)︸︷︷︸=0

−ϕ(0)

= −2 · ϕ(0)

Page 432: 3486584472_Mathem

11.5 Verfahren von Galerkin 419

Wir mußten also folgende Gleichung erfullen:

−2 · ϕ(0) = −∫ 1

−1v(x) · ϕ(x) dx (11.26)

Dazu mußten wir eine Funktion v(x) angeben, die der Gleichung (11.26) genugt undzwar — jetzt kommt der entscheidende Knackpunkt — fur alle nur denkbaren Test-funktionen ϕ(x) ∈ C∞0 (−1, 1). Jetzt erinnern wir uns an die Testfunktion, die wir inBeispiel 9.3 auf Seite 308 untersucht haben. Wenn wir dort a immer kleiner wahlen,wird der Trager immer schmaler. Egal welche Funktion v(x) wir uns ausdenken, mitdiesen Testfunktionen wird der Wert des Integrals immer kleiner. Da aber alle Test-funktionen bei 0 den Wert 1 haben, bleibt die linke Seite beim Wert −2, ein klarerWiderspruch.

Fazit: Sprungfunktionen haben an der Sprungstelle keine normale und auch keineschwache Ableitung. Dies ist eine ganz wichtige Erkenntnis, auf die wir spater bei denfiniten Elementen (vgl. Seite 427) noch zuruckkommen werden.Was uns bei den Raumen Hk dank ihrer Definition in den Schoß fiel, ihre Vollstandig-keit, mussten wir uns hier hart erarbeiten. Wir verweisen dazu wie auch fur die Beweiseder folgenden Satze auf die Spezialliteratur uber Sobolevraume.

Definition 11.23 Bezeichnen wir mit f (j) die schwache j–te Ableitung von f , so seider Sobolevraum W k(a, b) definiert durch

W k(a, b) := f ∈ L2(a, b) : f (j) ∈ L2(a, b), 0 ≤ j ≤ k. (11.27)

Klar, daß die Bezeichnung W k vom englischen Wort ’weak’ fur ’schwach’ herruhrt.

Satz 11.24 (Vollstandigkeit) W k(a, b) ist vollstandig bezgl. der Norm (11.22)

‖f‖ :=

√∫ b

af2(x) dx +

∫ b

af ′2(x) dx + · · ·+

∫ b

a(f (k))2(x) dx (11.28)

Vollig uberraschend bewiesen 1964 Meyers und Serrin in einer Arbeit, der sie den Titel’H = W’ gaben, den Satz:

Satz 11.25 (H=W)

Hk(a, b) = W k(a, b). (11.29)

Das Besondere lag darin, daß keinerlei Einschrankungen an das Gebiet notig war. Furunser Intervall im R

1 ist das nicht aufregend; aber dieser Satz ist genau so auch imR

2 richtig fur jedes beliebige Gebiet. Das war aufregend.

Braucht man zum Beweis dieses Satzes schon recht kraftige Hilfsmittel aus der Funk-tionalanalysis, so ist der Beweis des sogenannten Einbettungssatzes geradezu ein Ham-mer. Im Standardwerk uber Sobolevraume von Adams umfaßt er 12 Seiten. Wir zi-tieren hier nur eine abgespeckte Version fur den R

1 und verweisen fur den nicht sokomplizierten Beweis auf die Fachliteratur:

Page 433: 3486584472_Mathem

420 11 Numerik von Randwertaufgaben

Satz 11.26 (Einbettungssatz im R1) H1(a, b) ist enthalten in C(a, b), jede schwach

ableitbare Funktion ist also stetig.

Keineswegs ist damit umgekehrt jede stetige Funktion auch sofort schwach ableitbar.Wir werden aber spater bei den finiten Elementen einen Satz kennen lernen, dereine Aussage in dieser Richtung macht, dort wird aber eine weitere Voraussetzunggebraucht (vgl. Satz 11.33 auf Seite 426).Fur unsere weitere Untersuchung uber gewohnliche Differentialgleichungen und damitim R

1 fassen wir das wesentliche zusammen:

Sobolevraume

H0(a, b) = L2(a, b)

H1(a, b) := f ∈ L2(a, b) : f ′ ∈ L2(a, b)

‖f‖H1 :=

√∫ b

a|f(x)|2 dx +

∫ b

a|f ′(x)|2 dx

H10 (a, b) := f ∈ H1(a, b) : f(a) = f(b) = 0

11.5.5 Durchfuhrung des Verfahrens von Galerkin

Kommen wir nach diesem Ausflug in die Sobolevraume zuruck zum Galerkin–Verfahren.Was bringen uns da die Sobolevraume?Die folgenden beiden Beispiele mogen uns aufhorchen lassen.

Beispiel 11.27 Wir betrachten die Randwertaufgabe

y ′′(x) = f(x), y(0) = y(3) = 0

Dabei sei die rechte Seite f(x) die Funktion

f(x) :=

⎧⎨⎩

0 fur x ∈ [0, 1)1 fur x ∈ [1, 2)0 fur x ∈ [2, 3]

Wie wir gerade eben gelernt haben, ist f ∈ H1(0, 3); denn als Sprungfunktion ist sienicht schwach ableitbar. Damit ist z. B. auch die Theorie uber die Losbarkeit (vgl.Satz 10.18 von S. 347) nicht anwendbar. Dort mußte ja die rechte Seite sogar stetigsein. Trotzdem konnen wir bei dieser einfachen Aufgabe fast eine Losung raten. Im

Page 434: 3486584472_Mathem

11.5 Verfahren von Galerkin 421

ersten und dritten Intervall mochte die zweite Ableitung verschwinden, also ist dortdie Losung jeweils eine Gerade. Dazwischen soll sie konstant = 1 sein, also ist siedort parabelformig. Damit sie insgesamt differenzierbar wird, verlangen wir an deninneren Stutzstellen, also bei x = 1 und bei x = 2 jeweils die Stetigkeit der erstenAbleitung. All das zusammen fuhrt uns zur Hermite–Interpolation, wie wir sie inKapitel ’Interpolation’ kennen gelernt haben. Die Antwort lautet:

y(x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩

−x2 fur x ∈ [0, 1)

−58 + 1

2

(x− 3

2

)2 fur x ∈ [1, 2)

12 (x− 3) fur x ∈ [2, 3]

Bilden wir zum Verstandnis des folgenden stuckweise die erste und die zweite Ablei-tung,

y ′(x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩

−12 fur x ∈ [0, 1)

x− 32 fur x ∈ [1, 2)

12 fur x ∈ [2, 3]

, y ′′(x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩

0 fur x ∈ [0, 1)

1 fur x ∈ [1, 2)

0 fur x ∈ [2, 3]

.

Wir betonen noch einmal, daß das nicht die Ableitungen der Funktion y sind, sondernnur die stuckweise gebildeten Ableitungen. Bei x = 1 ist y ′ zwar stetig, aber dortexistiert ja offensichtlich keine zweite Ableitung, dort macht y ′′ einen Sprung. Imschwachen Sinn aber existiert die zweite Ableitung auch bei x = 1 und bei x = 2. Dashaben wir uns im Beispiel 11.18 klargemacht.y gehort daher nicht zum Raum C2(0, 3) sondern in der Sprache der Sobolevraumezum Raum H2(0, 3). So ein einfaches Beispiel wurde also unsere Suche nach einerLosung in C2 scheitern lassen. Wir mußten in H2(a, b) suchen, was ja immerhin nochein gewisser Ersatz ware. Man denkt halt ’schwach’ und macht das gleiche.Das nachste Beispiel ist noch verruckter. Da hilft nicht mal H2.

Beispiel 11.28 Wir betrachten die Randwertaufgabe

−(p(x) · y ′(x))′ = 12 mit y(0) = y(2) = 0

Das sieht ja reichlich harmlos aus, aber jetzt spezifizieren wir die Funktion p(x):

p(x) := −2 fur x ∈ [0, 1]−1 fur x ∈ (1, 2]

p(x) kann man als Materialkonstante, z. b. als Elastizitatsmodul deuten. Dann habenwir es mit einem zusammengesetzten Material zu tun, zu Beginn im Intervall [0, 1)etwas harter, im hinteren Bereich im Intervall [1, 2] weicher.Hier ist es schon mal wenig sinnvoll, die Differentiation auszufuhren. Notgedrungenkame man zu p ′(x), was bei x = 1 gar nicht existiert. Also mussen wir eine schwachereForm unserer Aufgabe finden. Wir kommen gleich darauf zuruck.

Page 435: 3486584472_Mathem

422 11 Numerik von Randwertaufgaben

Wir konnen wieder mit recht einfacher Hermite–Interpolation eine Funktion angeben,die stuckweise unser Problem lost.

y(x) :=

3x2 − 7x fur x ∈ [0, 1]6x2 − 14x + 4 fur x ∈ (1, 2]

Wir rechnen stuckweise ihre Ableitungen aus:

y ′(x) =

6x− 7 fur x ∈ [0, 1]12x− 14 fur x ∈ (1, 2]

, y ′′(x) =

6 fur x ∈ [0, 1]12 fur x ∈ (1, 2]

Wenn wir uns der Stelle x = 1 von links nahern, so erhalten wir y ′(1−) = −1, kommenwir dagegen von rechts, so folgt y ′(1+) = −2. Wir sehen also, daß die erste Ableitungbei x = 1 nicht existiert. y(x) ist aber bei x = 1 stetig, also entspricht das dem Beispiel11.18, wir haben y ∈ H1(0, 2). y ist aber nicht mehr in H2(0, 2).Diese Aufgabe konnen wir also in der obigen Form mit Galerkin nicht losen. Und daherfuhren wir jetzt die schwache Form der Randwertaufgabe ein. Sie entsteht dadurch, daßwir die ganze Differentialgleichung mit einer ’Testfunktion’ v multiplizieren, dann uberdas Intervall [a, b] integrieren und schließlich mittels partieller Integration umformen.

Definition 11.29 Zu der Randwertaufgabe

−(p(x) · y ′(x))′ + q(x) · y(x) = r(x), p ∈ C1[a, b], q, r ∈ C[a, b], (11.30)y(a) = y(b) = 0 (11.31)

heißt die Aufgabe

Gesucht ist eine Funktion y ∈ H1(a, b) mit y(a) = y(b) = 0, also y ∈H1

0 (a, b), die fur alle v ∈ H10 (a, b) der Gleichung

∫ b

a(p(x) · y ′(x) · v ′(x) + q(x) · y(x) · v(x)) dx =

∫ b

ar(x) · v(x) dx (11.32)

genugt, schwache Form der obigen Randwertaufgabe.Eine Losung dieser schwachen Form heißt dann schwache Losung der Randwertauf-gabe.

Der Mathematiker fragt nach Existenz und Eindeutigkeit. Dazu konnen wir den Satzangeben:

Satz 11.30 Sei p(x) > 0 und q(x) ≥ 0 in [a, b]. Dann gibt es eine einzige schwacheLosung y ∈ H1

0 (a, b) der Randwertaufgabe.

Page 436: 3486584472_Mathem

11.5 Verfahren von Galerkin 423

Offensichtlich ist jede Losung der Randwertaufgabe, die auch manchmal als klassi-sche Losung bezeichnet wird, zugleich eine schwache Losung. Umgekehrt ist das aberim allgemeinen falsch. Um von der schwachen Form zuruck zur Randwertaufgabe zugelangen, muß man ja die partielle Integration ruckgangig machen. Dazu muß dasProdukt p(x) · y ′(x) differenzierbar sein. Unser Beispiel 11.28 oben zeigt uns, daß wirdas nicht immer erwarten konnen.Nun ist aber unsere Randwertaufgabe hier so speziell, daß wir den Satz beweisenkonnen:

Satz 11.31 Jede schwache Losung der Randwertaufgabe (11.30) ist zugleich (klassi-sche) Losung der Randwertaufgabe, also zweimal stetig differenzierbar.

Wir wollen das noch einmal klar herausstellen. Eine (klassische) Losung der Rand-wertaufgabe suchen wir in C2(a, b), eine schwache Losung lediglich in H1(a, b). Das istwirklich schwach.Wir fassen den Algorithmus von Galerkin im Kasten auf S. 424 zusammen.

Beispiel 11.32 Wir kommen zuruck auf unser Beispiel 11.12 von Seite 411 und be-rechnen erneut, jetzt aber in der schwachen Form, eine Naherungslosung nach Galer-kin der Randwertaufgabe

−y ′′(x) + x · y(x) = 2 · x2, y(−1) = y(1) = 0

unter Verwendung eines moglichst einfachen einparametrigen Ansatzes aus Polyno-men.

Wieder wahlen wir als Ansatz eine Funktion y1(x), die den Randbedingungen genugt,und nehmen naturlich dieselbe wie oben:

y1(x) = a · (x− 1) · (x + 1) ⇒ y′1(x) = 2a · x, y′′1(x) = 2a.

Als Testfunktion nehmen wir ebenso wie oben:

v1(x) := (x− 1) · (x + 1)

Jetzt andern wir das Vorgehen und gehen zur schwachen Form:∫ 1

−1y′1(x) · v′1(x) dx +

∫ 1

−1x · y1(x) · v1(x) dx =

∫ 1

−12x2 v1(x) dx.

Hier setzen wir die Ansatzfunktion ein:∫ 1

−12ax · v′1(x) dx +

∫ 1

−1xa(x− 1)(x + 1)(x− 1)(x + 1) dx =

∫ 1

−12x2(x + 1)(x− 1) dx.

Nun kommt die Integriererei von oben und, welch Wunder, wir erhalten dasselbeErgebnis wie oben:

a = −15.

Page 437: 3486584472_Mathem

424 11 Numerik von Randwertaufgaben

Algorithmus von Galerkin in der schwachen Form

Wir betrachten die Randwertaufgabe

−(p(x) · y ′(x))′ + q(x) · y(x) = r(x) y(a) = y(b) = 0

und die ihr zugeordnete schwache Form∫ b

a(p(x) · y ′(x) · v ′(x) + q(x) · y(x) · v(x)) dx =

∫ b

ar(x) · v(x) dx ∀v ∈ H1

0 (a, b)

1. Wahle endlich dimensionalen Unterraum DN von H10 (a, b) mit Basis

w1, . . . wN .

2. Bilde den Ansatz fur die Naherungslosung

yN (x) = α1w1(x) + · · · + αNwN (x) mit α1, . . . , αN ∈ R

3. Wahle in der schwachen Form als Testfunktion v die Basisfunktionenw1, . . . , wN . Das fuhrt zu den Gleichungen:

∫ b

a(p(x) · y′N (x) · w′1(x) + q(x) · yN (x) · w1(x)) dx =

∫ b

ar(x) · w1(x) dx

... (11.33)∫ b

a(p(x) · y′N (x) · w′N (x) + q(x) · yN (x) · wN (x)) dx =

∫ b

ar(x) · wN (x) dx

4. Das sind N lineare Gleichungen fur N unbekannte Koeffizienten α1,. . . ,αN ,die in der Naherungslosung yN versteckt sind. Lose dieses System mit denMethoden aus Kapitel 1.

5. Bilde mit diesen Koeffizienten die Naherungslosung yN .

Als Naherungslosung ergibt sich damit

y1(x) = −15(x− 1)(x + 1).

Nun, daß wir zum selben Ergebnis kommen, ist vollig klar, denn unsere Ausgangsdif-ferentialgleichung war ja in einer sehr einfachen selbstadjungierten Form, also fuhrtdie partielle Integration direkt zur schwachen Form.Wir schreiben die Gleichungen (11.33) noch einmal in ausfuhrlicher Form hin, al-lerdings lassen wir wegen der Ubersicht jeweils die Variable x und das dx bei denIntegralen weg:

Page 438: 3486584472_Mathem

11.6 Methode der finiten Elemente 425

⎛⎜⎜⎜⎜⎝

∫ ba p · w ′

1 · w ′1

∫ ba p · w ′

2 · w ′1 . . .

∫ ba p · w ′

N · w ′1∫ b

a p · w ′1 · w ′

2

∫ ba p · w ′

2 · w ′2 . . .

∫ ba p · w ′

N · w ′2

......

......∫ b

a p · w ′1 · w ′

N

∫ ba p · w ′

2 · w ′N . . .

∫ ba p · w ′

N · w ′N

⎞⎟⎟⎟⎟⎠

︸ ︷︷ ︸A:=Steifigkeitsmatrix

⎛⎜⎜⎜⎝

α1

α2...

αN

⎞⎟⎟⎟⎠+

+

⎛⎜⎜⎜⎜⎝

∫ ba q · w 1 · w1 . . .

∫ ba q · wN · w1∫ b

a q · w1 · w2 . . .∫ ba q · wN · w2

......

...∫ ba q · w1 · w N . . .

∫ ba q · wN · wN

⎞⎟⎟⎟⎟⎠

︸ ︷︷ ︸B:=Massenmatrix

⎛⎜⎜⎜⎝

α1

α2...

αN

⎞⎟⎟⎟⎠ =

⎛⎜⎜⎜⎜⎝

∫ ba r · w1∫ ba r · w2

...∫ ba r · wN

⎞⎟⎟⎟⎟⎠

︸ ︷︷ ︸Lastvektor

.

Die beiden Matrizen A und B sind offensichtlich symmetrisch; die Spezialliteraturzeigt uns auch, daß die Steifigkeitsmatrix A positiv definit ist. Damit laßt sich bei derLosung des Gleichungssystems trefflich das Cholesky–Verfahren anwenden, was beiechten Problemen mit Hunderten von Unbekannten viel Speicherplatz spart.Ein großer Nachteil aber zeigt sich ebenfalls bei der Anwendung. Die Integrale in denbeiden Matrizen sind fast immer ungleich Null. Das bedeutet, die Matrizen sind vollbesetzt. Das ist zwar kein Drama, denn bei manch anderem Verfahren ist es auch nichtbesser. Gerade bei der starken Konkurrenz, dem finiten Differenzenverfahren, sind dieMatrizen aber schwach besetzt. Durch den 5-Punkte-Stern sind dort sehr viele Nullenin den Matrizen. Das ist die Motivation, finite Elemente einzufuhren, mit denen wiruns im nachsten Abschnitt beschaftigen wollen.

11.6 Methode der finiten Elemente

11.6.1 Kurzer geschichtlicher Uberblick

Im Jahre 1943 beschrieb R. Courant3 in einer kurzen Anmerkung, wie man ein zweidi-mensionales Gebiet in kleine Dreiecke einteilt, um damit eine partielle Differentialglei-chung naherungsweise zu losen. Wegen der damals noch fehlenden Rechnerausstattungkonnte Courant diese Idee nur andeuten. Das zugehorige Dreieck heißt heute nochCourant–Dreieck. 1946 hat Argyris unabhangig von Courant in Stuttgart die grund-legende Idee vorgestellt, wie man mit ’finiten Elementen‘ die Statik eines großen Bau-werks berechnen kann. Motiviert wurde diese Arbeit mit ingenieurwissenschaftlichenUberlegungen. Die erste Veroffentlichung stammt von 1963. Erst 1969 veroffentlich-te Milos Zlamal die erste mathematische Arbeit, mit der er eine Fehlerabschatzung

3Courant, R. (1888-1972)

Page 439: 3486584472_Mathem

426 11 Numerik von Randwertaufgaben

dieser neuen Methode vorstellte. Die Arbeitsgruppe um Argyris bestand dann ihreBewahrungsprobe bei der Berechnung der Statik des Daches vom Olympiastadion inMunchen fur die olympischen Spiele 1972. Der Name ”Methode der Finiten Elemente“engl. Finite Element Method (FEM) wurde 1972 von Clough gepragt.

11.6.2 Algorithmus zur FEM

Nach all den Vorbereitungen in den vorausgehenden Abschnitten ist die Schilderungder Methode nun kein großer Aufwand mehr; denn wir konnen in Kurzfassung sagen:

FEM bedeutet Galerkin–Verfahren in der schwachen Form mit Splinefunk-tionen als Ansatzfunktionen

Die einzige kleine Frage ist nur, ob die linearen Splinefunktionen in H10 (a, b) liegen.

Dazu findet man in der Literatur folgenden Satz:

Satz 11.33 Gehort die Ansatzfunktion in jedem Teilstuck (in jedem finiten Element)zu H1 und ist sie im ganzen Bereich stetig, so gehort sie im ganzen Bereich zu H1.

Wir hatten beim Einbettungssatz 11.26 angemerkt, daß aus Stetigkeit nicht schwachableitbar folgt. Im obigen Satz haben wir ja auch eine kleine Zusatzforderung versteckt,daß die Funktion namlich in jedem Element aus H1 ist und vor allem, daß es bei derFEM nur endlich viele Elemente gibt. Die Zahl der Stellen, wo die Funktion keinegewohnliche Ableitung besitzen mag, ist also endlich. Das ist die Zusatzforderung, diedann auf schwache Ableitung zu schließen gestattet.Man pruft das analog wie im Beispiel 11.18, Seite 417.Bevor wir an einem ausfuhrlichen Beispiel die FEM erlautern, wollen wir noch einigeBemerkungen anfugen.

Bemerkung 11.34 1. In der Steifigkeitsmatrix mit ihren Ableitungen treten dieSpline–Funktionen als Konstante in Erscheinung, in der Massenmatrix sind eslineare Terme. Das bedeutet eine wesentliche Erleichterung bei der Berechnungder Integrale, ein gefundenes Fressen fur numerische Quadraturverfahren.

2. Die Integrale sind im Prinzip uber das ganze Intervall [a, b] zu berechnen; da aberdie Hutfunktionen nur einen kleinen Trager, namlich gerade zwei Teilintervallehaben, sind auch die Integrale nur dort auszuwerten.

3. Wegen dieser kleinen Trager der Hutfunktionen sind viele Integrale in der Stei-figkeits– und der Massenmatrix von vorne herein gleich Null; wenn namlich dasProdukt von zwei Hutfunktionen oder ihren Ableitungen zu bilden ist, deren In-dices um mehr als zwei differieren (|i − j| > 2), so verschwindet das Integral,weil ja entweder die erste oder die zweite Hutfunktion verschwindet. Also erhal-ten beide Matrizen eine Bandstruktur, in diesem Fall eine Tridiagonalgestalt,was die Berechnung des linearen Gleichungssystems noch wesentlich vereinfacht– einer der Hauptvorteile der FEM.

Page 440: 3486584472_Mathem

11.6 Methode der finiten Elemente 427

4. Als letzte Bemerkung sei die Frage angefugt, warum wir nicht zur noch starke-ren Vereinfachung der Integration einfach konstante Funktionen, also z. B. diecharakteristischen Funktionen der Teilintervalle, als Ansatzfunktionen verwen-den. Der Grund liegt sehr einfach in der Tatsache, daß Sprungfunktionen an derSprungstelle keine normale und auch keine schwache Ableitung besitzen; die wirdaber in der Steifigkeitsmatrix gebraucht. Hier erkennen wir neidlos den Vorteilder Randelement–Methode BEM an, die diese Vereinfachung ausnutzen kann.Dafur hat deren Matrix dann aber keine Bandstruktur, sondern ist vollbesetzt.

Algorithmus FEM

Wir betrachten die Randwertaufgabe

−(p(x) · y ′(x))′ + q(x) · y(x) = r(x) y(a) = y(b) = 0

und die ihr zugeordnete schwache Form∫ b

a(p(x) · y ′(x) · v ′(x) + q(x) · y(x) · v(x)) dx =

∫ b

ar(x) · v(x) dx ∀v ∈ H1

0 (a, b)

1. Wahle als endlich dimensionalen Unterraum SN von H10 (a, b) den Raum der

linearen Spline–Funktionen mit den Hutfunktionen ϕ1, . . . ϕN der Abbildung4.4 von Seite 189 als Basis.

2. Bilde den Ansatz fur die Naherungslosung

yN (x) = α1ϕ1(x) + · · ·+ αNϕN (x) mit α1, . . . , αN ∈ R

3. Wahle in der schwachen Form als Testfunktion v die Basisfunktionenϕ1, . . . , ϕN . Das fuhrt zu den Gleichungen:

∫ b

a(p(x) · y′N (x) · ϕ′1(x) + q(x) · yN (x) · ϕ1(x)) dx =

∫ b

ar(x) · ϕ1(x) dx

... (11.34)∫ b

a(p(x) · y′N(x) · ϕ′N (x) + q(x) · yN (x) · ϕN (x)) dx =

∫ b

ar(x) · ϕN (x) dx

4. Das sind N lineare Gleichungen fur N unbekannte Koeffizienten α1,. . . ,αN ,die in der Naherungslosung yN versteckt sind. Lose dieses System mit denMethoden aus Kapitel 1.

5. Bilde mit diesen Koeffizienten die Naherungslosung yN .

Page 441: 3486584472_Mathem

428 11 Numerik von Randwertaufgaben

Beispiel 11.35 Gegeben sei die Randwertaufgabe

−y ′′(x) = sin x, y(0) = y(π) = 0. (11.35)

Wir wollen mit der FEM Naherungslosungen bestimmen, indem wir lineare Splinesverwenden bei aquidistanten Knoten

(a) mit der Schrittweite h = π,

(b) mit der Schrittweite h = π/2,

(c) mit der Schrittweite h = π/3.

Offensichtlich ist

y(x) = sin x

die exakte Losung dieser Aufgabe. Mit der werden wir unser Ergebnis vergleichen. Dieschwache Form der Randwertaufgabe lautet:∫ π

0y ′(x) · v ′(x) dx =

∫ π

0sin x · v(x) dx ∀v ∈ H1

0 (0, π).

zu (a) Unser Intervall, in dem wir die Losung suchen, ist [0, π]. Mit der Schrittweiteh = π haben wir also keine Unterteilung des Intervalls, sondern die Stutzstellenx0 = 0 und x1 = π. Lineare Splinefunktionen sind also schlicht die Geraden,und die einzige lineare Splinefunktion, die diese beiden Punkte verbindet, ist dieNullfunktion. Mit einem kleinen Lacheln um die Lippen mag man sie als ersteNaherung bezeichnen.

zu (b) Jetzt wird es ernster. Schrittweite h = π/2 bedeutet, wir zerlegen das Intervall[0, π] in zwei Teile, womit wir drei Stutzstellen x0 = 0, x1 = π/2 und x2 = πerhalten. Daruber konnen wir schon eine echte lineare Spline–Funktion aufbau-en. Als Basisfunktion nehmen wir die Dachfunktion ϕ1, die bei 0 und bei πverschwindet und bei x1 = π/2 den Wert 1 hat:

ϕ1(x) :=

⎧⎨⎩

2xπ fur 0 ≤ x ≤ π

2

2(π−x)π fur π

2 ≤ x ≤ πϕ′1(x) :=

⎧⎨⎩

2π fur 0 ≤ x ≤ π

2

−2π fur π

2 ≤ x ≤ π

Damit bilden wir also unsere Naherungsfunktion

yh(x) = a1 · ϕ1(x),

nehmen ϕ1 zugleich als Testfunktion, also v(x) = ϕ1(x) und setzen alles in dieschwache Form ein. Wir beginnen mit der linken Seite:

∫ π

0y′h(x) · v ′(x) dx =

∫ π

0a1 · ϕ′1(x) · ϕ′1(x) dx

Page 442: 3486584472_Mathem

11.6 Methode der finiten Elemente 429

Wir erinnern uns, daß ϕ1 als lineare Splinefunktion bei x = π/2 im ublichen Sinnnicht differenzierbar ist, aber im schwachen Sinn. Das Integral oben existiert, undwir konnen es stuckweise auswerten:

∫ π

0a1 · ϕ′1(x) · ϕ′1(x) dx =

∫ π/2

0a1 · ϕ′1(x) · ϕ′1(x) dx +

∫ π

π/2a1 · ϕ′1(x) · ϕ′1(x) dx

=∫ π/2

0a1 · 2

π· 2π

dx +∫ π

π/2a1 · −2

π· −2

πdx

= a1 · 4π2

· (π − 0) =4π· a1

Nun zur rechten Seite:

∫ π

0sinx · ϕ1(x) dx =

∫ π/2

0sin x · 2x

πdx +

∫ π

π/2sin x · 2π − 2x

πdx

=2π

∫ π/2

0x · sin x dx + 2

∫ π

π/2sin x dx− 2

π

∫ π

π/2x · sinx dx

=2π

[sin x− x cos x

]π/2

0

− 2[

cos x

π/2

− 2π

[sin x− x · cos x

π/2

=4π

Daraus folgt dann

a1 = 1, also als Naherungslosung yh(x) = 1 · ϕ1(x).

zu (c) Jetzt verkleinern wir die Schrittweite noch einmal zu h = π/3 und haben dieStutzstellen x0 = 0, x1 = π/3, x2 = 2π/3 und x3 = π.

Damit haben wir zwei innere Knoten x1 und x2, bei denen wir eine Hutfunktionansetzen konnen:

yh(x) := a1 · ϕ1(x) + a2 · ϕ2(x).

Zugleich wahlen wir ϕ1 und ϕ2 als Testfunktionen, so daß die Galerkin–Glei-chungen von Seite 425 also zu einem System von zwei Gleichungen mit zweiUnbekannten fuhren. Dabei konnen wir die Massenmatrix vergessen, da wir inder Differentialgleichung keinen Term mit q(x) haben.

⎛⎝∫ π0 ϕ ′1 · ϕ ′1

∫ π0 ϕ ′2 · ϕ ′1∫ π

0 ϕ ′2 · ϕ ′1∫ π0 ϕ ′2 · ϕ ′2

⎞⎠⎛⎝ a1

a2

⎞⎠ =

⎛⎝∫ π0 sin x · ϕ1∫ π0 sin x · ϕ2

⎞⎠

Page 443: 3486584472_Mathem

430 11 Numerik von Randwertaufgaben

Die Berechnung der Integrale wollen wir nun nicht in Einzelheiten vorfuhren;vielleicht reicht es ja, wenn wir die Integrale einzeln hinschreiben, damit mansieht, was zu berechnen ist. Die reine Rechnerei ubergehen wir dann. Wir mussenzuerst die beiden Hutfunktionen ϕ1 und ϕ2 an unsere Stutzstellen anpassen.

ϕ1(x) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩

3xπ fur 0 ≤ x ≤ π

3

−3xπ + 2 fur π

3 ≤ x ≤ 2π3

0 fur 2π3 ≤ x ≤ π

, ϕ′1(x) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩

3π fur 0 ≤ x ≤ π

3

− 3π fur π

3 ≤ x ≤ 2π3

0 fur 2π3 ≤ x ≤ π

ϕ2(x) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩

0 fur 0 ≤ x ≤ π3

3xπ − 1 fur π

3 ≤ x ≤ 2π3

−3xπ + 3 fur 2π

3 ≤ x ≤ π

, ϕ′2(x) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩

0 fur 0 ≤ x ≤ π3

3π fur π

3 ≤ x ≤ 2π3

− 3π fur 2π

3 ≤ x ≤ π

Das Element a11 in der Steifigkeitsmatrix ist dann

a11 =∫ π

0ϕ ′1(x) · ϕ ′1(x) =

∫ π/3

0

(3π

)2

dx +∫ 2π/3

π/3

(− 3

π

)2

dx =6π

Wegen der Symmetrie der Matrix ist

a12 = a21 =∫ π

0ϕ′1(x) · ϕ′2(x) dx = −

∫ 2π/3

π/3

(3π

)2

dx = − 3π

und

a22 =∫ π

0ϕ ′2(x) · ϕ ′2(x) dx =

∫ 2π/3

π/3

(3π

)2

dx +∫ π

2π/3

(− 3

π

)2

dx =6π

Nun kommt die rechte Seite dran.

b1 =∫ π

0sin x · ϕ1(x) dx

=∫ π/3

0sinx · 3x

πdx +

∫ 2π/3

π/3sin x ·

(− 3

π

)dx

=3√

32π

Ganz analog berechnet man:

b2 =∫ π

0sin x · ϕ2(x) dx =

3√

32π

Page 444: 3486584472_Mathem

11.6 Methode der finiten Elemente 431

Damit haben wir alle Werte zusammen, um das lineare Gleichungssystem zulosen:

⎛⎝

6π − 3

π

− 3π

⎞⎠ ·

⎛⎝ a1

a2

⎞⎠ =

(3√

32π

3√

32π

)

Dieses hat die Losung⎛⎝ a1

a2

⎞⎠ =

( √3

2√3

2

)

Damit erhalten wir als Naherung

yh(x) =√

32· ϕ1(x) +

√3

2· ϕ2(x).

Zum Vergleich betrachten wir folgende Skizze, in die wir die exakte Losung y = sin x

und die drei Naherungen y0(x) = 0, y1(x) = ϕ1(x) und y2(x) =√

32 ·ϕ1(x)+

√3

2 ·ϕ2(x)eingetragen haben. Dabei erinnern wir uns, daß die Darstellung der linearen Splinesmit den Hutfunktionen als Basis die sehr benutzerfreundliche Eigenschaft besitzen, daßsie jeweils nur an einer einzigen Stutzstelle den Wert 1, an allen anderen Stutzstellenden Wert 0 haben. Dadurch erhalten in einer Linearkombination die Koeffizienten einestarke Bedeutung, es sind genau die y–Werte an der zugeordneten Stutzstelle. Damitist die Skizze in Abbildung 11.2 leicht hergestellt.

11.6.3 Zur Fehlerabschatzung

Hier kommt nun die Nagelprobe fur das Verfahren. Ist es wirklich so gut, wie alleWelt schwarmt? Dazu mussen wir die Naherungsfunktionen gegen die wahre Losungabschatzen. Diese Abschatzung muß mit dem Parameter h, dem Durchmesser derfiniten Elemente, in Zusammenhang gebracht werden.Ein erster wichtiger Zwischenschritt ist folgendes Lemma:

Lemma 11.36 (Lemma von Cea) Es sei y ∈ H10 (a, b) die schwache Losung der

Randwertaufgabe (11.30). Sei yh die mittels FEM mit linearen Splines ermittelte Nahe-rungslosung. Dann existiert eine Konstante C > 0, so daß gilt:

‖y − yh‖ ≤ C · infϕ∈S1

0

‖y − ϕ‖H1 (11.36)

Die rechte Seite dieser Ungleichung sieht unhandlich aus, aber sie enthalt eine wesent-liche Information, die auch sofort zur Hauptidee fur eine Abschatzung uberleitet. DasInfimum wird uber samtliche linearen Splinefunktionen gebildet, die zu der Gitterzer-legung mit h gehoren. Stets hat die FEM–Losung einen kleineren Abstand. Das ist

Page 445: 3486584472_Mathem

432 11 Numerik von Randwertaufgaben

0

0.2

0.4

0.6

0.8

1

0 0.5 1 1.5 2 2.5 3 3.5

sin(x)

Abbildung 11.2: Graphische Darstellung der Losung der Randwertaufgabe (11.35) undder ersten und zweiten Naherung mittels FEM. Exakte Losung ist die Sinus–Kurve,als erste Naherung ist der einfache Hut mit Spitze in der Mitte, als zweite Naherungdie lineare Splinefunktion mit zwei Basisfunktionen dargestellt.

eine Approximationsaussage; die FEM–Losung hat den kleinsten Abstand zum Raumder linearen Splines. Das hort sich ganz interessant an, aber kann man damit etwasanfangen? Und ob.Dieses Infimum ist ja prinzipiell gar nicht zu bestimmen, und das wollen wir auch garnicht. Man muß ja nicht immer nach den Sternen greifen. Sind wir etwas bescheidenerund wahlen wir als spezielle Funktion die lineare Splinefunktion, die die unbekannteLosung interpoliert. Fur die gilt die Abschatzung ja auch. Und genau fur die konnenwir eine Fehlerabschatzung aus dem Kapitel ’Interpolation’ ubernehmen. Dort hattenwir im Satz 4.28 auf Seite 191 gezeigt:

‖f − s‖∞ ≤ h2

8‖f ′′‖∞. (11.37)

Jetzt haben wir den Zusammenhang mit der Schrittweite h, und es ergibt sich derSatz:

Satz 11.37 (Fehlerabschatzung) Seien y, yh wie oben, sei h := max0≤i≤N−1 |xi+1−xi|. Dann gibt es eine Konstante c > 0 mit

‖y − yh‖H1 ≤ c · h · ‖y ′′‖L2 (11.38)

Leider ist bei der Fehleraussage eine Potenz von h auf der Strecke geblieben. Daswurmt uns besonders, da dieses moderne Verfahren so nicht mit den hausbackenen

Page 446: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 433

finiten Differenzen konkurrieren kann, die ja eine h2-Konvergenz besaßen. Hoffnunggibt die Tatsache, daß hier ja auch ’nur’ eine Abschatzung in der H1–Norm angegebenist.Wie das so geht im Leben, das Hammerklavier wurde von drei Leuten gleichzeitig ent-wickelt und der Trick mit der h2-Potenz wurde von drei Mathematikern fast zeitgleichgefunden. Er wird kurz und griffig als Nitsche–Trick bezeichnet. Die Idee besteht darin,ein Randwertproblem zu betrachten, dessen rechte Seite gerade der Fehler y(x)−yh(x)ist. Dann lauft alles ganz einfach. Darauf kommen muß man nur.

Satz 11.38 (Aubin–Nitsche–Ladyzsenskaya–Lemma) Seien y, yh und h wie oben.Dann gibt es eine Konstante c > 0 mit

‖y − yh‖L2 ≤ c · h2 · ‖y ′′‖L2 (11.39)

Hier wird der Fehler in der gewunschten L2–Norm betrachtet und wie durch ein Wun-der ist jetzt der h2–Term da. Der Vergleich mit der FDM fallt damit klar zu Gunstender FEM aus.

1. Die Voraussetzungen bei der FEM sind ungleich geringer. FDM verlangte, daßdie Losung viermal stetig–differenzierbar ist. Unsere Beispiele oben zeigen, daßdies in realistischen Aufgaben vollig illusorisch ist zu erwarten. FEM brauchtlediglich eine Losung in H1, also mit schwacher erster Ableitung. Damit lassensich wesentlich mehr Aufgaben behandeln.

2. Beide Verfahren liefern dann eine h2–Potenz fur die Fehlerabschatzung.

11.7 Exkurs zur Variationsrechnung

11.7.1 Einleitende Beispiele

Beruhmte Geschichten und Legenden pragen den Ursprung der Variationsrechnung.

• Da ist zum einen die sagenhafte Dido, die Tochter des Konigs von Tyros. IhrBruder Pygmalion totete aus Habgier ihren Mann. Dido blieb nur die Fluchtnach Nordafrika. Dort beanspruchte sie soviel Land, wie man mit einer Stierhautumfassen kann.

Das brachte viele Probleme. Sie mußte einen moglichst großen Stier finden, danndessen Haut in moglichst feine Streifen schneiden, ja und dann schließlich unserProblem, das

Problem der Dido: Wie sollte sie die Streifen auslegen, um moglichstviel Land zu umfassen?

Klar, daß jedes Schulkind hier einen Kreis auslegt. Kann man auch mathema-tisch begrunden, daß der Kreis wirklich die großte Flache ist, die die habgierigeDido erhalten konnte? Wir verweisen die interessierte Leserschar auf [8], wo eineausfuhrliche Begrundung zu finden ist.

Page 447: 3486584472_Mathem

434 11 Numerik von Randwertaufgaben

• Jeder, der schon mal nach Amerika gejettet ist, fragt sich doch, warum der Pilotdiesen ”Umweg“ uber Gronland nimmt. Legt man aber zu Hause einen Fadenan den Globus von Frankfurt nach New York an und zieht ihn straff, damiter moglichst kurz wird, so nimmt dieser die Lage des Großkreisbogens an, derdurch Frankfurt und New York geht. Dieser Bogen streift tatsachlich Gronland.Die mathematische Frage lautet, und das ist das

Problem der kurzesten Verbindung: Welches ist die kurzeste Ver-bindung zweier Punkte?

In der Ebene mit der euklidischen Geometrie ist das offensichtlich die gerade Li-nie, auf einer Kugel aber der kurzere Großkreisbogen. Noch andere Verhaltnisseergeben sich im Weltraum, wo große Massen die Geometrie erheblich storen. Dortbraucht man die sog. Schwarzschildmetrik, mit der sich ganz andere kurzesteVerbindungen ergeben.

• Eine niedliche Geschichte ist die von Mutter Wurm, die sich Sorgen um ihrkleines Baby macht. Damit es sich nicht erkaltet, mochte sie eine Decke zumZudecken stricken. Aber Mutter Wurm ist sehr sparsam und fragt sich, und dasist das

Wurmproblem: Wie sieht die kleinste Decke aus, mit der MutterWurm stets ihr Baby zudecken kann, egal wie sich dieser Wurm auchkrummt?

Mathematisch wird das Baby nur als Strecke mit fester Lange herhalten mussen,die sich beliebig biegen und winden kann. Naturlich reicht der Halbkreis, dessenDurchmesser gerade die Lange des Babys ist. Bis heute aber kennt man nicht diegenaue minimale Decke, es sind nur Abschatzungen bekannt; dabei laßt sich derHalbkreis erheblich verkleinern. Mutter Wurm wird also etwas langer strickenmussen.

• Beruhmt ist auch das Problem des Johann Bernoulli4, der 1696, also mit 19Jahren, die Frage stellte:

Problem der Brachystochrone: Wie sieht die Kurve aus, auf dereine Kugel unter Schwerkrafteinfluß am schnellsten von einem PunktA zu einem schrag unterhalb liegenden Punkt B gelangt.

Er fugte der Aufgabenstellung gleich hinzu, daß die gesuchte Kurve nicht diegerade Linie ist. Es dauerte ein Jahr, dann veroffentlichten er selbst, sein BruderJacob5 und auch Leibniz6, zu der Zeit Geheimer Justizrat des Kurfursten von

4Bernoulli, Johann (1667-1784)5Bernoulli, Jacob (1654-1705)6Leibniz, G.W. (1646-1716)

Page 448: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 435

Hannover, die richtige Losung, namlich die Zykloide. Jacobs Losung erwies sichdabei als verallgemeinerungsfahig und bildete damit den Ausgangspunkt zurEntwicklung der Variationsrechnung, deren Grundzuge wir im folgenden kurzschildern wollen.

11.7.2 Grundlagen

Drei Dinge braucht der Mensch zur allgemeinen Beschreibung einer Variationsaufgabe:

1. Wir gehen aus von einem reellen Vektorraum X von Funktionen, das mag z. B.der Raum Cn der n-mal stetig differenzierbaren Funktionen sein oder der RaumL2(a, b) aller Funktionen, deren Quadrat auf dem Intervall (a, b) Lebesgue7-integrierbar ist.

2. Unsere Beispiele oben zeigen, daß wir haufig eine Kurve suchen, die einen be-stimmten Ausdruck zum Minimum macht. Wir brauchen also eine Funktion, indie wir Funktionen als Variable einsetzen konnen. So etwas erhalt einen speziel-len Namen.

Definition 11.39 Ein Funktional Φ ist eine Abbildung

Φ : X → R.

Ein Funktional ist also eine Abbildung, die jeder Funktion eines bestimmtenRaumes eine reelle Zahl zuordnet. Z.B. ist das bestimmte Integral uber eineFunktion f ein solches Funktional.

3. Als letztes brauchen wir noch sog. Rand– oder Nebenbedingungen. Randbedin-gungen entstehen z. B. dadurch, daß wir eine Kurve suchen, die durch zwei vor-gegebene Punkte verlauft. Sind die beiden Punkte in der Ebene gegeben durch(a,A) und (b,B), so entstehen die

Randbedingungen: y(a) = A, y(b) = B

Es konnen aber auch recht komplizierte Bedingungen gestellt werden wie z. B.

Randbedingungen: y(a) + 3y ′(a)− 2y ′(b) = A, y(b)− 3y ′(b) = B

Bei Dido mochte die Kurve (der Streifen Stierhaut) immer die gleiche Langebesitzen. Das fuhrt auf die

Nebenbedingungen: L =∫ b

a

√1 + y ′2(x) dx

7Lebesgue, H.L. (1875-1941)

Page 449: 3486584472_Mathem

436 11 Numerik von Randwertaufgaben

Eine notwendige Bedingung fur ein Extremum in der reellen Analysis war das Ver-schwinden der ersten Ableitung. Dazu suchen wir nun ein Pendant, das sich hier aufFunktionale anwenden laßt. Das geeignete Hilfsmittel ist die Richtungsableitung, diewir so beschreiben:

Definition 11.40 Gegeben sei ein Funktional Φ : X → R, eine Funktion y0 aus Xund eine Funktion g aus X. Dann heißt

∂Φ∂g

∣∣∣∣y0

:=d

dεΦ(y0 + ε · g)

∣∣∣∣ε=0

(11.40)

die Richtungsableitung oder Gateaux8–Ableitung von Φ an der Stelle y0 in Richtungg.

Mit ihrer Hilfe gelingt es, eine notwendige Bedingung fur ein Extremum anzugeben.

Satz 11.41 Gegeben sei ein Funktional Φ : X → R und gewisse zum Problem gehorigeRand– und/oder Nebenbedingungen. Sei Y ⊆ X die Menge aller derjenigen Funktio-nen, die die Rand– und/oder Nebenbedingungen erfullen. Wir werden sie als Mengeder zulassigen Funktionen bezeichnen. Sei y0 ∈ Y so, daß Φ(y0) = extr. ist. Dann gilt:

∂Φ∂g

∣∣∣∣y0

= 0 (11.41)

fur alle g ∈ X, fur die y0 + ε · g ∈ Y ist, also ε hinreichend klein ist.

Bemerkung 11.42 Der Satz gibt lediglich eine notwendige Bedingung fur ein Extre-mum des Funktionals Φ an, die Analogie zur reellen Analysis ist offensichtlich. Hiermuß man nur statt der gewohnlichen Ableitung die Gateaux–Ableitung verwenden.

Der Beweis ist ziemlich kurz, daher sei er angefugt.Beweis: Wir setzen voraus, daß ein Maximum vorliege, fur ein Minimum geht dasanalog. Dann ist fur jede Funktion g

Φ(y0 + ε · g) ≤ Φ(y0).

Halten wir die Funktion g fest, so ist hier eine Funktion der gewohnlichen Verander-lichen ε entstanden:

H(ε) := Φ(y0 + ε · g),

die fur ε = 0 ein Maximum annimmt. Also wissen wir aus der reellen Analysis, daßihre Ableitung dort verschwindet, also

dH

∣∣∣∣ε=0

= 0

Das aber bedeutet:d

dεΦ(y0 + ε · g)

∣∣∣∣ε=0

=∂Φ∂g

∣∣∣∣y0

= 0,

was wir zeigen wollten. 8Gateaux ()

Page 450: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 437

11.7.3 Eine einfache Standardaufgabe

An folgender Standardaufgabe werden wir den einfachen Weg aufzeigen, wie man voneiner Variationsaufgabe zur zugeordneten Differentialgleichung gelangt.

Definition 11.43 Es sei X = C2[a, b]. Betrachte auf X das Funktional

Φ[y] :=∫ b

aF (x, y(x), y ′(x)) dx. (11.42)

Die Funktion

F (x, u, v), (11.43)

eine Funktion von drei Variablen, nennen wir die Grundfunktion des obigen Funktio-nals. Wir setzen voraus, daß sie insgesamt zweimal stetig differenzierbar ist. Zusatzlichbetrachten wir die Randbedingungen

y(a) = A, y(b) = B. (11.44)

Dann nennen wir

Y := f ∈ X : f(a) = A, f(b) = Bden Raum der zulassigen Funktionen.Dann nennen wir die Aufgabe

Gesucht ist eine Funktion y0 ∈ Y mit Φ(y0) = extr.

Standardaufgabe der Variationsrechnung.

Die Grundfunktion ist eine Funktion von drei Veranderlichen x, u und v. Wir ersetzenalso im Integranden die von x abhangige Variable y durch eine unabhangige Variableu und genau so die von x abhangige Variable y ′(x) durch eine weitere unabhangi-ge Variable v. So gelangen wir zu einer gewohnlichen Funktion F (x, u, v) von dreiunabhangigen Variablen.

Beispiel 11.44 Wir bestimmen unter allen Kurven, welche die Punkte A = (1, 0)und B = (2, 1) verbinden, diejenige, welche dem Integral

Φ[y] =∫ 2

1(x · y ′(x)4 − 2y(x) · y ′(x)3) dx

einen extremalen Wert erteilt.

Die Grundfunktion lautet hier

F (x, u, v) = x · v4 − 2u · v3.

Als Grundraum wahlen wir X = C2[1, 2] und die Randbedingungen entsprechend demBeispiel. Dann ist

Y := f ∈ X : f(a) = A, f(b) = Bdie Menge der zulassigen Funktionen. Unsere Aufgabe lautet nun:

Page 451: 3486584472_Mathem

438 11 Numerik von Randwertaufgaben

Man bestimme ein y0 ∈ Y mit Φ[y0] = extr.

Wir werden dieses Beispiel unten weiter verfolgen.

Der folgende Einbettungsansatz geht auf Lagrange9 zuruck:

Definition 11.45 (Einbettungsansatz) Sei y0 ∈ Y Losung von Φ[y] = extr. Dannwahle ε ∈ R beliebig und g ∈ C1[a, b] mit g(a) = g(b) = 0 und bilde

y = y0 + ε · g (11.45)

Wir betten also die Losung y0 in eine Schar y ein, bei der g die Richtung angibt undε die zuruckgelegte Strecke. Zunachst folgt:

y(a) = y0(a) + ε · g(a) = A, und analog y(b) = B ⇒ y ∈ Y.

Jetzt nutzen wir aus, daß y0 eine Losung des Extremalproblems ist. Nach Satz 11.41(S. 436) verschwindet daher die Richtungsableitung von Φ in Richtung von g an derStelle y0.Bei der folgenden Rechnung mussen wir die Ableitung eines Integrals, das von einemParameter abhangt, nach diesem Parameter bilden. Aus den Anfangssemestern kenntman dafur den Zusammenhang:

d

dt

∫ b(t)

a(t)G(x, t) dx =

∫ b(t)

a(t)

∂G(x, t)∂t

dx + G(b(t), t) · b ′(t)−G(a(t), t) · a ′(t)(11.46)

Diese Formel nutzen wir in der dritten Zeile aus:

0 =∂Φ∂g

∣∣∣∣y0

=d

dεΦ(y0 + εg)

∣∣∣∣ε=0

=d

∫ b

aF (x, y0(x) + εg(x), y ′0(x) + εg ′(x)) dx

∣∣∣∣ε=0

=∫ b

a

[∂F

∂u(x, y0(x) + εg(x), y ′0(x) + εg ′(x)) · g(x) +

+∂F

∂v(x, y0(x) + εg(x), y ′0(x) + εg ′(x)) · g ′(x)

]dx

∣∣∣∣ε=0

=∫ b

a

[∂F

∂u(x, y′0(x), y 0(x)) · g(x)︸ ︷︷ ︸+

∂F

∂v(x, y0(x), y ′0(x)) · g ′(x) dx

]

p.I.= “ +

∂F

∂v· g∣∣∣∣b

a︸ ︷︷ ︸=0 da g(a)=g(b)=0

−∫ b

a

d

dx

(∂F

∂v

)· g(x) dx(11.47)

9Lagrange, J.L. (1736-1813)

Page 452: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 439

Eine Bemerkung zur partiellen Integration (p.I.). Wir haben zur besseren Ubersicht dieVariablen weggelassen, mussen aber im Blick behalten, daß wir y0 und g fest gewahlthaben und daher nur noch eine Abhangigkeit von x wirksam ist. Darum haben wirmit Recht die gewohnliche Ableitung d/dx verwendet.Notwendig fur ein (relatives oder lokales) Extremum ist also∫ b

a

[∂F

∂u(x, y0(x), y ′0(x)) − d

dx

∂F

∂v(x, y0(x), y ′0(x))

]· g(x) dx = 0 (11.48)

fur beliebiges g ∈ C1[a, b] mit g(a) = g(b) = 0.Das ist doch schon fast in dem Topf, wo es kocht. Durch geschicktes Hantieren habenwir die Funktion g nach rechts außen schieben konnen. Jetzt mußte sie zusammen mitdem Integral verschwinden. Da hilft uns das wichtige

Satz 11.46 (Fundamentallemma der Variationsrechnung) Gilt fur eine auf[a, b] stetige Funktion G und alle Funktionen g ∈ C1[a, b] mit g(a) = g(b) = 0∫ b

aG(x) · g(x) dx = 0, (11.49)

so ist G(x) = 0 fur alle x ∈ [a, b].

Beweis: Das ist fast trivial; wenn wir namlich annehmen, daß wenigstens fur ein ein-ziges x0 ∈ [a, b] die Funktion G(x0) = 0 ist, so ist sie sofort wegen ihrer Stetigkeitauch in einer ganzen Umgebung von x0 von Null verschieden. Dann wahlen wir eineFunktion g, die gerade auf dieser Umgebung auch ungleich Null ist, sonst beliebigeWerte annehmen kann, allerdings muß sie aus C1 sein. Das ist der kleine Knackpunkt,ob es eine solche Funktion gibt. Nun, wir wollen das hier nicht vertiefen. Im Kapitel’Distributionen’ werden wir sogar eine Funktion konstruieren, die genau in der offenenUmgebung positiv, sonst aber identisch Null und dabei noch unendlich oft differenzier-bar ist. So etwas geht also. Dann ist aber das Integral auch nicht Null im Widerspruchzur Voraussetzung. Und schon ist unser Beweis geschafft. Gschafft ist damit aber auch die Herleitung der Eulerschen Differentialgleichung alsnotwendige Bedingung fur ein Extremum der Variationsaufgabe. Denn wenden wir dasFundamentallemma auf Gleichung (11.48) an, so muß der Integrand ohne die Funktiong verschwinden. Das fassen wir zusammen im

Satz 11.47 Ist y0(x) Losung der Variationsaufgabe

Φ[y] :=∫ b

aF (x, y(x), y ′(x)) dx = extr.,

so ist y0(x) auch Losung der Eulerschen Differentialgleichung (der Variationsrech-nung):

∂F

∂y(x, y(x), y ′(x))− d

dx

∂F

∂y ′(x, y(x), y ′(x)) = 0 (11.50)

Page 453: 3486584472_Mathem

440 11 Numerik von Randwertaufgaben

Die Eulersche Differentialgleichung, in Kurzform

Fy − d

dxFy ′ = 0,

ist also eine notwendige Bedingung fur ein Extremum der Variationsaufgabe. ErkennenSie die Parallelitat zur gewohnlichen Analysis? Dort war fur ein Extremum einerreellen Funktion das Verschwinden der ersten Ableitung notwendig. Die Funktion dortist hier unser Funktional, die verschwindende Ableitung dort ist hier die EulerscheDGl, die Ableitung dort ist hier die Richtungs- oder Gateaux-Ableitung.Ein Name sei noch eingefuhrt:

Definition 11.48 Die Losungskurven der Eulerschen Differentialgleichung heißen Ex-tremalen.

Beispiel 11.49 Wir kommen zuruck auf Beispiel 11.44 von Seite 437. Wir suchtenunter allen Kurven, die die Punkte A = (1, 0) und B = (2, 1) verbinden, diejenige,welche dem Integral

Φ[y] =∫ 2

1(x · y ′(x)4 − 2y(x) · y ′3(x)) dx

einen extremalen Wert erteilt.

Die Grundfunktion lautet hier

F (x, u, v) = x · v4 − 2u · v3.

Dann berechnen wir zunachst die partiellen Ableitungen

Fu = −2v3, Fv = 4xv3 − 6uv2.

Das geschah rein formal, indem wir y und y ′ als unabhangige Variable u und v angese-hen haben. Jetzt mussen wir uns sehr genau die Eulersche DGl anschauen. Denn jetztsteht da die gewohnliche Ableitung d/dx. Dazu mussen wir uberall die Abhangigkeitvon x einfuhren, also bei y und bei y ′. Dann erst wird nach x abgelitten, wodurchdann y ′′ als innere Ableitung hinzukommt, also (der Ubersichtlichkeit wegen lassenwir die Variable x als Funktionsargument weg):

d

dxFy ′(x, y(x), y ′(x)) = 4y ′3 + 4x · 3y ′2 · y ′′ − 6y ′ · y ′2 − 6y · 2y ′ · y ′′

= 4y ′3 + 12x · y ′2 · y ′′ − 6y ′3 − 12y · y ′′

So, nun fassen wir zusammen und lassen zur besseren Ubersicht in der ersten Zeile dieVariable x wieder weg:(

Fy − d

dxFy ′

)(x, y(x), y ′(x), y ′′(x)) = −2y ′3 − 4y ′3 − 12xy ′2y ′′ + 6y ′3 + 12yy ′′

= 12y ′(x) · y ′′(x)(y − x · y ′(x)) = 0

Page 454: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 441

Um die Extremalen zu bestimmen, mussen wir die allgemeine Losung dieser DGlbestimmen und sie den Randbedingungen, die durch die Punkte A = (1, 0) und B =(2, 1) beschrieben sind, anpassen. Wir suchen also eine Funktion y = y(x), die die DGlerfullt und den Randbedingungen y(1) = 0 und y(2) = 1 genugt.Wir haben die DGl schon klug als Produkt von drei Faktoren geschrieben, deren Pro-dukt verschwindet. Dann muß mindestens einer der Faktoren verschwinden. Darausergeben sich drei Falle:

1. y ′ = 0 =⇒ y = const., aber damit lassen sich die Randbedingungen nicht mehrerfullen.

2. y−x·y ′ = 0 =⇒ y ′ = yx =⇒ ln |y| = ln |x|+c. Hier haben wir nur eine Konstante

c, an der wir drehen konnen. Auch damit lassen sich nicht zwei Randbedingungenerfullen.

3. y ′′ = 0 =⇒ y = ax + b. Hier klappt es mit den Randbedingungen. EinfachesEinsetzen ergibt die beiden Gleichungen:

y(1) = 0 = a + b und y(2) = 1 = 2a + b

Daraus erhalt man die Losung

y(x) = x− 1

Diese Gerade ist also die Extremale unseres Variationsproblems, die den vorgegebenenRandbedingungen genugt. Das heißt aber nicht, daß sie auch dem Variationsproblemeinen Extremwert erteilt. Die Eulersche DGl war ja nur notwendig fur ein Extremum.Um sicher zu gehen, mußten wir eine hinreichende Bedingung haben. Diese gibt es,aber dafur mussen wir auf die Spezialliteratur verweisen.

11.7.4 Verallgemeinerung

Hier wollen wir nur kurz auf Aufgaben mit hoheren Ableitungen eingehen. Dazu gebenwir fur eine allgemeinere Variationsaufgabe ihre zugeordnete Eulersche DGl an undrechnen ein Beispiel durch.

Satz 11.50 Ist y0(x) Losung der Variationsaufgabe

Φ[y] :=∫ b

aF (x, y(x), y ′(x)), . . . , y(n)(x) dx = extr.

so ist y0(x) auch Losung der Eulerschen Differentialgleichung (der Variationsrech-nung):[Fy − d

dxFy ′ +

d2

dx2Fy ′′ + · · · + (−1)n · dn

dxnFy(n) = 0

](x, y(x), y ′(x), . . . , y(n)) = 0

Page 455: 3486584472_Mathem

442 11 Numerik von Randwertaufgaben

Man erkennt hoffentlich das Bildungsgesetz und konnte so recht allgemeine Variati-onsaufgaben angehen. Zur Erlauterung betrachten wir folgendes

Beispiel 11.51 Gegeben sei die Variationsaufgabe

Φ[y] :=∫ 1

0[(x2 + 1) y ′′2(x) + x · y(x) · y ′(x) + 4 · y2(x)] dx = extr.

Wie lautet die zugehorige Eulersche Differentialgleichung?

Die Grundfunktion lautet:

F (x, u, v1, v2) = (x2 + 1)v22 + x · u · v1 + 4 · u2.

Wir erhalten

Fu = x · v1 + 8u, Fv1 = xu, Fv2 = 2(x2 + 1)v2.

Jetzt erinnern wir uns, daß u, v1 und v2 ja eigentlich Funktionen von x sind. Unddann mussen wir die gewohnliche Ableitung nach eben diesem x bilden. Damit folgt:

d

dxFv1(x, y(x), y ′(x), y ′′(x)) =

d

dx(x · y) = y + x · y ′

und analog

d

dxFv2(x, y(x), y ′(x), y ′′(x)) =

d

dx(2(x2 + 1)y ′′) = 2 · 2x · y ′′ + 2(x2 + 1)y ′′′.

Genau so wird das nochmal abgeleitet:

d2

dx2Fv2(x, y(x), y ′(x), y ′′(x)) = 4y ′′ + 4x · y ′′′ + 2 · 2x · y ′′′ + 2(x2 + 1)y (iv).

Die Euler-DGl lautet allgemein fur die hier vorgegebene Grundfunktion:

[Fy − d

dxFy ′ +

d2

dx2Fy ′′

](x, y(x), y ′(x), y ′′(x)) = 0;

also entsteht, wenn wir alles einsetzen,

x · y ′ + 8y − y − xy ′ + 4y ′′ + 4xy ′′′ + 4xy ′′′ + 2(x2 + 1)y(iv) = 0,

oder zusammengefaßt die Eulersche Differentialgleichung:

2(x2 + 1)y (iv)(x) + 8xy ′′′(x) + 4y ′′(x)− 7y(x) = 0

Page 456: 3486584472_Mathem

11.7 Exkurs zur Variationsrechnung 443

11.7.5 Belastete Variationsprobleme

Bislang haben wir uns ausschließlich auf die einfachen Randbedingungen (11.44) (vgl.S. 437) gestutzt. Was andert sich, wenn wir andere Randbedingungen zulassen?Bei der Herleitung der Eulerschen Differentialgleichung haben wir in (11.47) auf Seite438 wesentlich die homogenen Randbedingungen der Vergleichsfunktion g ausgenutzt.Bei komplizierteren Randvorgaben muß vielleicht auch unsere Vergleichsfunktion kom-pliziertere Bedingungen einhalten. Dann fallen auch die durch partielle Integrationausintegrierten Anteile nicht automatisch weg. Um das zu kompensieren, mussen wiralso unser Funktional von Beginn an mit einigen Zusatztermen versehen. Diese heißenin der Literatur Belastungsglieder und die Variationsaufgabe heißt mit diesen Termenbelastet.Wir wollen hier nur fur einen etwas spezielleren Fall die genauen Bedingungen herlei-ten. Dazu unterteilen wir zunachst die Randbedingungen in verschiedene Klassen.

Definition 11.52 Betrachten wir eine Differentialgleichung 2n–ter Ordnung. Dannnennen wir Randbedingungen, die Ableitungen hochstens bis zur Ordnung n − 1 ent-halten, wesentlich. Die ubrigen Randbedingungen nennen wir restlich.Durch geschickte Wahl der Grundfunktion F gelingt es manchmal, daß restliche Rand-bedingungen automatisch erfullt werden. Diese Randbedingungen nennen wir dann na-turlich.

Nun kommen wir zum angekundigten Spezialfall.

Satz 11.53 Gegeben sei folgende Randwertaufgabe

−(p(x) · y ′(x))′ + q(x) · y(x) = r(x) mit p(x) ≥ p0 > 0 in (a, b),und p ∈ C1(a, b), q ∈ C(a, b)

α1 · y(a) + α2 · y ′(a) = A,β1 · y(b) + β2 · y ′(b) = B.

Dann ist die Differentialgleichung Eulersche Differentialgleichung (also notwendigeBedingung fur ein Extremum) und die restlichen Randbedingungen fur α2 = 0, β2 = 0ergeben sich als naturliche Randbedingungen der folgenden Variationsaufgabe

Φ(y) =∫ b

a[p(x) · y ′2 + q(x) · y2 − 2 · r(x) · y] dx + 2G− 2H = Extr.

mit G :=

⎧⎨⎩

0 falls α2 = 0 (wesentl. RB)p(a)α2

(A · y(a)− α1

2· y(a)2

)falls α2 = 0 (restl. RB)

,

und H :=

⎧⎨⎩

0 falls β2 = 0 (wesentl. RB)p(b)β2

(B · y(b)− β1

2· y(b)2

)falls β2 = 0 (restl. RB)

.

Page 457: 3486584472_Mathem

444 11 Numerik von Randwertaufgaben

Dieser Satz gibt uns eine Art Kochrezept, um aus einer speziellen Randwertaufgabe aufdas zugehorige Variationsproblem zuruckzuschließen. Schauen wir uns die einzelnenTeile etwas genauer an.Die Differentialgleichung ist linear und selbstadjungiert, ein Begriff, den wir hier nichtintensiver vorstellen wollen, da wir keine weiteren Folgerungen daraus ableiten wer-den; spater (vgl. S. 409) kommen wir darauf zuruck und werden ihn etwas prazieserbeschreiben.Die Randbedingungen sind ebenfalls linear. Sie sind getrennt nach Anfangs– und End-punkt. Ist α2 = 0, so ist die erste Randbedingung wesentlich, und sofort sieht man,daß G ≡ 0 ist. Analog ist die zweite wesentlich, wenn β2 = 0 ist, was ebenso H ≡ 0ergibt. Im anderen Fall sind beide restlich. Dann entstehen echte Terme G und H, diedem Variationsfunktional hinzugefugt werden.Die ganze Randwertaufgabe wird als Sturm10–Liouville11–Randwertaufgabe bezeich-net.Jetzt sind wir so weit vorbereitet, daß wir uns an das nachste Verfahren heranwagenkonnen.

11.8 Verfahren von Ritz

Wie wir im vorigen Abschnitt gesehen haben, wird in der Variationsrechnung eineVariationsaufgabe auf eine Differentialgleichung mit Randbedingungen zuruckgefuhrt.Der Anwender hat dann das Problem, diese Randwertaufgabe zu losen. Walter Ritz12

kam im Jahre 1909 auf die geniale Idee, den Spieß umzudrehen. Ihm lag wohl mehrdaran, Randwertprobleme zu losen. Also versuchte er, sie auf ein Variationsproblemzuruckzufuhren und dieses dann zu losen. Wie uns auch der vorige Abschnitt zeigt,sind nicht beliebige Randwertprobleme damit zu knacken, sondern sie mussen in einerspeziellen Form vorliegen. Wir haben uns im Satz 11.53 auf sog. Sturm–Liouville–Aufgaben beschrankt und werden das hier fortsetzen.

Beispiel 11.54 Wir losen die Randwertaufgabe

−y ′′(x) + x · y(x) = x2, y(0) = y(π2=0

naherungsweise nach Ritz mit einem einparametrigen Ansatz aus moglichst einfachentrigonometrischen Funktionen.

Wie man sieht, sind beide Randbedingungen wesentlich, also mussen sie beide beachtetwerden.Offensichtlich erfullt

w(x, a) = a · sin 2x mit w ′(x, a) = 2a · cos 2x,w ′′(x, a) = −4a · sin 2x

10Sturm, R. (1841-1919)11Liouville, J. (1809-1882)12Ritz, W. (1878-1909)

Page 458: 3486584472_Mathem

11.8 Verfahren von Ritz 445

beide Bedingungen.Vergleichen wir mit Kasten unten, so ist also hier p(x) ≡ 1, q(x) = x und r(x) = x2.Damit lautet das zugehorige Variationsfunktional

Φ(y) =∫ π/2

0(y ′2(x) + x · y2(x)− 2x2 · y(x)) dx = extr.

Hier setzen wir den Ansatz ein:∫ π/2

0(4a2 · cos2 2x + x · a2 sin2 2x− 2x2a sin 2x) dx = extr.

Ritzverfahren

Der Grundgedanke des Ritzverfahrens besteht darin, statt der vorgelegten Diffe-rentialgleichung eine zu ihr aquivalente Variationsaufgabe naherungsweise zu losen.Gegeben sei die folgende sogenannte Sturm–Liouville–Randwertaufgabe:

−(p(x) · y ′)′ + q(x) · y = r(x) mit p(x) ≥ p0 > 0 in (a, b),und p ∈ C1(a, b), q ∈ C(a, b)

α1 · y(a) + α2 · y ′(a) = A,

β1 · y(b) + β2 · y ′(b) = B.

Die folgende Variationsaufgabe ist zu ihr aquivalent:

Φ(y) =∫ b

a[p(x) · y ′2 + q(x) · y2 − 2 · r(x) · y] dx + 2G − 2H = Extr.

G :=

⎧⎨⎩

0 falls α2 = 0 (wesentl. RB)p(a)α2

(A · y(a)− α1

2· y(a)2

)falls α2 = 0 (restl. RB)

,

H :=

⎧⎨⎩

0 falls β2 = 0 (wesentl. RB)p(b)β2

(B · y(b)− β1

2· y(b)2

)falls β2 = 0 (restl. RB)

.

Diese Aufgabe wird nun naherungsweise in einem endlich dimensionalen Teilraumgelost. Dazu bilden wir als Ansatzfunktion eine Funktion w(x; a1, . . . , an), die vonn Parametern abhangt, aber lediglich den wesentlichen Randbedingungen genugenmuß. Setzen wir diese Funktion in die Variationsaufgabe ein, so ergibt sich eineFunktion von n reellen Veranderlichen a1, . . . , an, die mit den ublichen Mitteln derDifferentialrechnung auf Extrema zu untersuchen ist.

Page 459: 3486584472_Mathem

446 11 Numerik von Randwertaufgaben

In dieser Gleichung steht zwar noch x, aber dieses ist ja die Integrationsvariable; nachAusfuhrung der Integration ist kein x mehr da. Die einzige Variable ist das a. Durchdie Verwendung des Ansatzes haben wir also eine neue Funktion Φ(a) einer Variablena erhalten, deren Extrema wir suchen. Eine notwendige Bedingung dazu kennen wirschon aus der Schule, namlich ihre Ableitung 0 zu setzen, also

notwendige Bedingung:dΦ(a)

da= 0

Jetzt hat man die Freiheit, erst den Integranden nach a abzuleiten und dann dieIntegration auszufuhren, oder umgekehrt, erst zu integrieren und dann abzuleiten.Jeder mag tun, was ihm leichter aussieht, das Ergebnis bleibt gleich.Wir erhalten nach kurzer Rechnung

a =2(π2 − 4)π2 + 16π

, also als Naherungslosung: w(x) =2(π2 − 4)π2 + 16π

· sin 2x

Bemerkung 11.55 Im obigen Kasten bedurfen nach dem Abschnitt uber Variations-rechnung nur die beiden Terme G und H einer Erlauterung.Erste Erkenntnis, G ≡ 0, falls α2 = 0. Dieses α2 tritt in der ersten Randbedingungauf und zwar vor dem Term mit der Ableitung. Wenn α2 = 0 ist, so gibt es keineAbleitung in der RB, also ist sie wesentlich. Alsowesentliche RB bei a =⇒ G ≡ 0.Ist dagegen α2 = 0, so ist die RB restlich und G ist ernsthaft zu beachten. Es tritt alsZusatzterme im Variationsfunktional auf. Damit wird die RB in unserer Sprechweisevon Def 11.52 naturlich.Genau das gleiche gilt fur den Term H in Bezug auf die Randbedingung bei b.

11.8.1 Vergleich von Galerkin– und Ritz–Verfahren

Ritz und Galerkin sind so eng miteinander verbunden, daß wir in diesem Abschnittsowohl theoretisch als auch an einem praktischen Beispiel die Gemeinsamkeiten unddie Unterschiede zusammentragen wollen.

Beispiel 11.56 Wir betrachten die Randwertaufgabe

−y ′′(x) + y(x) = −1 mit y ′(0) = 0, y(2) = 1

und losen sie naherungsweise zuerst mit Galerkin und dann mit Ritz. Dabei verwendenwir in beiden Fallen einen einparametrigen Ansatz aus Polynomen.

Die zweite Randbedingung ist nichthomogen, also suchen wir flugs eine Funktion, diedieser Randbedingung genugt. Wir strengen uns nicht an und wahlen

w(x) ≡ 1.

Dann bilden wir

u(x) = y(x)− w(x)

Page 460: 3486584472_Mathem

11.8 Verfahren von Ritz 447

und rechnen aus

−u ′′(x) + u(x) = −y ′′(x) + w ′′(x) + y(x)− w(x)= −y ′′(x) + y(x)−w(x) = −1− 1= −2

Galerkin (1915) Ritz (1908)

Vorauss.: beliebige (lineare) DGl in [a, b]

L(y) = r

und RB bei a und b

selbstadj. DGl in [a, b]

−(py ′)′ + qy = r

und RB bei a und b

Ansatz: w(x) = a1w1(x) + · · · +anwn(x),wobei w1, . . . , wn lin. unabh.sein und samtlichen Randbe-dingungen genugen mussen

w(x) = a1w1(x) + · · · +anwn(x), wobei w1, . . . , wn

lin. unabh. sein und den we-sentlichen Randbedingungengenugen mussen

Rechnung: Bilde Defekt

d := L(w)− r

und setze d⊥w1, . . . , wn:∫ b

a(L(y)− r) · wi dx = 0,

i = 1, . . . , n

Bilde Variationsaufgabe

Φ[w] =∫ b

a(pw ′2 + qw2 − 2rw) dx

= extr.

und berechne a1, . . . , an ausder (fur Extremum notwendi-gen) Bedingung, daß die par-tiellen Ableitungen verschwin-den:

∂Φ∂ai

= 0, i = 1, . . . n

Aus y(x) = u(x) + w(x) schließen wir wegen y ′(x) = u ′(x) + w ′(x) auf die Randbe-dingung

y ′(0) = u ′(0) + w ′(0) = u ′(0).

Also betrachten wir fur die weitere Losung die homogenisierte Randwertaufgabe

−u ′′(x) + u(x) = −2 mit u ′(0) = 0, u(2) = 0.

Page 461: 3486584472_Mathem

448 11 Numerik von Randwertaufgaben

(a) Losung nach Galerkin:

Nun, der Ansatz wird durch die Randbedingungen bestimmt; beide mussenerfullt werden. Die Nullfunktion wurde das zwar tun, aber als Ergebnis auchnur die Nullfunktion liefern, was uns nicht wirklich weiter hilft. Eine lineareFunktion reicht leider auch nicht, wie man sofort sieht, also wahlen wir einenach oben geoffnete Parabel, die bei x = 0 ihren Scheitel hat und die wir nachunten verschieben, so daß sie bei x = 2 den Wert 0 annimmt:

Ansatz: w(x, a) = a · w1(x) := a · (x2 − 4), a ∈ R

Der Defekt lautet

d(u(x)) = −u ′′(x) + y(x)− (−2),

und damit erhalten wir fur unseren Ansatz

d(w(x, a) = −w ′′(x, a) + w(x, a) + 2.

Jetzt bestimmen wir den unbekannten Koeffizienten a aus der Forderung, daßdieser Defekt senkrecht steht zur Funktion w1(x) = x2 − 4:

∫ 2

0(−w ′′(x) + w(x) + 2) · (x2 − 4) dx = 0

Hier setzen wir den Ansatz ein und rechnen ein wenig:

∫ 2

0(−2a + a · (x2 − 4) + 2) · (x2 − 4) dx = 0.

Das laßt sich leicht ausrechnen, und wir erhalten

a =513

, also w(x) =513

(x2 − 4)

als erste Naherungslosung nach Galerkin.

Jetzt mußten wir das Spiel weiter treiben mit einer Ansatzfunktion, die mehrereParameter enthalt, z. B. mit

w(x, a1, a2) = a1 · w1(x) + a2 · w2(x):= a1 · (x2 − 4) + a2 · (x2 − 4)2

Das bringt dann etwas mehr Rechnerei, aber keine neue Erkenntnis, und darumbelassen wir es dabei.

Page 462: 3486584472_Mathem

11.8 Verfahren von Ritz 449

(b) Losung nach Ritz: Bei Herrn Ritz mussen wir lediglich die wesentlichen Rand-bedingungen im Ansatz unterbringen. Wesentlich ist hier nur die zweite Bedin-gung u(2) = 0, die erste enthalt die Ableitung, was bei einer DGl 2. Ordnungeine restliche RB ist.

Damit konnen wir mit einer viel einfacheren Funktion ansetzen; es reicht hierein Polynom ersten Grades

Ansatz: w(x, a) = a · (x− 2), a ∈ R.

Die zugehorige Variationsaufgabe lautet

∫ 2

0(u ′2(x) + u2(x) + 4u(x)) dx = extr.

also mit dem Ansatz w(x, a)

∫ 2

0(a2 + a2(x− 2)2 + 4a(x− 2)) dx = extr.

Auch hier beginnt jetzt das Rechnen, das einem Mathematiker so gar nichtschmeckt, aber eben doch auch ab und zu sein muß, und wir erhalten

a =67, also w(x) =

67

(x− 2)

als erste Naherungslosung nach Ritz.

Wenn wir die Ansatzfunktion so wie bei Galerkin nehmen, entsteht naturlichauch dasselbe Ergebnis wie oben.

Page 463: 3486584472_Mathem
Page 464: 3486584472_Mathem

Kapitel 12

Partielle Differentialgleichungen

Viele Naturgesetze enthalten Ableitungen, man denke an das Wachstumsverhaltenoder den radioaktiven Zerfall. Neben den drei Raumvariablen spielt aber haufig auchnoch die Zeit als vierte Variable eine Rolle. Daher sind es in aller Regel die partiellenAbleitungen, die eine wesentliche Rolle in der Gleichung spielen. So gelangt man zuden partiellen Differentialgleichungen.

Definition 12.1 Die folgende Gleichung

F

(x1, . . . , xn, u,

∂u

∂x1, . . . ,

∂u

∂xn,∂2u

∂x21

,∂2u

∂x1∂x2, . . . ,

∂2u

∂x2k

, . . . ,∂ku

∂xkn

)= 0 (12.1)

stellt die allgemeinste partielle Differentialgleichung der Ordnung k in n Veranderli-chen dar; mit Ordnung meinen wir dabei wie bei gewohnlichen Differentialgleichungendie großte vorkommende Ableitungsordnung.

Die Funktion F kann dabei auch nichtlinear sein, und dann fallt es schwer, etwasuber Losbarkeit usw. zu sagen. Wir wollen fur unsere folgenden Untersuchungen nur2. Ableitungen zulassen. Daran sehen wir genug, um das allgemeine Prinzip zu er-kennen. Außerdem wollen uns auf lineare partielle Differentialgleichungen 2. Ordnungbeschranken:

n∑j,k=1

Ajk(x)∂2u

∂xj∂xk︸ ︷︷ ︸Hauptteil

+n∑

k=1

Ak(x)∂u

∂xk+ A0(x)u = f(x), (12.2)

wobei Ajk, Ak, j, k = 1, . . . , n,A0 und f gegebene Funktionen von x sind. Der un-terklammerte Hauptteil enthalt samtliche Terme mit den zweiten Ableitungen. Wirwerden spater nur diesen Hauptteil dazu benutzen, die verschiedenen Typen von Dif-ferentialgleichungen zu klassifizieren.

Page 465: 3486584472_Mathem

452 12 Partielle Differentialgleichungen

Nach Hermann Amandus Schwarz1 weiß man, daß (unter gewissen Voraussetzungen)die Reihenfolge bei der zweiten partiellen Ableitung vertauschbar ist, daß also gilt:

∂2u

∂xj∂xk=

∂2u

∂xk∂xj.

Somit konnen wir ohne großes Verheben

Ajk(x) = Akj(x)

voraussetzen. Dann werden wir naturlich diese Koeffizienten in einer Matrix darstellen,der Koeffizientenmatrix, und konnen von vorneherein annehmen, daß diese Koeffizi-entenmatrix des Hauptteils symmetrisch ist.Bevor wir obige Begriffe an, wie sich zeigen wird, wesentlichen Beispielen uben, wol-len wir kurz umreißen, wie unser weiteres Vorgehen aussieht. Wir wollen zunachstdie zu untersuchenden Gleichungen (12.2) in Klassen einteilen. Leider mussen wirdann jede dieser Klassen fur sich behandeln. Es gibt keine einheitliche Theorie; jederTyp verlangt eine ganz eigene Betrachtung. Dazu werden wir jedesmal den beruhm-ten Bernoulli-Trick vorfuhren und uns anschließend Gedanken uber die numerischeBerechnung einer Losung machen.

12.1 Einige Grundtatsachen

Wir beginnen mit einigen Beispielen, die sich als charakteristisch fur jeden der spaterbestimmten Typen von partiellen Differentialgleichungen herausstellen werden.

1. Schwingende Saite: Betrachtet man eine Gitarrensaite und zupft sie an, so kannman ihre Ausdehnung im zeitlichen Verlauf durch folgende Differentialgleichungbeschreiben:

∂2u

∂t2− a2 ∂2u

∂x2= f(x, t), a = 0. (12.3)

Dabei haben wir eine Variable t genannt, womit wir andeuten wollen, daß dieseVariable in der physikalischen Wirklichkeit die Zeit ist. Die Funktion f(x, t) derrechten Seite beschreibt die Kraft, die die Saite in Spannung halt. Der Parametera stellt die Ausbreitungsgeschwindigkeit der Schwingung dar. Wir schreiben a2,um damit das negative Vorzeichen zu fixieren, denn a2 ist fur a = 0 stets positiv,das negative Vorzeichen kann also nicht durch den Parameter a aufgefressenwerden.

Hier stehen links nur Terme mit zweiten Ableitungen. Beide zusammen bildenalso den Hauptteil. Die zugehorige Koeffizientenmatrix lautet:(

1 00 −a2

).

1H. A. Schwarz, 1843 – 1921

Page 466: 3486584472_Mathem

12.1 Einige Grundtatsachen 453

2. Membranschwingung:

Eine schwingende Membran, wie man sie in jedem Lautsprecher findet, gehorchtunter starken Einschrankungen in erster Naherung folgender Gleichung:

∂2u(x, y, t)∂t2

− a2

(∂2u(x, y, t)

∂x2+

∂2u(x, y, t)∂y2

)= f(x, y, t). (12.4)

Der Unterschied zur Saite liegt lediglich in der einen Veranderlichen, die wirmehr haben, was ja auch klar ist, denn die Membran liegt ja in der Ebene. Diezugehorige Koeffizientenmatrix lautet:⎛

⎝ 1 0 00 −a2 00 0 −a2

⎞⎠ .

Man beachte auch hier das Quadrat des Parameters a. Nur dadurch sind imHauptteil zwei Diagonalelemente echt negativ (fur a = 0).

3. Betrachten wir einen Korper im dreidimensionalen Raum mit den Koordinatenx, y und z. Interessant ist die Frage, wie sich Warme in diesem Korper imVerlaufe der Zeit t ausbreitet. Die Physiker wissen die Antwort. Die folgendepartielle Differentialgleichung liegt diesem Vorgang zugrunde:

k · ∂u

∂t−(

∂2u

∂x2+

∂2u

∂y2+

∂2u

∂z2

)= f(x, y, z, t). (12.5)

Hier muß man aufpassen, nicht den falschen Hauptteil aufzuschreiben. Wir ha-ben vier Variable x, y, z und t. Also besteht unser Hauptteil auch aus einervierreihigen Matrix. Nun kommt die Variable t nicht als zweite partielle Ablei-tung vor, sondern nur als erste. Damit enthalt der Hauptteil eine Nullzeile, umso das Vorhandensein der vierten Variablen anzudeuten, aber klarzumachen, daßdiese nicht im Hauptteil mitspielt:⎛

⎜⎜⎝0 0 0 00 −1 0 00 0 −1 00 0 0 −1

⎞⎟⎟⎠ .

4. Zur Bestimmung des elektrischen Feldes eines geladenen Korpers kann man mitgroßem Gewinn den beruhmten Divergenzsatz von C. F. Gauß heranziehen. Mitseiner Hilfe laßt sich ein solches Feld folgendermaßen beschreiben:

∆u(x, y, z) :=∂2u(x, y, z)

∂x2+

∂2u(x, y, z)∂y2

+∂2u(x, y, z)

∂z2

=

0 Laplace–Gleichungf(x, y, z) Poisson–Gleichung

(12.6)

Page 467: 3486584472_Mathem

454 12 Partielle Differentialgleichungen

Die Koeffizientenmatrix des Hauptteils ist schlicht die 3×3–Einheitsmatrix, wieman unmittelbar erkennt.

Die folgenden beiden Beispiele werden wir spater hinsichtlich ihres Typs genauer be-trachten und dabei feststellen, daß eine partielle Differentialgleichung nicht in derganzen Ebene demselben Typ angehoren muß.

5.

y∂2u

∂x2+

∂2u

∂y2= 0 (12.7)

Dies ist die Tricomi–Differentialgleichung, die Koeffizientenmatrix des Hauptteilslautet:(

y 00 1

).

6.

(1 + y2)∂2u

∂x2− 2xy

∂2u

∂x∂y+ (1 + x2)

∂2u

∂y2− x3 ∂u

∂y= x · y2 (12.8)

Die Koeffizientenmatrix des Hauptteils lautet hier:(1 + y2 −xy−xy 1 + x2

)

12.1.1 Klassifizierung von partiellen Differentialgleichungen zweiterOrdnung

In diesem Abschnitt wollen wir uns ansehen, in welche Klassen man die partiellen Dif-ferentialgleichungen zweiter Ordnung einteilt. Dies ist beileibe keine mathematischeSpitzfindigkeit ohne Sinn. Ganz im Gegenteil. Fur jede der nun folgenden Klassengibt es eine ganz eigenstandige Theorie bezuglich Losbarkeit und auch hinsichtlichder numerischen Berechnung. Daher mussen wir diese Einteilung dringend kennenler-nen. Anschließend werden wir jede einzelne Klasse gesondert betrachten und uns diezugehorige Theorie und Numerik zu Gemute fuhren.Durch unsere Uberlegung mit Hermann Amandus Schwarz ist die Koeffizientenmatrixstets symmetrisch. Also sind nach unserer Kenntnis der Hauptachsentransformationalle Eigenwerte reell. Das nutzen wir in der folgenden Definition gnadenlos zur Typ-einteilung aus:

Definition 12.2 Eine partielle Differentialgleichung zweiter Ordnung gehort im Punktx = (x1, x2, . . . , xn) zum Typ (α, β, γ), wenn die Koeffizientenmatrix ihres Hauptteilsα positive, β negative Eigenwerte hat und γ Eigenwerte gleich Null sind (alle mitVielfachheiten gezahlt).Eine partielle Differentialgleichung gehort in einer Punktmenge zum Typ (α, β, γ),wenn sie in jedem ihrer Punkte zu diesem Typ gehort.

Page 468: 3486584472_Mathem

12.1 Einige Grundtatsachen 455

In Kurzform lautet das also:

Typ (α, β, γ) ⇐⇒α Anzahl der Eigenwerte > 0β Anzahl der Eigenwerte < 0γ Anzahl der Eigenwerte = 0

Bemerkung 12.3 Offensichtlich gehort eine PDGl im ganzen Raum zum selben Typ,wenn die Koeffizientenfunktionen konstant sind.Es ist

Typ (α, β, γ) = Typ (β, α, γ).

Man muß ja lediglich die ganze PDGL mit −1 multiplizieren. Dann wechseln alle vonNull verschiedenen Eigenwerte ihr Vorzeichen, also α wird zu β, β zu α, und dieEigenwerte = 0 bleiben gleich, γ andert sich also nicht.

Damit konnen wir nun ohne Probleme fur unsere oben vorgestellten Beispiele jeweilsden Typ bestimmen.

1. Die schwingende Saite hat als

Eigenwerte 1,−a2, ist also vom Typ (1, 1, 0).

2. Die Membran hat als

Eigenwerte 1,−a2,−a2 ist also vom Typ (1, 2, 0).

3. Die Warmeleitung hat als

Eigenwerte − 1,−1,−1, 0 ist also vom Typ (0, 3, 1).

4. Die Laplace–Gleichung hat als

Eigenwerte 1, 1, 1, ist also vom Typ (3, 0, 0).

5. Die Tricomi–Gleichung hat als

Eigenwerte 1, y, ist also vom Typ

⎧⎨⎩

(2, 0, 0) falls y > 0(1, 1, 0) falls y < 0(1, 0, 1) falls y = 0

.

6. Zur Bestimmung der Eigenwerte der Koeffizientenmatrix(

1 + y2 −xy−xy 1 + x2

)

Page 469: 3486584472_Mathem

456 12 Partielle Differentialgleichungen

stellen wir ihr charakteristisches Polynom auf. Es ist

det(

1 + y2 − λ −xy−xy 1 + x2 − λ

)= (1 + y2 − λ)(1 + x2 − λ)− x2y2 = 0.

Das geht leicht aufzulosen mit der bekannten p-q–Formel:

λ1,2 =2 + x2 + y2

2±√(

2 + x2 + y2

2

)2

− 1− x2 − y2.

Lost man die Klammer unter der Wurzel auf, so heben sich verschiedene Termeweg, und es bleibt:

λ1,2 = 1 +x2

2+

y2

2±(

x2

2+

y2

2

).

Also finden wir die beiden Eigenwerte

λ1 = 1, λ2 = 1 + x2 + y2,

also sind beide Eigenwerte positiv (sogar > 1), also gehort die PDGl zum Typ(2, 0, 0).

Fur den Fall, daß wir uns mit drei unabhangigen Veranderlichen plagen mussen, unsalso im dreidimensionalen Raum bewegen, haben wir ja hochstens drei Eigenwerteunserer 3× 3–Koeffizientenmatrix des Haupteils. Da gibt es also gar nicht so sehr vielverschiedene Typen. Den drei wichtigsten geben wir folgende Namen:

Definition 12.4

(n, 0, 0) = (0, n, 0) elliptisch,Typ (n− 1, 1, 0) = (1, n − 1, 0) heißt hyperbolisch,

(n− 1, 0, 1) = (0, n − 1, 1) parabolisch.

Die Motivation fur diese Namensgebung erhalten wir, wenn wir uns im R2 tummeln.

Lassen wir also nur zwei unabhangige Veranderliche zu, so nimmt der Hauptteil dieGestalt an

H(u(x, y)) = a11(x, y, u(x, y), ux(x, y), uy(x, y))uxx(x, y)+2a12(. . .)uxy(. . .) + a22(. . .)uyy(. . .).

Zur besseren Ubersicht haben wir . . . verwendet, wenn wir den gleichen Eintrag wiezuvor hinschreiben mußten. Die Koeffizientenfunktionen a11, a12 und a22 kann manin einer Matrix anordnen, da wir ja wegen H. A. Schwarz ohne weiteres 2a12uxy =a12uxy + a21uyx schreiben konnen; wir haben also einfach a21 := a12 gesetzt underhalten die Matrix

A =(

a11 a12

a21 a22

).

Page 470: 3486584472_Mathem

12.1 Einige Grundtatsachen 457

Denken wir nun zuruck an die lineare Algebra. Einer solchen Matrix konnen wir einequadratische Form zuordnen. Es zeigt sich bekanntlich, daß diese Form eine Ellipsedarstellt, wenn beide Eigenwerte der Matrix positiv sind. Sie ist eine Hyperbel, wennein Eigenwert positiv und der zweite negativ ist. Und es ist eine Parabel, wenn einEigenwert 0 auftritt. Genau das ist unsere Klassifizierung der Typen. Daher also derName.Vergleichen wir mit obigen Beispielen, so sehen wir:

1. Die PDGl der schwingenden Saite ist hyperbolisch.

2. Die PDGl der Membran ist hyperbolisch.

3. Die Warmeleitungsgleichung ist parabolisch.

4. Die Laplace–Gleichung und die Poisson–Gleichung sind elliptisch.

5. Die Tricomi–Gleichung ist in der oberen Halbebene elliptisch, in der unterenHalbebene hyperbolisch und auf der x-Achse parabolisch.

6. Diese PDGl ist elliptisch.

Leider ist mit diesen drei Begriffen keine vollstandige Einteilung aller PDGln erreicht.Beziehen wir die Zeit als vierte unabhangige Variable mit ein, so konnte man anfolgende PDGl denken:

∂2u

∂x2+

∂2u

∂y2− ∂2u

∂z2− ∂2u

∂t2= f(x, y, z, t).

Hier sind zwei Terme positiv, zwei Terme negativ. Als Eigenwerte haben wir 1 und −1jeweils mit der Vielfachheit 2, also ist der Typ (2, 2, 0). Der paßt aber nicht in unserobiges Schema. Diese PDGL ist also keinem Typ zugeordnet. Sie ist weder elliptischnoch hyperbolisch noch parabolisch. Man sieht, daß sich die Einteilung stark an denbekannten PDGL der Physik orientiert hat.

12.1.2 Anfangs– und Randbedingungen

Wie bei den gewohnlichen Differentialgleichungen sind auch bei PDGl weitere Ein-schrankungen erforderlich, um auf genau eine Losung zu kommen. Wieder stark ander Physik orientiert, nimmt man Bedingungen am Rand des zu betrachtenden Ge-bietes hinzu oder man stellt, wenn die Zeit als unabhangige Variable mit einbezogenist, sog. Anfangsbedingungen. Wir demonstrieren das an einigen wichtigen Beispielen.

Beispiel 12.5 Die Poisson–Gleichung2

∆u = f in Ω,

2S. D. Poisson (1781 – 1840)

Page 471: 3486584472_Mathem

458 12 Partielle Differentialgleichungen

wobei Ω ein beschranktes Gebiet im R2 oder R

3 und ∆ der Laplace–Operator ist:

∆u =∂2u

∂x2+

∂2u

∂y2+

∂2u

∂z2

Im wesentlichen betrachtet man fur die Poissongleichung drei verschiedene Formenvon Randbedingungen:

1. Dirichlet–Randbedingungen3:

u|Γ = ϕ(x), x ∈ Γ,

und hier ist Γ der Rand des betrachteten Gebietes Ω. Es werden also nur dieFunktionswerte der gesuchten Losung auf dem Rand vorgegeben.

2. Neumann–Randbedingungen4:

∂u

∂n

∣∣∣∣Γ = ψ(x), x ∈ Γ.

Hier werden nur die Normalableitungen der gesuchten Losung in Richtung n aufdem Rand vorgegeben, wobei n der Normalenvektor auf dem Rand ist.

3. Gemischte Randbedingungen:

αu|Γ + β∂u

∂n

∣∣∣∣Γ = χ(x), x ∈ Γ.

Je nach Wahl von α und β stecken hier die Dirichlet– und die Neumann–Randbe-dingungen mit drin. Gemischt sind sie aber erst, wenn sowohl α als auch β vonNull verschieden sind.

Beispiel 12.6 Betrachten wir als weiteres Beispiel die Wellengleichung und als Spe-zialfall im R

1 die schwingende Saite:

∂2u

∂t2− a2 ∂2u

∂x2= f(x, t), (x, t) ∈ [0, ] × [0,∞).

Dabei ist a die Ausbreitungsgeschwindigkeit der Welle, f(x, t) die zur Zeit t auf denPunkt x einwirkende außere Kraft, die z. B. beim Anzupfen der Saite gebraucht wirdoder beim Anreißen mit dem Bogen bei der Geige.

3L. P. G. Dirichlet (1805 – 1859)4C. G. Neumann, (1832 – 1925)

Page 472: 3486584472_Mathem

12.1 Einige Grundtatsachen 459

Rechts haben wir die Saite aufdie x–Achse gelegt von 0 bis .Senkrecht nach oben wollen wirdie Zeitachse auftragen. Damit ha-ben wir als Gesamtgebiet einennach oben offenen Streifen, der dreiRandlinien besitzt. Der untere Randliegt auf der x–Achse, also bei t = 0,der linke Rand ist der Anfangspunktder Saite und seine zeitliche Ent-wicklung, der rechte Rand ist derEndpunkt in der zeitlichen Entwick-lung.

t

xϕ0, ϕ1

ψ1 ψ2

0

Damit ist bereits die Wellengleichung vollstandig beschrieben, und wir werden unsspater fragen, ob und wie wir diese Gleichung losen konnen. Da wir noch keine Ein-schrankungen an die Rander vorgegeben haben, wird die Losung, wenn es denn einegibt, noch viele Freiheiten besitzen.In dieser Gleichung finden wir sowohl zweite Ableitungen nach t als auch nach x. Inder Losung darf man also vier Parameter erwarten, und wir konnen vier Bedingungengebrauchen. Haufig werden fur die Saite eine Anfangslage ϕ0(x) und eine Anfangsge-schwindigkeit ϕ1(x) vorgegeben, also sog. Anfangsbedingungen:

u(x, 0) = ϕ0(x),∂u(x, 0)

∂t= ϕ1(x), 0 ≤ x < .

Die so beschriebene Aufgabe ist fur sich allein schon interessant, auch wenn sie immernoch recht viele Freiheiten besitzt. Sie verdient bereits einen eigenen Namen:

Definition 12.7 Unter dem Cauchy-Problem der Wellengleichung verstehenwir die Wellengleichung lediglich mit gegebenen Anfangswerten, also

∂2u

∂t2− a2 ∂2u

∂x2= f(x, t), (x, t) ∈ [0, ]× [0,∞) (12.9)

u(x, 0) = ϕ0(x) (12.10)∂u(x, 0)

∂t= ϕ1(x), 0 ≤ x < ∞ (12.11)

Die beiden Funktionen ϕ0(x) und ϕ1(x) heißen die Cauchy-Daten des Problems.

Als weitere Festlegung kann man daran denken vorzugeben, wie sich der linke und derrechte Endpunkt der Saite im Laufe der Zeit zu verhalten haben, das sind die sog.Randbedingungen:

u(0, t) = ψ1(t), u(, t) = ψ2(t), 0 ≤ t < ∞.

Auch diese Aufgabe wollen wir benennen:

Page 473: 3486584472_Mathem

460 12 Partielle Differentialgleichungen

Definition 12.8 Unter dem Anfangs-Randwert-Problem der Wellengleichung(im R

1) verstehen wir folgende Aufgabe:

∂2u

∂t2− a2 ∂2u

∂x2= f(x, t), (x, t) ∈ [0, ]× [0,∞) (12.12)

u(x, 0) = ϕ0(x) (12.13)∂u(x, 0)

∂t= ϕ1(x), 0 ≤ x < ∞ (12.14)

u(0, t) = ψ1(t), u(, t) = ψ2(t), 0 ≤ t < ∞ (12.15)

Eventuell werden daruber hinaus Vertraglichkeitsbedingungen verlangt. Damit die Lo-sung auch auf dem Rand stetig ist, muß gelten:

ψ1(0) = ϕ0(0), ψ2(0) = ϕ0().

Vielleicht will man ja auch sicherstellen, daß die Losung differenzierbar ist, dann mußzumindest gefordert werden:

ψ1′(0) = ϕ1(0), ψ2

′(0) = ϕ1().

Damit haben wir die Grundaufgaben, die sich bei der Wellengleichung ergeben, be-schrieben. Fur diese Aufgaben werden wir uns im folgenden bemuhen, Losungsansatzezu erarbeiten.

12.1.3 Korrekt gestellte Probleme

Der Begriff des korrekt gestellten Problems wurde von Hadamard5 eingefuhrt. Er legtedazu folgendes fest:

Definition 12.9 Ein PDGl–Problem heißt korrekt gestellt, wenn

1. es mindestens eine Losung besitzt (Existenz),

2. es hochstens eine Losung besitzt (Einzigkeit),

3. die Losung stetig von den Vorgaben (den ”Daten“) abhangt (Stabilitat).

Diesen Begriff wollen wir ausfuhrlich am folgenden Beispiel erlautern.

Beispiel 12.10 Wir betrachten die Randwertaufgabe:Wir fordern zusatzlich folgende Vertraglichkeitsbedingungen, damit die Losung stetigwird:

ϕ1(0) = ψ1(0), ϕ2(1) = ψ2(0), ϕ2(0) = ψ1(1), ϕ2(1) = ψ2(1).5J.S. Hadamard (1865–1963)

Page 474: 3486584472_Mathem

12.1 Einige Grundtatsachen 461

∂2u(x, y)∂x∂y

= 0 in Ω = (0, 1) × (0, 1)(12.16)

u(0, y) = ϕ1(y), u(x, 0) = ψ1(x)u(1, y) = ϕ2(y), u(x, 1) = ψ2(x)

1

1y

x

ϕ2ϕ1

ψ1

ψ2

Nun rechnen wir ein wenig. Wenn wir die Differentialgleichung nur etwas anders schrei-ben, konnen wir die außere Differentiation nach x leicht durch eine Integration nachx aufheben.

∂x

(∂u(x, y)

∂y

)= 0 =⇒ ∂u(x, y)

∂y= f(y) (= const. bezgl x).

Bei dieser Integration bleibt wie stets eine Integrationskonstante f(y), die hier vonder zweiten Variablen y abhangen kann. Das Spiel ging so schon, also versuchen wires gleich noch einmal, indem wir die letzte Gleichung jetzt nach y integrieren:

u(x, y) = F2(y) + F1(x) mit F ′2(y) = f(y).

Auch hier ist wiederum F1(x) als Integrationskonstante hinzugekommen, die jetztwegen der Integration nach y noch von x abhangen kann. Damit haben wir die all-gemeine Darstellung der Losung. Jetzt mussen wir sehen, ob die Randbedingungenerfullt werden konnen. Wir setzen also ein:

u(0, y) = F1(0) + F2(y) != ϕ1(y) ⇒ F2(y) = ϕ1(y)− F1(0)

u(x, 0) = F1(x) + F2(0)!= ψ1(x) ⇒ F1(x) = ψ1(x)− F2(0)

Wir konnen eine der Konstanten F1(0) oder F2(0) willkurlich wahlen, setzen also z. B.F2(0) = 0. Dann liegt

F1(x) = ψ1(x)

fest, denn die Funktion ψ1 war ja vorgegeben. Damit liegt aber auch

F2(y) = ϕ1(y)− ψ1(0)

fest. Und schon ist die Losung (bis auf die Konstante F2(0)) eindeutig bestimmt.Wie konnen wir die beiden anderen Randbedingungen erfullen? Vielleicht sind sie jazufallig erfullt:

u(1, y) = F1(1) + F2(y) = ϕ2(y)

bedeutet dann, daß F2(y) darstellbar ist als

F2(y) = ϕ2(y)− F1(1).

Page 475: 3486584472_Mathem

462 12 Partielle Differentialgleichungen

Damit haben wir eine zweite Darstellung fur F2(y). Der Vergleich liefe auf folgendeFestlegung der Randvorgaben hinaus:

ϕ1(y)− ψ1(0) = ϕ2(y)− F1(1).

ϕ1(y) und ϕ2(y) waren aber doch in der Aufgabenstellung willkurlich vorgebbar. Dasist ein Widerspruch. Also besitzt die Aufgabe bei willkurlicher Vorgabe von ϕ1(y) undϕ2(y) keine Losung. Das Problem (12.16) ist also nicht korrekt gestellt.

12.2 Die Poissongleichung und die Potentialgleichung

In diesem Abschnitt wollen wir uns als Beispiel einer elliptischen Gleichung

die Poissongleichung ∆u(x, y) = f(x, y) in Ω ⊆ R2

und als zugehorige homogene Gleichung

die Potentialgleichung ∆u(x, y) = 0 in Ω ⊆ R2

ansehen. Wie der Name sagt, stellt die Potentialgleichung das Potential eines Kraft-feldes wie z. B. das elektrische Potential einer geladenen Platte dar.Fur die beiden Probleme, die am haufigsten in der Natur und auch in der Literaturauftreten, die Dirichletsche Randwertaufgabe oder das Randwertproblem 1. Art unddie Neumannsche Randwertaufgabe oder das Randwertproblem 2. Art, werden wiruns detailliert die Losungsansatze erarbeiten.

12.2.1 Dirichletsche Randwertaufgabe

Definition 12.11 Die Aufgabe

∆u(x, y) = f(x, y) in Ω ⊆ R2 (12.17)

u(x, y) = g(x, y) auf Γ = ∂Ω (12.18)

heißt Randwertproblem 1. Art oder Dirichletsche Randwertaufgabe.

Bei diesem Problem sind also auf dem Rand die Funktionswerte der gesuchten Losungs-funktion vorgegeben.

Korrektgestelltheit

Unsere erste Frage muß nun lauten, ob die Aufgabe korrekt gestellt ist. Einige einfacheBeispiele zeigen uns hier die Problematik.

Beispiel 12.12 Betrachten wir doch nur mal die Potentialgleichung fur das Einheits-quadrat Ω = (0, 1) × (0, 1) und dort die Randbedingung:

g(x, y) = x2 fur (x, y) ∈ Rand des Quadrates.

Page 476: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 463

Angenommen, wir hatten uns im Einheitsquadrat eine Funktion u(x, y) einfallen las-sen, die auf dem Rand des Quadrates mit g(x, y) ubereinstimmt. Auf dem Teil dery–Achse, der zum Quadrat gehort, hatten wir dann

uxx(x, 0) = gxx(x, 0) = 2 fur x ∈ [0, 1].

Im Nullpunkt ware also

uxx(0, 0) = 2.

Genauso schnell rechnen wir auf dem Rand des Quadrates die zweite Ableitung nachy aus:

uyy(x, 0) = gyy(x, 0) = 0 fur x ∈ [0, 1].

Im Nullpunkt folgt hier

uyy(0, 0) = 0.

Damit folgt aber insgesamt

∆u(0, 0) = uxx(0, 0) + uyy(0, 0) = 2.

Die zweite Ableitung der uns da eingefallenen Funktion u(x, y) laßt sich also nichtstetig auf den Rand fortsetzen, in Kurzform drucken wir das so aus: u(x, y) ∈ C2(Ω).Haßlich, nicht?Die Wirklichkeit ist aber noch schlimmer. Wir zeigen am folgenden Beispiel, daß so-gar schon die erste Ableitung einer Losung einer speziellen Potentialgleichung mitDirichlet–Randbedingungen nicht beschrankt bleibt in dem betrachteten Gebiet.

Beispiel 12.13 Wir betrachten wieder die Po-tentialgleichung

∆u(x, y) = 0

in dem rechts abgebildeten L–formigen Gebiet.Der Nullpunkt des Koordinatensystems liegt da-bei in der einspringenden Ecke. Und genau dortwird unsere Losung eine nicht beschrankte ersteAbleitung besitzen.

x

y

1

1

Um das zu sehen, fuhren wir Polarkoordinaten ein durch

x = r cos ϕ, y = r sin ϕ

und betrachten die Funktion

u(r, ϕ) = r2/3 sin2ϕ− π

3.

Page 477: 3486584472_Mathem

464 12 Partielle Differentialgleichungen

Ihre Einschrankung auf den Rand des L-formigen Gebietes liefert uns die Randbedin-gung.Nun haben wir uns auf das Adventure der Polarkoordinaten eingelassen und mussendaher auch den Laplace–Operator in diesen Koordinaten angeben. Dazu schreiben wir

u(x, y) = u(x(r, ϕ), y(r, ϕ))

und bilden z. B. die Ableitung

∂u

∂r=

∂u

∂x

∂x

∂r+

∂u

∂y

∂y

∂r.

Das ist eine leichte Rechnerei; bis wir den Laplace–Operator erreicht haben, ist abersicher ein klein wenig Zeit vergangen. Als Ergebnis folgt

∆r,ϕu(x(r, ϕ), y(r, ϕ)) =∂2u

∂r2+

1r

∂u

∂r+

1r2

∂2u

∂ϕ2.

Nun zeigen wir zuerst, daß wir oben die als Randbedingung getarnte Funktion mitgroßem Bedacht gewahlt haben. Sie ist namlich unsere gesuchte Losungsfunktion.Dazu lassen wir den Laplace–Operator in Polarkoordinatenform auf sie los.

∆r,ϕ(r2/3 sin2ϕ− π

3) = sin

2ϕ − π

3

(−2

9r−4/3

)+

13

23

r−1/3 sin2ϕ− π

3

+1r2

r2/3(−49) sin

2ϕ− π

3

= sin2ϕ − π

3

(−2

9r−4/3 +

69r−4/3 +

(−4

9

))

= 0

Tatsachlich erfullt also unsere Funktion die Potentialgleichung. Na, und die Randbe-dingung war ja geradezu mit ihr vorgegeben. Also ist sie eine Losung unseres Problems.Bilden wir aber nun ihre erste partielle Ableitung nach r, so wird uns schummrig.

∂u

∂r=

23r−1/3 sin

2ϕ− π

3.

Wegen des Faktors r−1/3 geht die ganze Ableitung nach ∞, wenn wir uns dem Null-punkt, also der einspringenden Ecke nahern. Die erste partielle Ableitung dieser Losungbleibt also nicht beschrankt.Auch mit der Einzigkeit einer Losung haben wir so unser Problem. Denn betrachtenwir mal die ganze rechte Halbebene als Gebiet Ω. Und wahlen wir jetzt zur Vereinfa-chung homogene Randbedingungen. Dann ist, wie man sofort sieht, die Nullfunktioneine Losung unserer Randwertaufgabe. Aber es tut auch die folgende Funktion:

u(x, y) = x

Page 478: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 465

Die erfullt naturlich die Potentialgleichung, und auf dem Rand, der ja nur von dery–Achse gebildet wird, veschwindet sie auch. Um die Einzigkeit zu retten, mussenwir also geschickte Einschrankungen finden. Das Palaver tritt deshalb auf, weil unserGebiet nicht ringsherum mit einem Rand versehen war. Es war unbeschrankt. Wennwir aber ein beschranktes Gebiet zugrunde legen, sind wir auf der sicheren Seite.Zum Beweis der Einzigkeit fuhrt dann ein erstaunlicher Satz, der auch fur sich alleinschon eine große Bedeutung hat.

Satz 12.14 (Maximumprinzip) Sei Ω ⊆ R2 ein beschranktes Gebiet. Die Funkti-

on u ∈ C2(Ω) mit u ∈ C(Ω ∪ ∂Ω) sei Losung des obigen Dirichlet-Problems fur diePotentialgleichung. Dann nimmt u ihr Maximum (und ihr Minimum) auf dem RandΓ = ∂Ω an, d. h. es gilt fur jeden Punkt (x, y) ∈ Ω ∪ ∂Ω

u(x, y) ≤ M := max(ξ,η)∈Γ

u(ξ, η) (12.19)

Es ist doch wirklich verbluffend, was dieser Satz uns sagen will. Betrachten wir irgend-einen Punkt der Losungsfunktion im Innern des Gebietes Ω, so ist der Wert dort stetskleiner als der maximale Wert, den die Losung garantiert auf dem Rand annimmt.Diese Garantie des Satzes haben wir durch die Verwendung des Begriffs Maximumausgedruckt. Sonst hatten wir vom Supremum sprechen mussen.Zum Beweis dieses wunderschonen Satzes mussen wir den interessierten Leser auf dieSpezialliteratur verweisen.Eine Folgerung aus diesem Satz konnen wir aber beweisen.

Korollar 12.15 (Einzigkeit) Ist Ω ⊆ R2 ein beschranktes Gebiet, so hat das Diri-

chlet-Problem fur die Potentialgleichung hochstens eine Losung, die dann auch stabilist.

Beweis: Nehmen wir mal an, wir hatten mehr als eine Losung, also es seien u1(x, y)und u2(x, y) zwei Losungen. Wir werden zuerst zeigen, daß Stabilitat vorliegt, unddaraus dann die Einzigkeit herleiten.Nehmen wir also an, daß sowohl u1 als auch u2 die Randwerte nicht genau annehmen,sondern daß da jeweils eine kleine Storung eingebaut ist. Es sei also

u1(x, y) = g1(x, y) und u2(x, y) = g2(x, y) auf Γ.

Dabei sei weder g1 noch g2 gerade die vorgegebene Randfunktion g, aber sie seienbeide nicht weit entfernt von ihr. Wir nehmen also an, es sei

|g1(x, y) − g2(x, y)| ≤ ε auf ∂Ω.

Dann betrachten wir

u(x, y) := u1(x, y)− u2(x, y).

Diese Funktion u(x, y) ist dann naturlich Losung von folgendem Dirichlet-Problem:

Page 479: 3486584472_Mathem

466 12 Partielle Differentialgleichungen

∆u(x, y) = 0 in Ω ⊆ R2 (12.20)

u(x, y) = g1(x, y)− g2(x, y) auf Γ = ∂Ω; (12.21)

denn der ∆-Operator ist ja linear, also gilt ∆(u1 + u2) = ∆(u1) + ∆(u2).Nach dem Maximum-Prinzip gilt damit

u(x, y) ≤ max(ξ,η)∈Γ

u(ξ, η) = max(ξ,η)∈Γ

(u1(ξ, η) − u2(ξ, η)) = max(ξ,η)∈Γ

(g1(ξ, η) − g2(ξ, η)) ≤ ε.

Betrachten wir auch noch −u(x, y), so ist diese Funktion offensichtlich Losung desDirichlet–Problems

∆(−u(x, y)) = 0 in Ω ⊆ R2 (12.22)

u(x, y) = g2(x, y)− g1(x, y) auf Γ = ∂Ω. (12.23)

Wiederum nach dem Maximum-Prinzip folgt

−u(x, y) ≤ max(ξ,η)∈Γ

−u(x, y) = max(ξ,η)∈Γ

(u2(ξ, η) − u1(ξ, η)) = max(ξ,η)∈Γ

(g2(ξ, η)− g1(ξ, η))

≤ ε.

Damit haben wir insgesamt

|u(x, y)| ≤ ε in Ω,

und genau das ist unsere gesuchte Stabilitat.Nun zur Einzigkeit. Nehmen wir jetzt an, daß wir zwar zwei Losungen u1 und u2

haben, daß aber beide nicht gestort sind, daß also gilt

∆u1(x, y) = g1(x, y) = ∆u2(x, y) = g2(x, y) = g(x, y).

Dann folgt aus obiger Uberlegung:

|u(x, y)| = |u1(x, y)− u2(x, y)| ≤ 0,

und das gilt ja genau nur fur

|u(x, y)| = 0.

Das ist gleichbedeutend mit

u(x, y) = 0,

und hieraus folgt unmittelbar

u1(x, y) = u2(x, y) in Ω,

also unsere gesuchte Einzigkeit.

Page 480: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 467

Fur die Potentialgleichung haben wir also bei einem beschrankten Gebiet hochstenseine Losung. Wie sieht das ganze fur die nichthomogene Poissongleichung aus?Hier wird im allgemeinen das Maximumprinzip seine Gultigkeit verlieren. Aber wir ha-ben es ja mit einer linearen Differentialgleichung zu tun. Die Differenz zweier Losungenu1 und u2 der Poissongleichung ist dann also eine Losung der Potentialgleichung:

∆[u1(x, y)− u2(x, y)] = ∆u1(x, y)−∆u2(x, y) = f(x, y)− f(x, y) = 0,

und wir erhalten auch hier die gesuchte Einzigkeit:

Korollar 12.16 (Einzigkeit) Ist Ω ⊆ R2 ein beschranktes Gebiet, so hat das Diri-

chlet-Problem fur die Poissongleichung hochstens eine Losung, die dann auch stabilist.

Korrekt gestellt ist das Problem nun, wenn wir auch noch die Existenz einer Losungsicherstellen konnen. Das machen wir im folgenden Abschnitt ganz praktisch, indemwir die Losung konstruieren. Allerdings konnen wir das nur fur ein ziemlich einfa-ches Gebiet, namlich fur ein Rechteck. Fur allgemeinere Gebiete ist das schwierig, jamanchmal unmoglich. Hier hilft der Ubergang zur schwachen Losung im Rahmen derSobolev–Raume. Dieses Feld wollen wir aber der Mathematik uberlassen.

Separationsansatz nach Bernoulli

Wir starten mit einer ziemlich eingeschrankten Aufgabe, bei der wir die Losung ineinem Rechteck suchen und dabei auf drei Randern als Randbedingung Null vorge-ben. Aber so eingeschrankt ist das gar nicht. Naturlich, das Rechteck stellt schon eineBeschrankung dar, von der wir auch nicht wegkommen. Allgemeinere Gebiete zu be-handeln ist recht schwierig. Die Festlegung der Randbedingungen ist aber nicht sehreinschrankend. Wir kommen gleich im Anschluß an unsere Losungskonstruktion aufden allgemeinen Fall zu sprechen.

Spezielle Randvorgaben

Wir wollen eine Losung fur folgendes Dirichlet–Problem konstruieren.

Gesucht ist im Rechteck

R = (x, y) ∈ R2 : 0 < x < a, 0 < y < b

eine Losung des Randwertproblems 1. Art:

∆u(x, y) = 0 in R

u(x, 0) = 0, u(x, b) = 0,u(0, y) = 0, u(a, y) = f(y)

Zunachst eine harmlos erscheinende Bemerkung, die sich spater als ausgesprochenwichtig erweisen wird. In der Praxis wird man uns vielleicht eine solche Aufgabe mit

Page 481: 3486584472_Mathem

468 12 Partielle Differentialgleichungen

einem Rechteck vorlegen, aber nichts uber das Koordinatensystem sagen. Es ist unsereFreiheit, die linke untere Ecke des Rechtecks als Koordinatenursprung zu wahlen.Zunachst betrachten wir eine Teilaufgabe:

∆u = 0 mit u(x, 0) = u(x, b) = u(0, y) = 0,

wir ubergehen also die vierte (nichthomogene) Randbedingung.Der Ansatz von Bernoulli lautet nun:

u(x, y) = X(x) · Y (y). (12.24)

Hier sind also X(x) und Y (y) jeweils gesuchte Funktionen von nur einer Veranderli-chen.Um diesen Ansatz in der partielle Differentialgleichung verwenden zu konnen, mussenwir jeweils die zweite partielle Ableitung bilden. Wir schreiben sie ausfuhrlich, umVerwechslungen zu vermeiden.

∂2u

∂x2=

d2X

dx2· Y (y)

∂2u

∂y2= X(x) · d2Y

dy2

Damit geht die Differentialgleichung uber in

d2X

dx2· Y (y) + X(x) · d2Y

dy2= 0.

Zur Erleichterung der Schreibweise und zur besseren Ubersichtlichkeit schreiben wir

X ′′(x) :=d2X

dx2

Y ′′(y) :=d2Y

dy2

Die Striche bedeuten also die Ableitung nach der jeweiligen Variablen, die wir immerdazu schreiben. Zusatzlich dividieren wir durch X(x) · Y (y) und erhalten

X ′′(x)X(x)

+Y ′′(y)Y (y)

= 0 ⇐⇒ Y ′′(y)Y (y)

= −X ′′(x)X(x)

Nun kommt die Uberlegung von Herrn Bernoulli, weswegen er seinen Ansatz uber-haupt gewahlt hat. In der rechten Gleichung stehen linker Hand nur Funktionen derVariablen y, rechter Hand aber nur solche von x. Wenn hier fur alle Variablen stetsGleichheit herrschen soll, so ist das nur moglich, wenn weder die linke Seite von ynoch die rechte Seite von x abhangt, sondern beide Seiten konstant sind. Wegen derGleichheit ist es dann naturlich dieselbe Konstante, d. h. wir erhalten

Y ′′(y)Y (y)

= −X ′′(x)X(x)

= −λ

Page 482: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 469

mit einer Konstanten λ ∈ R. (Das Minuszeichen haben wir nur wegen der besserenUbersichtlichkeit in den folgenden Uberlegungen eingefugt.)Damit konnen wir diese rechte Gleichung in zwei Gleichungen aufspalten:

Y ′′(y)Y (y)

= −λ, −X ′′(x)X(x)

= −λ.

Eine kleine Umformung zeigt, wes Geistes Kind diese Gleichungen sind:

Y ′′(y) + λY (y) = 0, X ′′(x)− λX(x) = 0.

Das sind also zwei gewohnliche Differentialgleichungen, die erste in der Variablen y,die zweite in der Variablen x. Ein toller Trick! Genau auf die gleiche Weise lassen sichauch die Randbedingungen behandeln. Setzen wir unseren Ansatz ein, so folgt:

u(x, 0) = X(x) · Y (0) = 0 = X(x) · Y (b) = X(0) · Y (y).

Wir konnen davon ausgehen, daß weder X ≡ 0 noch Y ≡ 0 ist, weil sonst die Losungu(x, y) ≡ 0 ware. Wie soll da aber die nichthomogene vierte Randbedingung erfulltwerden? Daher konnen diese Gleichungen nur erfullt werden, wenn die festen Faktorenverschwinden, also:

Y (0) = Y (b) = X(0) = 0.

Damit konnen wir zwei gewohnliche Randwertaufgaben behandeln:

(a) Y ′′(y) + λY (y) = 0 mit Y (0) = Y (b) = 0,(b) X ′′(x)− λX(x) = 0 mit X(0) = 0.

Die Aufgabe (a) ist vollstandig. Es ist eine DGl 2-ter Ordnung mit zwei Randbedingun-gen. Die Aufgabe (b) ist ebenfalls zweiter Ordnung, hat aber nur eine Randbedingung.Hier erhalten wir also noch die notige Freiheit, die vierte Randbedingung einzubauen.

zu (a) Es handelt sich um eine lineare homogene Differentialgleichung zweiter Ordnungmit konstanten Koeffizienten. Die charakteristische Gleichung lautet:

κ2 + λ = 0.

Jetzt treffen wir eine Fallunterscheidung.

Fall 0: λ = 0 fuhrt wegen der Randbedingungen nur zur trivialen und damit un-interessanten Losung; denn fur sie ist die vierte Randbedingung nicht erfullbar.

Fall 1: Sei λ < 0.

Dann lautet die allgemeine Losung:

Y (y) = c1e√−λy + c2e

−√−λy,

Page 483: 3486584472_Mathem

470 12 Partielle Differentialgleichungen

und die Randbedingungen fuhren zu den beiden Gleichungen:

c1 + c2 = 0c1(e

√−λb − e−√−λb) = 0

Nach unserer Wahl von λ und b ist√−λ · b > 0, also ist e

√−λ·b = e−√−λ·b. Also

folgt:

c1 = c2 = 0,

und es ergibt sich wiederum nur die triviale Losung, die wir ja nicht gebrauchenkonnen.

Fall 2: Sei λ > 0.

Hier lautet die allgemeine Losung:

Y (y) = c1 cos(√

λy) + c2 sin(√

λy).

Die Randbedingungen fuhren zu den zwei Gleichungen:

c1 = 0, c2 sin(√

λb) = 0.

Endlich gelingt es uns, fur gewisse Werte des Parameters λ auch eine nichttrivialeLosung dingfest zu machen:

√λ =

b⇔ λ = λn =

n2π2

b2, n ∈ N.

Damit erhalten wir also fur jedes n ∈ N eine Losung:

Y (y) = Yn(y) = cn · sin(nπ

by).

zu (b) Fur die Losung dieser Gleichung nutzen wir unser eben erworbenes Wissen aus,indem wir λ = λn einsetzen. Die Differentialgleichung lautet:

X ′′ − n2π2

b2X = 0.

Die charakteristische Gleichung fuhrt zu:

κ = ±nπ

b⇒ X(x) = c1e

nπb

x + c2e−nπ

bx.

Die einzige Randbedingung ergibt: c1 = −c2 und damit die allgemeine Losung:

X(x) = c(e

nπb

x − e−nπb

x)

= c · sinh(nπ

bx).

Page 484: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 471

So lautet also die Gesamtlosung unserer Teilaufgabe:

u(x, y) = un(x, y) = cn sinh(nπ

bx) · sin(

by), n ∈ N,

das heißt also, fur jedes n = 1, 2, 3, . . . haben wir eine Losung.Nun konnen wir uns daranmachen, auch noch die letzte Randbedingung anzupassen.Dies geschieht mit einem, fast mochte man sagen, ’hinterfotzigen‘ Trick. Wir wahlennicht eine dieser unendlich vielen Losungen, da hatten wir vermutlich mit der viertenRandbedingung kein Gluck. Nein, wir nehmen sie alle in unseren Ansatz rein, indemwir eine unendliche Reihe aus ihnen bilden:

Ansatz: u(x, y) =∞∑

n=1

cn sinhnπx

b· sin nπy

b.

Dadurch haben wir jetzt unendlich viele Konstanten zur Anpassung zur Verfugung.Der Trick ist aber noch ubler. Die vierte Randbedingung fuhrt zu der Gleichung:

u(a, y) =∞∑

n=1

cn sinhnπa

b· sin nπy

b= f(y).

Dies sieht doch genau so aus wie eine Fourierentwicklung der Funktion f(y) nachreinen sin–Termen. Damit das moglich ist, mußte demnach f eine ungerade Funktionsein. Ja, aber f ist doch nur auf dem Intervall [0, b] interessant, weil wir uns die Freiheitgenommen haben, unser Rechteck in den ersten Quadranten zu legen. Wie wir nun dieFunktion in diesem Fall nach unten fortsetzen, ob beliebig oder gerade oder eben auchungerade, ist ganz und gar unser Bier. Wer will uns daran hindern, f also als ungeradeFunktion aufzufassen und damit eine Fourierentwicklung nach obigem Muster fur fzu erreichen?Genial, nicht?Dieser Trick wird in der Literatur als kleiner Satz zusammengefaßt:

Satz 12.17 (Existenz einer Fourier–Entwicklung) Sei mit f auch noch f ′ auf[0, l] stuckweise stetig. Dann besitzt f , je nachdem, ob wir f nach links gerade oderungerade fortsetzen, eine Fourierentwicklung der Form:

f(x) ∼ a0

2+

∞∑n=1

an cosnπx

lmit an =

2l

∫ l

0f(x) cos

nπx

ldx

n = 0, 1, 2 . . .

f(x) ∼∞∑

n=1

bn sinnπx

lmit bn =

2l

∫ l

0f(x) sin

nπx

ldx

n = 1, 2 . . .

Damit wahlen wir also unsere Koeffizienten im Losungsansatz wie folgt:

cn =2

b · sinh(nπa/b)

∫ b

0f(y) sin

nπy

bdy, n = 1, 2, . . . ,

und unsere Aufgabe ist vollstandig gelost.

Page 485: 3486584472_Mathem

472 12 Partielle Differentialgleichungen

Beliebige Randvorgaben

In der im vorigen Unterabschnitt behandelten Aufgabe war lediglich auf einem Rand-abschnitt des betrachteten Rechtecks die Randvorgabe ungleich Null. Was nun, wennauf mehreren Randern oder gar auf allen die Randbedingungen nicht homogen sind?Das bringt uns uberhaupt nicht aus der Ruhe, denn schließlich ist das ganze ja ei-ne lineare Aufgabe, also gilt ein Superpositionssatz, die Losungen lassen sich linearkombinieren. Wenn wir also die Randvorgaben

u(x, 0) = h(x), u(x, b) = k(x), 0 ≤ x ≤ a,

u(0, y) = f(y), u(a, y) = g(y), 0 ≤ y ≤ b,

haben, so betrachten wir vier Teilaufgaben.

Teilaufgabe I: Teilaufgabe II:

∆u(x, y) = 0 in Ru(x, 0) = 0, u(x, b) = 0,u(0, y) = f(y), u(a, y) = 0

∆u(x, y) = 0 in Ru(x, 0) = 0, u(x, b) = 0,u(0, y) = 0, u(a, y) = g(y)

Teilaufgabe III: Teilaufgabe IV:

∆u(x, y) = 0 in Ru(x, 0) = h(x), u(x, b) = 0,u(0, y) = 0, u(a, y) = 0

∆u(x, y) = 0 in Ru(x, 0) = 0, u(x, b) = k(x),u(0, y) = 0, u(a, y) = 0

Jede dieser Teilaufgaben ist nach obigem Muster vollstandig zu losen. Wir erhalten dieTeillosungen uI(x, y), uII(x, y), uIII(x, y) und uIV (x, y), aus denen wir dann unsereGesamtlosung additiv zusammenbauen:

u(x, y) := uI(x, y) + uII(x, y) + uIII(x, y) + uIV (x, y)

Diese Funktion genugt der Differentialgleichung wegen der Linearitat. Sie erfullt aberauch samtliche Randbedingungen, da ja nur eine der beteiligten Teillosungen einenBeitrag auf dem jeweiligen Randstuck liefert.

12.2.2 Neumannsche Randwertaufgabe

Wir schildern noch einmal kurz die Aufgabe.

Definition 12.18 Die Aufgabe

∆u(x, y) = 0 in Ω ⊆ R2 (12.25)

∂u(x, y)∂n

= f(x, y) auf Γ = ∂Ω (12.26)

heißt Randwertproblem 2. Art oder Neumannsche Randwertaufgabe.

Page 486: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 473

Bei diesem Problem sind also auf dem Rand die Normalableitungen der gesuchtenLosungsfunktion vorgegeben. Das laßt uns naturlich sofort aufhorchen. Wie, wenn wireine Losung gefunden hatten und eine Konstante hinzuaddierten? Die Differential-gleichung merkt das gar nicht. Beim zweimaligen Differenzieren verschwindet dieseKonstante. Beim Dirichlet-Problem hatte man dann aber Schwierigkeiten bei denRandvorgaben bekommen. Hier gerade nicht; denn auch hier wird ja differenziert,also fallt eine additive Konstante weg. Das macht naturlich einen Strich durch dieEinzigkeitsuberlegung. Die Neumannsche Randwertaufgabe hat also nicht hochstenseine Losung, sondern wenn uberhaupt, dann unendlich viele.

Satz 12.19 Ist u(x, y) eine Losung der Neumannschen Randwertaufgabe, so ist furjede beliebige Konstante K auch u(x, y) + K eine Losung.

Gespannt darf man sein, wie sich diese Verletzung der Einzigkeit bei der Konstrukti-on einer Losung bemerkbar macht. Wir werden an der entsprechenden Stelle daraufhinweisen.

Separationsansatz nach Bernoulli

Wir betrachten wieder nur eine recht eingeschrankte Aufgabe auf einem Rechteck

R = (x, y) ∈ R2 : 0 < x < a, 0 < y < b.

Gesucht wird eine Losung der Aufgabe

∆u(x, y) = 0 in R

∂u(x, 0)∂y

= 0,∂u(x, b)

∂y= 0,

∂u(0, y)∂x

= 0,∂u(a, y)

∂x= f(y)

So wie bei Herrn Dirichlet wollen wir zunachst nur eine Teilaufgabe betrachten, indemwir die vierte nichthomogene Randbedingung hintanstellen. Sie muß aber nicht traurigsein, sie kommt auch schon noch dran. Unser Vorgehen wird von dem gleichen funda-mentalen Trick des Herrn Bernoulli wie beim Dirichlet–Problem beherrscht. Wiederverwenden wir den Produktansatz

u(x, y) = X(x) · Y (y).

Und genau so wie oben zerfallt auch hier unsere partielle Differentialgleichung in zweigewohnliche Differentialgleichungen, und auch die drei Randbedingungen teilen sichentsprechend:

Y ′′(y) + λ · Y (y) = 0, Y ′(0) = Y ′(b) = 0 (12.27)X ′′(x)− λ ·X(x) = 0, X ′(0) = 0 (12.28)

Page 487: 3486584472_Mathem

474 12 Partielle Differentialgleichungen

Fur die erste Gleichung (12.27) erkennen wir, daß nichttriviale Losungen nur fur spe-zielle Werte von λ existieren, namlich fur

λn =n2π2

b2, n = 0, 1, 2, . . .

Fur diese Werte lautet unsere Losung

Yn(y) = cosnπy

b, n = 0, 1, 2, . . .

Mit diesen λ–Werten konnen wir die zweite Differentialgleichung (12.28) losen underhalten

Xn(x) = coshnπx

b, n = 0, 1, 2, . . .

Aus beiden Teilen bilden wir durch Multiplikation die allgemeine Losung fur unsereerste Teilaufgabe mit den drei homogenen Randbedingungen.

un(x, y) = coshnπx

b· cos nπy

b, n = 0, 1, 2, . . .

Wir betonen noch einmal, daß wir so fur jede naturliche Zahl n ≥ 0 eine Losunggefunden haben; wir haben also unendlich viele Losungen. Das ist die entscheidendeHilfe fur die vierte Randbedingung

ux(a, y) = f(y).

Fur sie bilden wir namlich jetzt einen Ansatz, in den wir alle diese unendlich vielenLosungen einbauen. Nur dadurch erhalten wir eine reelle Chance, unsere Aufgabe losenzu konnen:

u(x, y) =∞∑

n=0

an coshnπx

b· cos nπy

b. (12.29)

Bilden wir also flugs die partielle Ableitung dieser Funktion nach x, wie es die vierteRandbedingung verlangt:

ux(a, y) =∞∑

n=1

ban · sinh

nπa

b· cos nπy

b= f(y).

Eigentlich ist diese Formel ganz schon aufregend, man muß sie aber genau betrachten.Die Summation beginnt hier bei n = 1, wahrend wir sie in (12.29) bei n = 0 beginnenlassen. Fur n = 0 entstand aber eine schlichte additive Konstante a0, die nun beimDifferenzieren wegfallt. Wir konnen also a0 willkurlich vorgeben. Das entspricht dochexakt unserer Beobachtung oben, daß die Losung nur bis auf eine Konstante festgelegtist. Prima, wie das zusammenpaßt, gell?Der Rest ist immer noch eine unendliche Reihe, in der aber, versehen mit der Variableny, nur cos–Terme auftreten. Damit wir also unsere vierte Randbedingung befriedigenkonnen, muß unsere Vorgabefunktion f(y) in eine Fourierreihe nur aus cos–Termenund dann noch ohne konstantes Glied entwickelbar sein. Das fuhrt uns zu zwei Fest-stellungen.

Page 488: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 475

1. Die in der vierten Randbedingung vorgegebene Funktion muß eine gerade Funk-tion sein, sie muß sich also in eine Fourierreihe mit ausschließlich cos-Termenentwickeln lassen. Das erreichen wir so wie bei Dirichlet, indem wir unsere weiseVoraussicht beachten, daß wir das Koordinatensystem in die linke untere Eckedes Rechtecks gelegt haben. So interessiert uns die Funktion nur in dem Inter-vall [0, b] oberhalb der y–Achse. Also konnen wir sie auf dem gesamten Restwillkurlich festsetzen. Wir wahlen sie dort so, daß sie eine gerade Funktion wirdund auch noch periodisch mit der Periode b ist. Denn dann hat sie eben einesolche Fourierreihe.

2. Das konstante Glied in dieser Reihe muß verschwinden, es muß also gelten, wennwir bedenken, wie sich die Fourierkoeffizienten berechnen lassen:

a0 = 0, und das gilt genau fur∫ b

0f(y) dy = 0. (12.30)

Dies ist also eine notwendige Bedingung zur Losbarkeit der NeumannschenRandwertaufgabe.

Dies alles wohlbedenkend, erhalten wir fur die Koeffizienten in (12.29):

a0 beliebig wahlbar

an =2

nπ sinh nπab

∫ b

0f(y) cos

nπy

bdy, n = 1, 2, 3, . . .

Damit ist unsere Losung des Problems bestimmt, und zwar in gutem Einklang mitunserer Uberlegung oben die Einzigkeit betreffend.

12.2.3 Numerische Losung mit dem Differenzenverfahren

Der gerade hinter uns gebrachte theoretische Teil hilft in praktischen Fallen abernur sehr bedingt. Schon wenn das Gebiet nicht mehr rechteckig ist, haben wir großeSchwierigkeiten. Die Aufgaben, die heute in der Praxis angefaßt werden mussen, sindda in der Regel von einem erheblich hoheren Schwierigkeitsgrad. Da wird in seltenstenFallen eine exakte Losung zu bestimmen sein. Hier setzt die numerische Mathematikein. Wir wollen nun erklaren, wie wir uns wenigstens ungefahr eine Losung verschaf-fen konnen. Am Schluß dieses Abschnitts werden wir dann sogar einige Aussagenzusammenstellen, die etwas uber die Genauigkeit unseres nun zu erklarenden Nahe-rungsverfahrens sagen werden.Wir verallgemeinern den Grundgedanken der Differenzenverfahren von den gewohn-lichen Randwertaufgaben auf die partiellen Differentialgleichungen. Dieser Grundge-danke lautet:

Wir ersetzen die in der Differentialgleichung und den Randbedingungenauftretenden Differentialquotienten durch Differenzenquotienten.

Page 489: 3486584472_Mathem

476 12 Partielle Differentialgleichungen

Dazu wiederholen wir die Darstellung der Differenzenquotienten aus dem Kapitel ’Nu-merik von Randwertaufgaben’ von Seite 405.

Differenzenquotienten

y ′(xi) ≈ y(xi+1)− y(xi)h

vorderer Diff.-Quot.

y ′(xi) ≈ y(xi+1)− y(xi−1)2h

zentraler Diff.-Quot.

y ′(xi) ≈ y(xi)− y(xi−1)h

hinterer Diffquot.

y ′′(xi) ≈ y(xi+1)− 2y(xi) + y(xi−1)h2

zentraler Diff.-Quot.

y ′′′(xi) ≈ y(xi+2)− 2y(xi+1) + 2y(xi−1)− y(xi−2)2h3

zentraler Diff.-Quot.

Wir starten wieder mit der einfachen Aufgabe, die wir auch fur Herrn Bernoulligewahlt haben, um leicht die Ubersicht behalten zu konnen.

Gesucht ist im Rechteck

R = (x, y) ∈ R2 : 0 < x < a, 0 < y < b

eine Losung des Randwertproblems 1. Art:

∆u(x, y) = 0 in R

u(x, 0) = 0, u(x, b) = 0,u(0, y) = 0, u(a, y) = g(y)

In den spateren Beispielen werden wir dann darauf eingehen, wie man sich bei kom-plizierteren Gebieten verhalt. Zuerst betrachten wir den Laplace–Operator im R

2:

∆u(x, y) :=∂2u(x, y)

∂x2+

∂2u(x, y)∂y2

.

Hier sind zwei partielle Ableitungen durch Differenzenquotienten zu ersetzen. So wieim R

1 beginnen wir mit einer Diskretisierung des zugrunde liegenden Gebietes. Dadie beiden partiellen Ableitungen in Richtung der Koordinatenachsen zu bilden sind,werden wir ein Gitter einfuhren, indem wir das Gebiet mit Linien, die parallel zu denAchsen laufen, uberziehen. Dabei wahlen wir einen festen Abstand h > 0 fur dieseParallelen in x–Richtung und einen festen Abstand k > 0 in y–Richtung. Wir starten

Page 490: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 477

mit einem x0, das uns in der Regel durch die Randbedingungen (hier x0 = 0) gegebenist, und setzen dann xi := x0 + h · i fur i = 1, . . . , n. Wenn wir xn wieder durch dieRandbedingung festlegen wollen (hier xn = a), schrankt uns das in der Wahl des hetwas ein. Man wird dann h := a/n setzen. Analog geht das auf der y–Achse undliefert uns die Stutzstellen y0,. . . ,ym. Durch diese Punkte ziehen wir die Parallelen.Die Schnittpunkte sind dann unsere Knoten, die wir (xi, yj) nennen wollen. In diesenKnoten suchen wir nun Naherungswerte fur die Losung unserer Randwertaufgabe.Entsprechend der Knotennumerierung nennen wir diese Werte ui,j ≈ u(xi, yj).

Knotennummerierung

Setze x0 := 0, wahle h = a/n und xi = x0 + h · i fur i = 1, . . . , n, (12.31)setze y0 := 0, wahle k = b/m und yj = y0 + k · j fur j = 1, . . . ,m (12.32)

Zur Ersetzung der partiellen Ableitungen im Laplace–Operator verwenden wir denzentralen Differenzenquotienten in x–Richtung und in y–Richtung und erhalten:

∂2u(xi, yj)∂x2

+∂2u(xi, yj)

∂y2≈ ui−1,j − 2ui,j + ui+1,j + ui,j−1 − 2ui,j + ui,j+1

h2

=ui−1,j + ui,j−1 − 4ui,j + ui+1,j + ui,j+1

h2

Die letzte Formel signalisiert uns,daß wir den zentralen Knotenwertui,j, diesen mit dem Faktor −4,und die unmittelbaren Nachbarwer-te, und zwar den linken, den rech-ten, den oberen und den unteren,verwenden mussen, diese jeweils mitdem Faktor 1. Rechts haben wir densogenannten ”Funf–Punkte–Stern“abgebildet. Seine Bedeutung ist ausdem oben Gesagten unmittelbarklar, wird aber in den Beispielennoch hervorgehoben. Die Faktoren−4 und 1 werden in diesem Zusam-menhang auch Gewichte genannt.

−4 11

1

1

Das folgende Beispiel soll die Anwendung dieses Verfahrens verdeutlichen. Gleichzeitigwollen wir zeigen, welche Auswirkungen allein schon die Wahl der Knotennumerierunghat.

Page 491: 3486584472_Mathem

478 12 Partielle Differentialgleichungen

Beispiel 12.20 Fur das Gebiet

Ω = (x, y) : x ≥ 0, y ≥ 0, 1 < x + y < 2.5sei die folgende Randwertaufgabe gestellt:

∆u(x, y) = 0 in Ω, u(x, y) = 0 fur x + y = 2.5u(x, y) = 0 fur x > 1, y = 0u(x, y) = 0 fur x = 0, y > 1u(x, y) = 1 fur x + y = 1

Wir losen diese Aufgabe naherungsweise, indem wir mit der Schrittweite h = 0.5 nachdem Differenzenverfahren (5–Punkte–Stern) fur verschiedene Knotennummerierungendas zugehorige lineare Gleichungssystem aufstellen. Bei geschicktem Vorgehen werdenwir ein Tridiagonalsystem entwickeln konnen.

In der Abbildung rechts haben wirdas trapezformige Gebiet Ω, das sichdurch die Randbedingungen ergibt,angedeutet. Im ersten Quadrantenhaben wir ein Gitternetz angebrachtmit dem Gitterabstand h = 0.5. Diedicken Punkte auf dem Rand desGebietes sind die Gitterpunkte, diedurch dieses Netz auf der Randkur-ve liegen. Dort sind durch die Rand-bedingung die Werte der gesuchtenFunktion gegeben, und zwar auf derParallelen zur zweiten Winkelhal-bierenden, die naher am Ursprungliegt, jeweils der Wert 1, in allen an-deren Randpunkten der Wert 0. ImInnern liegen funf Punkte des Git-ternetzes, die wir durch hohle Krei-se bezeichnet haben. Dort werdenNaherungswerte fur unsere Losungder Randwertaufgabe gesucht. Wirwollen diese gesuchten Werte mitu1, . . . , u5 bezeichnen.

21

1

2

3

1 4

2 5

Da erhebt sich die Frage, in welcher Reihenfolge wir diese Punkte numerieren wollen.In der Spezialliteratur zu Differenzenverfahren wird ein Vorgehen in Schragzeilen,das sind Parallelen zur zweiten Winkelhalbierenden, bevorzugt. Diese Numerierunghaben wir in der Skizze durch die Zahlen rechts unterhalb der eingekreisten Punkteangedeutet. Dort sind nun fur unsere Losung der Randwertaufgabe Naherungswerteu1, . . . , u5 gesucht.

Page 492: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 479

Rechts haben wir unseren gelieb-ten 5–Punkte–Stern in die Skizzedes Gebietes so eingefugt, daß seinZentrum auf dem Punkt mit derNummer 1 liegt. Der dort gesuch-te Naherungswert u1 erhalt also dasGewicht −4. Zwei der vier auße-ren Punkte des Sterns liegen aufdem Rand, und zwar in Punkten,in denen uns die Randbedingungenjeweils den Wert 1 vorgeben. Diebeiden anderen Punkte liegen beimKnoten mit der Nummer 3 bzw.der Nummer 4. Die dort gesuchtenNaherungswerte u3 bzw. u4 erhal-ten also jeweils das Gewicht 1. Soerhalten wir insgesamt die erste Er-satzgleichung fur unsere Randwert-aufgabe:

21

1

2

3

1 4

2 5

−4 · u1 + 0 · u2 + 1 · u3 + 1 · u4 + 0 · u5 + 1 + 1 = 0 · h2 = 0

Diese leicht gefundene Gleichung stimmt uns freudig, und wir fahren frohgemut fort.

In der Skizze rechts haben wir un-seren Stern auf den Punkt mit derNummer 2 gelegt. Ganz analog wieoben bekommt jetzt also der Nahe-rungswert u2 im Punkt 2 das Ge-wicht −4. Wieder liegen zwei deraußeren Punkt auf dem Rand, unddort ist jeweils als Wert 1 vorgege-ben. Die Unbekannten u4 und u5

erhalten das Gewicht 1. Insgesamtentsteht so unsere zweite Gleichung

21

1

2

3

1 4

2 5

0 · u1 + (−4) · u2 + 0 · u3 + 1 · u4 + 1 · u5 + 1 + 1 = 0 · h2 = 0.

Wir schreiben jetzt nur noch mal zur letzten Klarheit die Gleichung auf, wenn wir denStern auf den Punkt 3 legen:

1 · u1 + 0 · u2 + (−4) · u3 + 0 · u4 + 0 · u5 + 0 + 0 = 0 · h2 = 0

Page 493: 3486584472_Mathem

480 12 Partielle Differentialgleichungen

Insgesamt fuhrt das auf das System:

⎛⎜⎜⎜⎜⎝

−4 0 1 1 00 −4 0 1 11 0 −4 0 01 1 0 −4 00 1 0 0 −4

⎞⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎝

u1

u2

u3

u4

u5

⎞⎟⎟⎟⎟⎠ =

⎛⎜⎜⎜⎜⎝

−2−2

000

⎞⎟⎟⎟⎟⎠

Dies ist, wie man sieht, kein Tridiagonalsystem. Es hat zwar Bandstruktur, aber wirmußten ihm richtigerweise eine Bandbreite von 7 zuordnen; denn jeweils drei Paral-lelen rechts und links der Hauptdiagonalen6 enthalten noch Eintrage ungleich Null.Allerdings bestehen die benachbarten Parallelen nur aus Nullen. Das riecht nach eineranderen Moglichkeit.

Und in der Tat, wenn wir eineNummerierung von links oben nachrechts unten anwenden, so wie esrechts in der Abbildung die Zah-len links oberhalb der eingekreistenPunkte angeben, ergibt sich ein Tri-diagonalsystem. Wir haben hier nurdie Position des 5–Punkte–Sternsfur den Punkt 1 gezeigt und sparenuns auch die detaillierte Aufstellungder Gleichungen.

21

1

2

1

2 3

4 5

Das zugehorige lineare Gleichungssystem lautet:

⎛⎜⎜⎜⎜⎝

−4 1 0 0 01 −4 1 0 00 1 −4 1 00 0 1 −4 10 0 0 1 −4

⎞⎟⎟⎟⎟⎠

⎛⎜⎜⎜⎜⎝

u1

u2

u3

u4

u5

⎞⎟⎟⎟⎟⎠ =

⎛⎜⎜⎜⎜⎝

0−2

0−2

0

⎞⎟⎟⎟⎟⎠

Es ist eine Kleinigkeit, dieses 5× 5–System durch Gauß–Elimination zu losen. Einzel-heiten dazu findet man im Kapitel ’Lineare Gleichungssysteme‘ S. 9. Wir schreiben

6In einem ’Lexikon der Mathematik’ – wir verschweigen der Hoflichkeit wegen den Verlag undden Autor – wird definiert, was eine Hauptdiagonale ist: die langere Diagonale im Rechteck. DieseDefinition ist in doppelter Hinsicht erstaunlich; denn erstens ist es nicht die Begriffsbildung der Mathe-matiker, die sprechen eigentlich nur bei quadratischen Matrizen von Hauptdiagonalen; und zweitensist es herrlicher Unsinn, denn jedes Schulkind erkennt beim Papierfalterbau, daß die Diagonalen imRechteck gleich lang sind!

Page 494: 3486584472_Mathem

12.2 Die Poissongleichung und die Potentialgleichung 481

nur das Endergebnis auf.

y1 = 0.153846,y2 = 0.615385,y3 = 0.307692,y4 = 0.615385,y5 = 0.153846.

Man erkennt eine Symmetrie der Werte, die ja aus der Symmetrie des Gebietes undder Randbedingungen erklarlich ist.

Zur Konvergenz

Hier wollen wir nur einen der wichtigsten Satze zitieren, aus dem wir interessantes furdas Differenzenverfahren ablesen konnen.

Satz 12.21 (Konvergenz) Die Losung der Poisson–Gleichung u(x, y) sei in C4(Ω).Dann konvergiert die nach der Differenzenmethode mit dem Funf–Punkte–Stern er-mittelte Naherungslosung uh(x, y) quadratisch fur h → 0 gegen u(x, y); genauer gilt:

‖u− uh‖∞ ≤ h2

48· ‖u‖C4(Ω). (12.33)

Die Voraussetzung u ∈ C4(Ω) bedeutet dabei, daß die vierte Ableitung der Losungs-funktion noch stetig sein mochte und, das ist die Bedeutung des Querstriches uber Ω,stetig auf den Rand fortsetzbar ist. Klar, diese Voraussetzung mußten wir ja schon beider Herleitung des Differenzenquotienten einhalten. Und damals haben wir sie auchschon als zu hart angesehen, was noch klarer wird, wenn wir uns an das Beispiel 12.12,S. 462 erinnern, wo schon die zweite Ableitung trouble hatte zu existieren, wer denktda noch an die vierte Ableitung?Man kann die Voraussetzung u ∈ C4(Ω) etwas abschwachen. Es reicht schon, wenn u ∈C3(Ω) ist und die dritte Ableitung noch Lipschitz–stetig ist. Aber das sind Feinheiten,die wir nicht weiter erlautern wollen. Der interessierte Leser mag in der Fachliteraturnachlesen.Die Aussage, daß wir fur eine genugend glatte Losung quadratische Konvergenz ha-ben, ist dann naturlich schon und interessant, aber bei solch harten Vorgaben nichtgerade erstaunlich. Wer soviel reinsteckt, kann ja wohl auch viel erwarten. Diese Kri-tik muß sich das Differenzenverfahren gefallen lassen, denn die Ingenieure waren es,die bereits in den funfziger Jahren des vorigen Jahrhunderts ein anderes Verfahrenentwickelt haben, namlich die Methode der Finiten Elemente. Unter weit schwacherenVoraussetzungen – fur die Poissongleichung reicht es aus, wenn die Losung u(x, y)nur einmal im schwachen Sinn differenzierbar ist (u(x, y) ∈ H1(Ω)) – kann dort eben-falls quadratische Konvergenz nachgewiesen werden. Leider mussen wir dazu auf dieSpezialliteratur, die zu diesem Thema sehr umfangreich vorliegt, verweisen.

Page 495: 3486584472_Mathem

482 12 Partielle Differentialgleichungen

12.3 Die Warmeleitungsgleichung

12.3.1 Einzigkeit und Stabilitat

Hier geht es um die Frage, wie sich Warme in einem festen Medium ausbreitet. DieKonvektion und die Warmestrahlung wollen wir nicht betrachten. Nehmen wir einenStab und heizen ihn an einem Ende auf. Dann fragt man sich, wie die Warme in demStab weiterwandert. Die Natur gehorcht dabei einem sehr einfachen Gesetz.

Warme stromt immer vom warmen Gebiet zum kalten, und zwar um soschneller, je hoher die Temperaturdifferenz ist.

Das laßt sich mathematisch folgendermaßen ausdrucken. Wir betrachten die Warme-stromdichte j. Da die Temperatur stark vom Ort abhangig ist, wird die Temperatur-differenz durch den Gradienten beschrieben. Obiges Gesetz bedeutet dann:

j = −λ · grad T (12.34)

Dabei ist λ eine Stoffkonstante, die Warmeleitfahigkeit. Das negative Vorzeichen be-deutet, daß die Stromung in Richtung abnehmender Temperatur erfolgt.Wenn wir jetzt ein festes Volumenstuck betrachten, so kann Warme dort hinein– oderauch hinausstromen. Dieser Vorgang wird durch die Divergenz divj der Warmestrom-dichte j beschrieben, und es ist:

dT

dt= − 1

· c divj (12.35)

Hierin sind und c weitere Materialkonstanten, die uns nicht weiter interessieren, dawir weiter unten alle Konstanten in einer gemeinsamen neuen Konstanten zusammenfassen.Aus (12.34) und (12.35) erhalten wir die allgemeine Warmeleitungsgleichung:

dT

dt=

λ

· cdiv grad T =λ

· c∆T (12.36)

Nun fugen wir weitere Vorgaben hinzu. Der Stab hat ja zu Beginn bereits eine Tempe-ratur. Vielleicht wollen wir ihn in gewissen Teilen auf konstanter Temperatur halten.Dann soll er vielleicht an einem Ende dauernd beheizt werden, wir werden also Warmemit einem Brenner oder ahnlichem Werkzeug hinzufugen. Alles dies zusammen nennenwir die Anfangs– und die Randbedingungen. Unsere allgemeine Aufgabe lautet nun:

Definition 12.22 Unter dem Anfangs–Randwert–Problem der Warmeleitung verste-hen wir folgende Aufgabe:Gegeben sei ein Gebiet G ⊆ R

3, dessen Rand ∂G hinreichend glatt sei. Gesucht istdann eine Funktion u = u(x, y, z, t) in G × (0,∞) = (x, y, z, t) : (x, y, z) ∈ G, t >

Page 496: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 483

0, die zweimal stetig nach (x, y, z) und einmal stetig nach t differenzierbar ist, derDifferentialgleichung

ut(x, y, z, t) −K2 ·∆u(x, y, z, t) = 0 (12.37)

genugt und folgende Anfangs– und Randbedingungen erfullt:

u(x, y, z, 0) = f(x, y, z) fur (x, y, z) ∈ G ∪ ∂Gu(x, y, z, t) = g(x, y, z, t) fur (x, y, z) ∈ ∂G, t ≥ 0

(12.38)

Damit hat der Mathematiker naturlich sofort das Problem, ob diese Aufgabe gut ge-stellt ist. Wir wollen und werden prufen, daß wir hochstens eine und nicht vielleichtsehr viele Losungen haben, daß diese Losung stetig von den Anfangs– und Randbe-dingungen abhangt, und schließlich sind wir sehr interessiert an der Frage, woher wireine Losung nehmen konnen. Also am besten ware eine Konstruktionsvorschrift.

Genau in diese Richtung fuhrt uns ein verbluffender Satz, den wir analog auch schonbei den elliptischen Gleichungen kennen gelernt haben, wie er aber nicht bei hyperbo-lischen Gleichungen anzutreffen ist.

Satz 12.23 (Maximumprinzip) Es sei u eine Losung des oben geschildertenAnfangs–Randwert–Problems der Warmeleitung. Dann nimmt u in

DT := (x, y, z, t) : (x, y, z) ∈ G ∪ ∂G, 0 ≤ t ≤ T

ihr Maximum (und ihr Minimum) auf jeden Fall (auch) in Punkten an, die auf

BT := (x, y, z, t) : (x, y, z) ∈ G ∪ ∂G, t = 0, oder (x, y, z) ∈ ∂G, 0 < t < T

liegen.

Dieser Satz ist fur sich genommen reichlich erstaunlich. Daher hatte er eigentlich eineintensivere Beschaftigung verdient. Uns dient er aber lediglich als Hilfssatz, um denfolgenden Satz damit leicht beweisen zu konnen. So wollen wir den Beweis, der zudemreichlich kompliziert ist, ubergehen und verweisen den sehr interessierten Leser aufdie einschlagige Fachliteratur.

Page 497: 3486584472_Mathem

484 12 Partielle Differentialgleichungen

An der Skizze rechts konnen wirdie wesentliche Aussage illustrieren.Wir haben als Gebiet G ein kleinesTeilintervall auf der x-Achse genom-men, beschranken uns also auf ei-ne Raumvariable. Dann besteht derRand ∂G von G aus den beidenEndpunkten dieses Intervalls, wiewir es in der Skizze angedeutet ha-ben. Das Rechteck ohne die Randerist dann das Gebiet G× (0, T ), undmit DT haben wir das ganze ab-geschlossene Rechteck mit seinemRand bezeichnet.Dann nimmt also eine Losung u ihrMaximum und auch ihr Minimumauf den dick gezeichneten Randtei-len an.

x

t

T

∂G G ∂G

G× (0, T )

Dieses Maximumprinzip beschert uns nun als ziemlich einfache Folgerung die Tatsache,daß unsere Anfangs–Randwert–Aufgabe hochstens eine Losung besitzt, und zugleichergibt sich auch die Stabilitat.

Satz 12.24 (Einzigkeit und Stabilitat) Die Losung des Anfangs–Randwert–Pro-blems 12.22 ist einzig und stabil.

Dabei verstehen wir unter stabil das folgende Verhalten: Unterscheiden sich zweiLosungen in den Anfangs- und den Randbedingungen um hochstens (ein kleines) ε > 0,so unterscheiden sich die Losungen insgesamt auch nur um hochstens dieses ε > 0.

Beweis: Dank des Maximumprinzips ist das richtig leicht gemacht, geradezu ein Ver-gnugen! Wir zeigen zunachst die Stabilitat. Die Einzigkeit ist dann eine triviale Fol-gerung.Der Trick ist immer derselbe. Wir denken uns, daß es mehrere Losungen, sagen wirzwei, gabe und betrachten dann ihre Differenz:Seien also u1 und u2 zwei Losungen mit den zugehorigen Anfangsbedingungen f1 undf2 und den zugehorigen Randbedingungen g1 und g2. Dann ist, da wir ja immer nurmit linearen Differentialgleichungen operieren, auch u := u1 − u2 eine Losung, undeben noch mal wegen der Linearitat genugt u der Anfangsbedingung u(x, y, z, 0) =f1(x, y, z)−f2(x, y, z) und der Randbedingung u(x, y, z, t) = g1(x, y, z, t)−g2(x, y, z, t)fur (x, y, z) ∈ ∂G und t ≥ 0. Fur die Stabilitat hatten wir vorausgesetzt:

|f1 − f2| ≤ ε, |g1 − g2| ≤ ε

Das bedeutet aber

−ε ≤ f1 − f2 ≤ ε, −ε ≤ g1 − g2 ≤ ε,

Page 498: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 485

oder noch anders ausgedruckt:

f1 − f2 ≤ ε, f2 − f1 ≤ ε, g1 − g2 ≤ ε, g2 − g1 ≤ ε. (12.39)

Nun kommt das Maximumprinzip. Es besagt, daß unsere Losung u ihr Maximum aufdem Rand annimmt. Dort ist sie aber kleiner oder gleich ε, also ist sie uberall kleineroder gleich ε:

u ≤ ε. (12.40)

Sie konnte naturlich auch negative Werte annehmen. Das wird ihr aber auch durch dasMaximumprinzip verleidet. Wir betrachten namlich einfach −u = f2 − f1 und nutzenunsere zweiten Ungleichungen in (12.39) aus. Das Maximumprinzip fuhrt unmittelbarauf

−u ≤ ε. (12.41)

Beide Ungleichungen (12.40) und (12.41) zusammen ergeben damit

|u| = |u1 − u2| ≤ ε. (12.42)

Das aber ist genau die behauptete Stabilitat.Wahlen wir nun schlichtweg ε = 0, so ergibt die gleiche Schlußkette

|u| = |u1 − u2| = 0, (12.43)

und daraus folgt sofort

u1 = u2,

was ja unsere behauptete Einzigkeit ist.

12.3.2 Zur Existenz

Wir wissen nun schon ziemlich viel uber die Warmeleitung, fast haben wir, daß dasProblem korrekt gestellt ist, wenn wir nur auch noch eine Losung hatten. AllgemeineAussagen zur Existenz von Losungen sind sehr schwierig zu erhalten. Wir wollen imfolgenden fur einen einfachen Spezialfall zeigen, wie man sich im Prinzip mit Hilfe desberuhmten Bernoulli–Ansatzes eine Losung verschaffen kann.

Satz 12.25 (Existenz) Fur das eindimensionale Anfangs–Randwert–Problem

ut(x, t)−K2uxx(x, t) = 0 fur 0 < x < s, t > 0u(x, 0) = f(x) fur 0 ≤ x ≤ su(0, t) = g(t) fur t ≥ 0u(s, t) = h(t) fur t ≥ 0

(12.44)

laßt sich fur gewisse Funktionen f , g und h mit dem Produktansatz (nach Bernoulli)eine Losung gewinnen.

Page 499: 3486584472_Mathem

486 12 Partielle Differentialgleichungen

Wir haben die Auswahl der Funktionen f , g und h mit Absicht etwas apokryph ge-lassen. Denn eine genaue Angabe der Funktionen, fur die die Konstruktion erfolgreichverlauft, fuhrt uns in ungeahnte Hohen der Analysis. Das geht weit uber das Zieldieses Buches hinaus. Hier wagt der Autor nicht einmal, den Leser auf Literatur zuverweisen. Dieses Thema muß wohl den echten Analysis–Freaks uberlassen bleiben.Den Beweis gliedern wir in zwei große Teilbereiche. Zunachst zeigen wir, wie man sichmittels des Produktansatzes von J. Bernoulli eine allgemeine Losung der Warmelei-tungsgleichung verschaffen kann. Danach beziehen wir die Anfangs– und die Rand-werte mit ein, um eine Losung der vollstandigen Aufgabe zu konstruieren.

Separationsansatz nach Bernoulli Zur besseren Ubersicht kleiden wir das Er-gebnis unserer nun folgenden Berechnung in einen Satz.

Satz 12.26 Fur die eindimensionale Warmeleitungsgleichung

ut(x, t) = uxx(x, t) (12.45)

ergibt sich mit dem Separationsansatz von Bernoulli folgende Darstellungsformel furdie beschrankten Losungen, wobei λ eine beliebige negative Zahl sein kann:

uλ(x, t) = eλt · (c1λ cos√−λ x + c2λ sin

√−λ x) (12.46)

Beweis: Der bekannte Ansatz von Bernoulli (Wie ist er bloß darauf gekommen?)lautet

u(x, t) = X(x) · T (t). (12.47)

Wir versuchen also, die gesuchte Funktion als Produkt aus zwei Funktionen, die jeweilsnur von einer Variablen abhangen, darzustellen.Wir betonen, daß dies rein formal zu verstehen ist. Wir machen uns keinerlei Gedankendaruber, ob dieser Ansatz Sinn macht, ob es erlaubt sein mag, so vorzugehen usw. Wirwollen auf irgendeine Weise lediglich eine Losung finden. Im Anschluß mussen wir unsdann aber uberlegen, ob die durch solche hinterhaltigen Tricks gefundene Funktionwirklich eine Losung unserer Aufgabe ist.Setzen wir den Ansatz in die Warmeleitungsgleichung ein, so ergibt sich

X(x) · dT (t)dt

=d2X(x)

dx2· T (t).

Hier brauchen wir keine partiellen Ableitungen zu benutzen, denn die einzelnen Funk-tionen sind ja jeweils nur von einer Variablen abhangig. Um die muhselige Schreibweisemit den Ableitungen zu vereinfachen, gehen wir ab sofort dazu uber, die Ableitungenmit Strichen zu bezeichnen. Es ist ja stets klar, nach welcher Variablen abzuleiten ist.Jetzt Haupttrick: Wir trennen die Variablen, bringen also alles, was von t abhangt,auf die eine Seite und alles, was von x abhangt auf die andere.

Page 500: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 487

T ′(t)T (t)

=X ′′(x)X(x)

.

Wieder machen wir uns keine Sorgen darum, ob wir hier vielleicht durch 0 dividieren.Unsere spatere Rechtfertigung wird es schon zeigen.Nun der fundamentale Gedanke von Bernoulli: In obiger Gleichung steht links etwas,was nur von t abhangt. Wenn es sich aber in echt mit t verandern wurde, mußte sichauch die rechte Seite verandern. Die hangt doch aber gar nicht von t ab, kann sichalso nicht verandern. Also andert sich die linke Seite auch nicht mit t. Sie ist also eineKonstante. Jetzt schließen wir analog, daß sich ebenso wenig die rechte Seite mit xandern kann, auch sie ist eine Konstante. Wegen der Gleichheit kommt beide Maledieselbe Konstante heraus. Wir nennen sie λ. Also haben wir

T ′(t)T (t)

=X ′′(x)X(x)

= λ = const.

Das sind also zwei Gleichungen, aus denen wir die folgenden Gleichungen gewinnen:

(i) T ′(t) = λ · T (t), (ii) X ′′(x) = λ ·X(x).

Hier muß man genau hinschauen, und dann vor Herrn Bernoulli den Hut ziehen. Washat er geschafft? Es sind zwei gewohnliche Differentialgleichungen entstanden. Daswar sein Trick!Die Losung der ersten Gleichung (i) fallt uns in den Schoß:

T (t) = eλt.

Fur die zweite Gleichung (ii) mussen wir uns ein klein wenig anstrengen. Es handeltsich um eine lineare homogene DGl zweiter Ordnung mit Konstanten Koeffizienten.Das hat uns schon mal jemand erzahlt. Also, die charakteristische Gleichung und ihreLosung lautet

κ2 − λ = 0 =⇒ κ = ±√

λ.

Jetzt unterscheiden wir drei Falle:

Fall 1: Sei λ = 0. Dann ist X ′′(x) = 0, also ist

X(x) = a0 + a1x

eine Losung. Aus (i) folgt dann sofort, daß T (t) = const ist. Diese Konstante, diewir bei der Produktbildung in (12.47) berucksichtigen mußten, konnen wir getrostvergessen, wir haben ja schon a0 und a1.

Fall 2: Sei λ > 0. Mit κ = ±λ lautet dann die allgemeine Losung

X(x) = c1e√

λx + c2e−√λx.

Page 501: 3486584472_Mathem

488 12 Partielle Differentialgleichungen

Der erste Summand bleibt aber sicherlich nicht beschrankt. Diese Losung wollen wiralso nicht betrachten. Unsere Warmeleitungsgleichung verlangt nach einer beschrank-ten Losung.

Fall 3: Sei λ < 0. Dann erhalten wir aus der charakteristischen Gleichung

κ = ±i√−λ.

Also lautet dann die allgemeine Losung

uλ(x, t) = eλt · (c1λ cos√−λx + c2λ sin

√−λx) fur λ < 0u0(x, t) = a0 + a1x fur λ = 0

Konstruktion einer Losung der vollen Anfangs–Randwert–Aufgabe Um dieim vorigen Abschnitt gewonnene allgemeine Losung den Anfangs– und Randbedingun-gen anzupassen, gehen wir nun noch weiter raffiniert vor. Wir wollen die Bedingungeneinzeln verarbeiten und setzen dann die Einzelergebnisse zusammen. Hier hilft unsnaturlich erneut die Linearitat der Aufgabe.

Ansatz: u(x, t) := uA(x, t) + uR(x, t) + uL(x, t)

Dabei seien die einzelnen Funktionen naturlich jeweils eine Losung der Warmeleitungs-gleichung, also von der Form (12.46); außerdem mogen sie den folgenden Bedingungengenugen:

(i) uA(0, t) = uA(s, t) = 0,

(ii) uR(s, t) = h(t), uR(0, t) = 0, t ≥ 0,

(iii) uL(0, t) = g(t), uL(s, t) = 0, t ≥ 0,

(iv) uA(x, 0) = f(x)− uR(x, 0) − uL(x, 0), 0 ≤ x ≤ s.

Gesetzt den Fall, wir hatten solche Funktionen gefunden oder besser konstruiert, dannhaben wir fertig, denn da jede einzeln der Warmeleitung genugt, tut es auch dieSumme. Prufen wir vielleicht nur mal die Anfangsbedingung:

u(x, 0) = uA(x, 0) + uR(x, 0) + uL(x, 0)= f(x)− uR(x, 0)− uL(x, 0) + uR(x, 0) + uL(x, 0) = f(x),

und genau so werden auch alle anderen Bedingungen erfullt.Nun also, wie gewinnen wir solche Funktionen? Wir starten mit der Funktion uA(x, t),die wir uns in der Form (12.46) gegeben denken, und fordern am linken Rand gemaß

Page 502: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 489

(i) uA(0, t) = 0. Das bedeutet also, daß fur jedes λ < 0 gelten muß uλ(0, t) = 0. Darausfolgt:

0 = eλt(c1λ + c2λ · 0) = c1λ, und u0(0, t) = 0 = a0.

Also folgt

uλ(x, t) = c1λeλt, u0(x, t) = a1x.

Aus der Forderung am rechten Rand erhalten wir

uA(s, t) = 0 =⇒ u0(s, t) = a1 · s = 0 =⇒ a1 = 0.

Damit erhalten wir

uλ(s, t) = c2λeλt · sin√−λs = 0.

Diese Gleichung ist auch fur c2λ = 0 erfullbar, wenn wir fur λ spezielle Werte zulassen,namlich

√−λ =nπ

s, n = 1, 2, 3, . . . =⇒ λ = −n2π2

s2, n = 1, 2, 3, . . .

Das sind abzahlbar viele Werte, die wir nun alle miteinander benutzen werden, umeine Losung als unendliche Reihe aufzubauen. Wir bilden also den Ansatz:

uA(x, t) =∞∑

n=1

cne−n2π2

s2t · sin nπx

s.

Auch fur uR(x, t) wollen wir mit einem solchen Ansatz die Bedingungen (ii) zu erfullensuchen. Aus uλ(0, t) = 0 folgt sofort c1λ = 0. Aus u0(0, t) = 0 erhalten wir a0 = 0.Beides hatten wir schon oben mittels uA gefunden. Wir haben also den Ansatz furuR(x, t)

uR(x, t) = a1x +∞∑

n=1

cne−n2π2

s2t · sin nπx

s.

Nutzen wir nun die zweite Randbedingung aus.

uR(s, t) = h(t) = a1s +∞∑

n=1

cne−n2π2

s2t · sinnπ.

Dies ist eine Darstellung der gegebenen Funktion h(t) mit einer Summe aus Exponen-tialfunktionen. Wir werden also nur die Funktionen h(t) gebrauchen konnen, die einesolche Darstellung zulassen. Damit wird unsere geheimnisvoll klingende Aussage desSatzes etwas klarer.

Page 503: 3486584472_Mathem

490 12 Partielle Differentialgleichungen

Nach genau dem gleichen Muster spielt sich die Behandlung der linken Randbedin-gung, also der Funktion uL(x, t) ab. Wir geben hier nur noch das Ergebnis an:

−a0s +∞∑

n=1

cne−n2π2

s2t · sin√−λs = g(t).

Und auch hier nehmen wir die Botschaft mit, daß wir nur die Funktionen g(t) zubetrachten haben, die eine solche Darstellung zulassen.Zum Schluß kommen wir zuruck auf die Funktion uA(x, 0). Mit Hilfe der Bedingung(iv) konnen wir nun noch die unbekannten Koeffizienten cn bestimmen; denn wirerhalten

f(x) = uR(x, 0) + uL(x, 0) +∞∑

n=1

cn sinnπx

s.

Dies ist eine Fourierentwicklung fur die gegebene Funktion f(x), die aus reinen Sinus–Termen besteht. Auch das gibt einen Hinweis, welche Funktionen f(x) wir im Satzbetrachten werden.Insgesamt haben wir damit im Prinzip ein Verfahren vorgestellt, wie man zu einerLosung gelangen kann. Aus der Beschreibung wird aber wohl klar, daß dieses Vorgehennur in ziemlich eingeschrankten Einzelfallen moglich ist. Daher verlegen wir unsereAktivitat auf die numerische Losung dieser Anfangs–Randwert–Aufgaben.

12.3.3 Numerische Losung mit dem Differenzenverfahren

Am Beispiel der Warmeleitungsgleichung wollen wir uns an numerisches Vorgehenherantasten. Wir betrachten also folgende Anfangsrandwertaufgabe:

ut(x, t) =116

uxx(x, t) fur 0 ≤ x ≤ 1, 0 ≤ t < ∞ (12.48)

u(x, 0) =x2

2Anfangsbedingung (12.49)

u(0, t) = t 1. Randbedingung (12.50)

u(1, t) = t +12

2. Randbedingung (12.51)

Zur numerischen Losung uberziehen wir den Streifen

G = (x, t) ∈ R2 : 0 ≤ x ≤ 1, 0 ≤ t < ∞,

in dem die Losung gesucht wird, mit einem Rechteckgitter und bezeichnen die Gitter-punkte mit (xi, tj). Wieder bezeichnen wir mit

ui,j ≈ u(xi, tj)

die gesuchte Naherung fur u(xi, tj)

Page 504: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 491

Nun beginnen wir damit, daß wir uxx durch den zentralen und ut durch den vorderenDifferenzenquotienten ersetzen. Dabei wahlen wir als Schrittweite in t–Richtung k undals Schrittweite in x–Richtung h. Dadurch gelangen wir zu einer Ersatzaufgabe, mit derwir eine Naherung fur die Losung u(x, t) berechnen konnen. Die Differenzenquotientenhaben wir schon fruher eingefuhrt.Wir benutzen sie jetzt hemmungslos und erhalten

1k(ui,j+1 − ui,j) =

116h2

(ui+1,j − 2ui,j + ui−1,j).

Hier stehen funf u–Terme, vier von ihnen im Zeitschritt tj und einer links im Zeitschritttj+1. Wir losen daher obige Gleichung nach ui,j+1 auf, was sich explizit machen laßt.

ui,j+1 =k

16h2ui+1,j +

(1− 2k

16h2

)ui,j +

k

16h2ui−1,j. (12.52)

Nun haben wir ja die Anfangsbedingung und kennen also Werte im Zeitschritt t = 0,d.h. fur j = 0. Aus obiger Gleichung konnen wir daher die Werte im Zeitschritt j = 1,d.h. fur t = k berechnen. Mit diesen Werten gehen wir zum Zeitschritt j = 2, d.h.fur t = 2k und rechnen dort unsere Naherungswerte aus. So schreiten wir Schritt furSchritt voran, bis wir zu einem Zeitschritt kommen, den uns die Aufgabe stellt oderfur den wir uns aus anderen Grunden interessieren.

0 14

12

34 1

k

2kt

x

ϕ(x)

ψ0(t) ψ1(t)

u11 u21 u31

Oben haben wir einen Stab als eindimensionales Gebilde auf die x–Achse gelegt. DieZeit tragen wir nach oben auf. t = 0 ist also die x–Achse, dort tragen wir die in derAufgabe gegebenen Anfangswerte ein. Die Randbedingungen besagen, wie sich dieWarme am linken und rechten Rand ausbreitet. In der Skizze sind also die Werte aufder t–Achse am linken Rand und auf der Parallelen zur t–Achse am rechten Randgegeben. Um nun fur den Zeitpunkt t = k, also j = 1 die Naherung zu berechnen,schauen wir uns die Gleichung (12.52) genau an und sehen, daß rechts der Wert zumselben Ortspunkt xi, aber zur Zeit t = 0 steht. Außerdem sind seine beiden Nachbar-werte links und rechts von diesem Ortspunkt dabei. Wir haben das rechts ausgehendvom Zeitschritt t = 0 angedeutet. Der Naherungswert u11 im Zeitpunkt t = k ergibt

Page 505: 3486584472_Mathem

492 12 Partielle Differentialgleichungen

sich nach obiger Formel aus den Vorgabewerten im Nullpunkt, im Punkt (14 , 0) und

im Punkt (12 , 0). Den Naherungswert u21 erhalt man aus den Werten im Punkt (1

4 , 0),im Punkt (1

2 , 0) und im Punkt (34 , 0). Und die Naherung u31 erhalten wir aus den

Werten im Punkt (12 , 0) und im Punkt (3

4 , 0) und im Punkt (1, 0) alle zum Zeitpunktt = 0. Das ergibt zusammen mit den gegebenen Werten am linken und rechten Randdie Moglichkeit, alle Werte im Zeitschritt ti+1 zu bestimmen. Wir haben das durchdie Verbindungslinien angedeutet.Nun wollen wir noch konkret rechnen und wahlen deshalb als Beispiel die Schrittweiteh = 1

4 in x–Richtung und die Schrittweite und k = 12 in t–Richtung. Dann ist k

16h2 = 12

und 1− 2k16h2 = 0. Unsere Gleichung (12.52) lautet dann:

ui,j+1 =12(ui+1,j + ui−1,j). (12.53)

Das ist nun ein leichtes Spiel, hier Werte auszurechnen. Wir benutzen unten dieselbeSkizze wie oben. Hier ist also wieder die Ortskoordinate nach rechts aufgetragen,und die Zeit schreitet nach oben fort. Wir wollen Naherungen fur die Zeitschrittet1 = k = 1

2 und t2 = 2k = 1 berechnen. Fur die Zeit t = 0 tragen wir an derunteren Kante die Vorgabewerte aus der Anfangsbedingung (12.49) ein. Am linkenRand benutzen wir (12.50) und am rechten analog (12.51). Die neu berechneten Wertehaben wir eingerahmt. Fur den zweiten Schritt haben wir keine Verbindungsliniengezogen, um das Bild ubersichtlich zu halten.

0 132

18

932

12

12

1t

12

ψ0(t) ψ1(t)

116

532

516

32

1

0

2164

316

3764

An Hand eines zweiten Beispiels wollen wir ein gerade fur die Anwendungen sehrwichtiges Phanomen ansprechen. Dazu wahlen wir ein Beispiel, wo wir die exakteLosung kennen und daher mit unserer Naherungslosung vergleichen konnen.

Beispiel 12.27 Wir losen die Anfangs–Randwert–Aufgabe

ut(x, t) = uxx(x, t) 0 < x < 1, t > 0u(x, 0) = 100 · sin πx 0 < x < 1u(0, t) = u(1, t) = 0 t > 0

sowohl exakt als auch numerisch und vergleichen die Ergebnisse.

Page 506: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 493

Exakte Losung Die Randvorgaben g(t) = h(t) ≡ 0 fuhren uns sofort zu uR(x, t) ≡0 und uL(x, t) ≡ 0. Daraus schließen wir, wie die Funktion uA auszusehen hat:

uA(x, 0) =∞∑

n=1

cn sinnπx

s= f(x).

Wenn wir f(x) ungerade fortsetzen, konnen wir diese Gleichung befriedigen. Mit dervorgegebenen Funktion f(x) = 100 · sinπx wird dann diese Gleichheit erreicht wegens = 1, wenn wir wahlen

c1 = 100, c2 = c3 = · · · = 0.

Damit lautet die gesuchte exakte Losung

u(x, t) = 100 · e−π2t sin πx.

Numerische Losung Fein, daß wir die exakte Losung zum Vergleich heranziehenkonnen. Jetzt gehen wir numerisch ran. Dazu wahlen wir wieder das Differenzenverfah-ren und ersetzen die erste zeitliche Ableitung durch den Vorwartsdifferenzenquotientenund die zweite raumliche Ableitung durch den zentralen Differenzenquotienten. Wirerhalten so die Naherungsformel

ui,j+1 − ui,j

k=

ui+1,j − 2ui,j + ui−1,j

h2.

Das konnen wir auflosen:

ui,j+1 = ui,j +k

h2(ui+1,j − 2ui,j + ui−1,j). (12.54)

Dies ist eine explizite Gleichung zur Bestimmung der gesuchten Naherungswerte imZeitschritt j + 1. Da wir die Zeitableitung so ersetzt haben, wie wir das auch schonbeim Euler–Verfahren fur gewohnliche Differentialgleichungen gelernt haben, nennenwir die Gleichung (12.54) Explizite Euler–Methode.Berucksichtige wir nun, daß wir fur den Zeitschritt j = 0, also zur Zeit t = 0 die Werteui,0 der Funktion u(x, t) als Anfangswerte in der Aufgabe gegeben haben, so sehenwir, daß dies eine explizite Gleichung zur Berechnung der Naherungswerte ui,1 vonu(x, t) in den Stutzstellen zum Zeitpunkt t = k ist.Mit diesen Werten lassen sich sodann die Naherungen ui,2 explizit berechnen. Undso konnen wir fortfahren mit der Rechnung. Wie wir das schon im vorigen Beispielskizzenhaft angedeutet haben, werden auch hier nur spezielle Werte eines Zeitschrittesbenotigt, um den jeweiligen Wert im folgenden Zeitschritt zu berechnen. Man brauchtnamlich nur den Wert im selben Ortsschritt und die beiden links und rechts danebenstehenden Werte. Die Formel ist so einfach zu lesen, daß wir uns hier eine erneuteSkizze sparen.Naturlich schreit das nach dem kleinen Knecht, Herrn Computer. Der hat mit wirklichsehr wenig Programmieraufwand uberhaupt keine Muhe, hier Ergebnisse zu erzielen.

Page 507: 3486584472_Mathem

494 12 Partielle Differentialgleichungen

Wir zerlegen das gegebene Intervall [0, 1] in 10 Teilintervalle und wollen Naherungswer-te zum Zeitpunkt T = 0.5 erhalten. Dazu geben wir drei verschiedene Zeitschrittweitenk vor, namlich

(i) k =1

600= 0.0016, (ii) k =

1200

= 0.005, (iii) k =3

500= 0.006

Das bedeutet, daß Mr. C. im Fall (i) 300 Zeitschritte zu rechnen hat, im Fall (ii) nur100 Zeitschritte und im Fall (iii) noch gerade 83 Zeitschritte. Wir wollen also sehen, obwir durch die Wahl der Zeitschritte Zeit (und damit fur jeden Großcomputer zugleichGeld) sparen konnen. Das Ergebnis ist schon einigermaßen erstaunlich, wenn wir dieNaherungen mit den exakten Werten vergleichen:

Explizite Euler–Methode

Ort exakt Naherung Naherung Naherung300 Zeitschritte 100 Zeitschritte 83 Zeitschritte

0.0 0.000000 0.000000 0.000000 0.000.1 0.222239 0.222266 0.204463 −8341.010.2 0.422724 0.422775 0.388912 15866.850.3 0.581830 0.581899 0.535292 −21838.910.4 0.683982 0.684064 0.629273 25676.110.5 0.719181 0.719267 0.661657 −26998.110.6 0.683982 0.684064 0.629273 25679.840.7 0.581830 0.581899 0.535292 −21844.940.8 0.422724 0.422775 0.388912 15872.870.9 0.222239 0.222266 0.204463 −8344.731.0 0.000000 0.000000 0.000000 0.00

Bei 300 Zeitschritten sieht das Ergebnis recht vertrauensvoll aus, vier Nachkomma-stellen sind korrekt. Das andert sich bei nur noch 100 Zeitschritten. Eigentlich mochteman auf bessere Ergebnisse hoffen, weil ja doch u.a. weniger Rundungsfehler auftre-ten, aber jetzt ist nur noch eine Nachkommastelle zu gebrauchen. Desastros aber wirdes bei 83 Zeitschritten. Das Ergebnis ist total unbrauchbar.So wie wir es auch schon bei Anfangswertaufgaben mit gewohnlichen Differentialglei-chungen kennengelernt haben, tritt auch hier das Phanomen der Stabilitat auf. Derfolgende Satz, den wir hier als einzigen aus einer Vielzahl weiterer Ergebnisse zitierenwollen, erklart die Geschichte.

Satz 12.28 Die explizite Euler–Methode ist von der Ordnung O(k + h2) konsistent;sie ist genau dann stabil, wenn gilt:

k

h2<

12

(12.55)

Page 508: 3486584472_Mathem

12.3 Die Warmeleitungsgleichung 495

Schauen wir uns obige Rechnung noch einmal daraufhin an und berechnen wir den

Faktork

h2.

Fall (i)k

h2=

16

= 0.00016

Fall (ii)k

h2=

12

= 0.5

Fall (iii)k

h2=

35

= 0.6

Aha, da liegt der Hund begraben. Der Faktork

h2ist im Fall (iii) großer als 0.5. Man

muß also folgendes beachten:

Gibt man bei der expliziten Euler–Methode die Ortsschrittweite vor, so darfman die Zeitschrittweite nicht beliebig wahlen, sondern muß die Einschran-kung beachten:

k <h2

2

Dieses instabile Verhalten zeigt sich nicht, wenn man folgende implizite Methodewahlt:Wir ersetzen wie gehabt die zeitliche Ableitung durch den Vorwartsdifferenzenquo-tienten, zur Ersetzung der raumlichen zweiten Ableitung benutzen wir den zentralenDifferenzenquotienten, den wir aber diesmal an der Stelle ui,j+1 statt bei ui,j auswer-ten. Das ergibt die Formel:

ui,j+1 − ui,j

k=

ui+1,j+1 − 2ui,j+1 + ui−1,j+1

h2(12.56)

Diese Formel losen wir folgendermaßen auf

ui,j+1 − k

h2· (ui+1,j+1 − 2ui,j+1 + ui−1,j+1) = ui,j (12.57)

und erhalten so die implizite Euler–Methode.Bekannt sind die Werte im Zeitschritt k = 0 durch die Vorgabe der Anfangswerte.Setzen wir also j = 0, so ist die rechte Seite in obiger Formel fur i = 0, 1, . . . , Nbekannt. Die Formel benutzen wir dann fur i = 1, 2, . . . , N − 1, erhalten also N − 1Gleichungen fur die N − 1 Unbekannten u1,1, . . . , uN−1,1. Dabei beachten wir daß dieRandwerte u0,1 und uN,1 durch die Randbedingungen gegeben sind.Unschwer erkennt man, daß so ein lineares Gleichungssystem mit N − 1 Gleichungenund N − 1 Unbekannten entsteht. Sukzessive arbeiten wir fur die Zeitschritte k = 1,k = 2, usw. fort. Jedesmal muß also ein lineares Gleichungssystem gelost werden. Dies

Page 509: 3486584472_Mathem

496 12 Partielle Differentialgleichungen

ist aber von besonders einfacher Bauart, es ist ein Tridiagonalsystem, wie man ausder Gleichung (12.57) direkt abliest.Bei der praktischen Berechnung fur unser obiges Beispiel 12.27 hat uns unser kleinerComputer nicht im Stich gelassen und folgendes ausgespuckt:

Implizite Euler–Methode

Ort exakt Naherung Naherung Naherung300 Zeitschritte 100 Zeitschritte 83 Zeitschritte

0.0 0.000000 0.000000 0.000000 0.0000000.1 0.222239 0.236981 0.259878 0.2708560.2 0.422724 0.450764 0.494318 0.5152000.3 0.581830 0.620423 0.680370 0.7091110.4 0.683982 0.729351 0.799823 0.8336100.5 0.719181 0.766885 0.840984 0.8765100.6 0.683982 0.729350 0.799823 0.8336110.7 0.581830 0.620422 0.680370 0.7091120.8 0.422724 0.450763 0.494318 0.5152000.9 0.222239 0.236980 0.259878 0.2708561.0 0.000000 0.000000 0.000000 0.000000

Das ist zwar nicht gerade berauschend, wenn man das Ergebnis jeweils mit der exaktenLosung vergleicht, aber zumindest fehlt dieses Chaos, wenn wir die Zeitschrittweitegroßer machen. Das wird durch folgenden Satz bestatigt.

Satz 12.29 Die implizite Euler–Methode ist von der Ordnung O(k + h2) konsistent;sie ist ohne Einschrankung stabil.

Das ist es: Stabilitat auf jeden Fall. Naturlich ist die Annaherung zu grob mit einerOrtsschrittweite von 0.1, da mußten wir unsern kleinen Knecht schon erheblich mehranstrengen. Aber dann wurde das Ergebnis auch deutlich besser werden, eben mit derOrdnung k + h2.Eine andere Methode, das Ergebnis zu verbessern, haben sich Crank und Nicolsonausgedacht, indem sie die Vorwarts– und die Ruckwartsmethode kombiniert haben.Sie haben also die Zeitableitung wieder durch den Vorwartsdifferenzenquotienten an-genahert, dann aber die ortliche zweite Ableitung durch den zentralen Differenzen-quotienten sowohl an der Stelle ui,j als auch an der Stelle ui,j+1 approximiert. Ausbeiden haben sie dann den Mittelwert gebildet und kamen zu folgender Formel:

ui,j+1 − ui,j

k=(

ui+1,j+1 − 2ui,j+1 + ui−1,j+1

h2+

ui+1,j − 2ui,j + ui−1,j

h2

).

Auch dies ist eine implizite Methode, denn die unbekannten Werte stehen links undrechts. Wieder mussen wir nach diesen Werten auflosen

ui,j+1 − k

2h2(ui+1,j+1 − 2ui,j+1 + ui−1,j+1) = ui,j +

k

2h2(ui+1,j − 2ui,j + ui−1,j)

Page 510: 3486584472_Mathem

12.4 Die Wellengleichung 497

und erhalten sie die Formel fur die Crank–Nicolson–Methode.Auch hier ist ein lineares Gleichungssystem entstanden, das ebenfalls tridiagonal ist.Das Rechenergebnis fur unser obiges Beispiel zeigen wir in der folgenden Tabelle.

Crank–Nicolson–Methode

Ort exakt Naherung Naherung Naherung300 Zeitschritte 100 Zeitschritte 83 Zeitschritte

0.0 0.000000 0.000000 0.000000 0.0000000.1 0.222239 0.231408 0.231189 0.2356620.2 0.422724 0.440163 0.439748 0.4482550.3 0.581830 0.605833 0.605261 0.6169700.4 0.683982 0.712200 0.711527 0.7252920.5 0.719181 0.748852 0.748143 0.7626180.6 0.683982 0.712201 0.711527 0.7252920.7 0.581830 0.605834 0.605261 0.6169710.8 0.422724 0.440165 0.439748 0.4482550.9 0.222239 0.231408 0.231189 0.2356621.0 0.000000 0.000000 0.000000 0.000000

Bei zu kleiner Zeitschrittweite wird die Annaherung schlechter, aber das Ergebnis istirgendwo noch nachvollziehbar. Auch hier ist die Stabilitat also kein Problem, was imfolgenden Satz auch klar zum Ausdruck kommt.

Satz 12.30 Die implizite Crank–Nicolson–Methode ist von der Ordnung O(k2 + h2)konsistent; sie ist ohne Einschrankung stabil.

12.4 Die Wellengleichung

Im Beispiel 12.6 auf Seite 458 haben wir uns schon recht ausfuhrlich mit einer korrektenBeschreibung einer schwingenden Saite befaßt und dabei drei verschiedene Aufgaben,bedingt durch die Randvorgaben, festgelegt:

1. die allgemeine Wellengleichung (keine Anfangs– oder Randbedingungen)

2. das Cauchy–Problem (nur Anfangsbedingungen)

3. das volle Anfangs–Randwert–Problem (sowohl Anfangs– als auch Randvorga-ben)

Wir wollen nun zu jeder der drei Aufgaben eine Beschreibung der Losung geben.

12.4.1 Die allgemeine Wellengleichung

Der folgende Satz erzahlt uns, wie man eine Losung der allgemeinen Wellengleichungaus zwei anderen Funktionen von jeweils einer Veranderlichen aufbauen kann.

Page 511: 3486584472_Mathem

498 12 Partielle Differentialgleichungen

Satz 12.31 Ist u(x, t) eine im ganzen (x, t)–Raum zweimal differenzierbare Losungder Gleichung

utt(x, t)− c2uxx(x, t) = 0, (12.58)

so gibt es zwei Funktionen f, g ∈ C2(R) mit

u(x, t) = f(x + ct) + g(x− ct). (12.59)

Umgekehrt ist auch jede Funktion u(x, t), die sich so mit zwei Funktionen f, g ∈ C2(R)darstellen laßt, eine Losung der Wellengleichung (12.58).

Nun, solch einen schonen Satz laßt ein anstandiger Mathematiker nicht ohne Beweisgehen; denn so allein ist er gar nicht sehr hilfreich. Es wird zwar gesagt, daß es zweihubsche Funktionen f und g gibt, aus denen man die Losung aufbauen kann, aberwoher nehmen, wenn nicht stehlen. Das ist recht typisch fur solche Existenzsatze: dienutzbringende Idee steckt im Beweis. Dort muß man namlich zur Sache kommen underklaren, wie man sich solche Funktionen beschafft. Also wagen wir uns an den Beweis.Beweis: Wir setzen

ξ = x + ct, η = x− ct und erhalten x =ξ + η

2, t =

ξ − η

2c.

Dann ist

u(x, t) = u

(ξ + η

2,ξ − η

2c

)

eine Funktion von ξ und η. Wir nennen sie v(ξ, η) und rechnen die Wellengleichungauf diese neuen Koordinaten um. Wir lassen zur besseren Ubersicht im folgenden diejeweiligen Variablen weg; denn jetzt mussen wir differenzieren, und zwar implizit, dasowohl ξ also auch η jeweils Funktionen von x sind. Also los geht’s:

ux = vξ · ξx + vη · ηx = vξ + vη,

ut = vξ · ξt + vη · ηt = vξ · c− vη · c,uxx = vξξ · ξx + vξη · ηx + vηξ · ξx + vηη · ηx

= vξξ + 2vξη + vηη

utt = c[vξξ · ξt + vξη · ηt − vηξ · ξt − vηη · ηz]= c2[vξξ − 2vξη + vηη]

Das setzen wir nun in die Wellengleichung ein und erhalten:

utt − c2uxx = c2[vξξ − 2vξη + vηη − vξξ − 2vξη − vηη ]= −4c2vξη = 0

Wegen 4c2 = 0 konnen wir durch diesen Term teilen und kommen zu der Gleichung

vξη = 0.

Page 512: 3486584472_Mathem

12.4 Die Wellengleichung 499

Diese Gleichung schreiben wir ein klein wenig anders und fugen wieder unsere abhangi-gen Veranderlichen ξ und η hinzu:

(vξ)η(ξ, η) = 0.

Jetzt sieht man, daß wir leicht integrieren konnen, zunachst nach η. Dabei entstehteine Konstante, die aber nur bezgl. η eine Konstante ist; sie kann eventuell von ξabhangen. Wir erhalten also

vξ(ξ, η) = h(ξ).

Hierin ist h(ξ) eine C1–Funktion, denn v war ja eine C2–Funktion. Nun integrieren wirmunter noch einmal, diesmal nach ξ. Wiederum entsteht eine Integrationskonstantebezgl. ξ, die also diesmal von η abhangen kann; wir nennen sie g(η):

v(ξ, η) = f(ξ) + g(η).

Hierin ist f(ξ) eine Stammfunktion von h(ξ), die damit eine Funktion aus C2 ist.Daher ist wegen der Gleichheit und wegen v ∈ C2 und f ∈ C2 auch g ∈ C2. Wenn wirauf unsere alten Variablen x und t zuruckschalten, so folgt:

u(x, t) = v(ξ, η) = f(ξ) + g(η) = f(x + ct) + g(x− ct).

Die Existenz unserer zwei gesuchten Funktionen haben wir also als Integrationskon-stanten gesichert.Die umgekehrte Behauptung zeigen wir durch schlichtes Nachrechnen. Sei also

u(x, t) = f(x + ct) + g(x− ct).

Dann ist

ut =df

dξ· ξt +

dg

dη· ηt =

df

dξ· c− dg

dη· c,

utt =d2f

dξ2· ξt · c− d2g

dη2· ηt · c = c2 · d2f

dξ2+ c2 · d2g

dη2,

ux =df

dξ+

dg

dη,

uxx =d2f

dξ2+

d2g

dη2.

Damit folgt insgesamt

utt − c2 · uxx = 0,

wie wir es im Satz behauptet haben.

Page 513: 3486584472_Mathem

500 12 Partielle Differentialgleichungen

12.4.2 Das Cauchy–Problem

Der obige Satz uber die Losung der allgemeinen Wellengleichung fuhrt uns unmittelbarzur Losung des Cauchy–Problems:

Satz 12.32 Das Cauchy–Problem

utt(x, t)− c2 · uxx(x, t) = 0, u(x, 0) = u0(x), ut(x, 0) = u1(x) (12.60)

ist korrekt gestellt, falls u0 ∈ C2 und u1 ∈ C1 ist.Die Losung lautet dann:

u(x, y) =u0(x + ct) + u0(x− ct)

2+

12c

∫ x+ct

x−ctu1(ξ) dξ. (12.61)

Nun, im Gegensatz zum vorigen reinen Existenzsatz ist hier in der Formulierung allesverraten. Wir bringen den Beweis dieses Satzes daher nur der Vollstandigkeit wegen fur’Experten’. Wer nur an der Anwendung interessiert ist, mag ihn getrost uberspringen.

Beweis: Wir wissen nach dem vorigen Satz, daß sich die Losung der Wellengleichungmit zwei Funktionen f und g so darstellen laßt:

u(x, t) = f(x + ct) + g(x− ct), f, g ∈ C2.

Wir mussen nur versuchen, diese Losung den Anfangsbedingungen anzupassen. Alsosetzen wir diese ein und beachten, daß wir ja t = 0 zu nehmen haben.

u(x, 0) = u0(x) = f(x) + g(x) ⇒ g(x) = u0(x)− f(x),ut(x, 0) = u1(x) = c · f ′(x)− c · g′(x)

Die zweite Gleichung integrieren wir und erhalten:

f(x)− g(x) =1c

∫ x

x0

u1(x) dx

mit willkurlich gewahltem Anfangspunkt x0 im Integral (dadurch sparen wir uns dieIntegrationskonstante). Hier verwenden wir die erste Anfangsbedingung

f(x) = g(x) +1c

∫ x

x0

u1(x) dx = u0(x)− f(x) +1c

∫ x

x0

u1(x) dx.

Fassen wir das zusammen, so folgt

f(x) =12u0(x) +

12c

∫ x

x0

u1(x) dx

und analog

g(x) =12u0(x)− 1

2c

∫ x

x0

u1(x) dx.

Page 514: 3486584472_Mathem

12.4 Die Wellengleichung 501

Damit lautet unsere gesuchte Losung:

u(x, t) = f(x + ct) + g(x + ct)

=12u0(x + ct) +

12c

∫ x+ct

x0

u1(x) dx +12u0(x− ct)− 1

2c

∫ x−ct

x0

u1(x) dx

=u0(x + ct) + u0(x− ct)

2+

12c

∫ x+ct

x−ctu1(x) dx.

So haben wir also die Losung des Cauchy–Problems durch Konstruktion angegebenund dadurch die Existenz gesichert.Durch Zusammenfassen der beiden Integrale haben wir ganz heimlich den willkurlichgewahlten Anfangspunkt x0 wieder beseitigen konnen. Er war die letzte Freiheit inder konstruierten Losung. Nun haben wir keine solche Freiheit mehr und darum auchnur eine einzige Losung.Um nun die Korrektgestelltheit vollstandig zu machen, mussen wir die Stabilitat si-chern.Nehmen wir daher an, es seien u(x, t) und u(x, t) zwei Losungen und daß sowohl uals auch u die Randwerte nicht genau annehmen, sondern daß da jeweils eine kleineStorung eingebaut ist. Es sei also fur die zugehorigen Randwerte u0(x) und u0(x) undu1(x) und u1(x)

|u0(x)− u0(x)| < ε, |u1(x)− u1(x)| < δ.

Dann hilft uns die Dreiecksungleichung weiter:

|u(x, t) − u(x, t)| ≤ 12|u0(x + ct)− u0(x + ct)|+ 1

2|u0(x− ct)− u0(x− ct)|

+12c

∫ x+ct

x−ct|u1(x)− u1(x)| dx

=12ε +

12ε +

12c

∫ x+ct

x−ctδ dx = ε +

12c

δ(x + ct− (x− ct))

= ε + δt.

In einem beliebigen endlichen Intervall [0, T ] wird also u − u beliebig klein, wennε, δ → 0 geht. Das ist die Stabilitat.

12.4.3 Das allgemeine Anfangs–Randwert–Problem

Zur besseren Ubersicht formulieren wir im folgenden Satz die volle Aufgabe noch ein-mal, bevor wir zur Behauptung kommen, daß die Losung, falls es sie denn gibt, einzigist. Die Stabilitat werden wir nicht nachweisen, denn das ware nur eine Wiederholungaus dem Beweis des vorigen Satzes.

Page 515: 3486584472_Mathem

502 12 Partielle Differentialgleichungen

Satz 12.33 Das Anfangs–Randwert–Problem

utt(x, t)− c2 · uxx(x, t) = 0, 0 < t, 0 < x < s Wellengleichung

u(x, 0) = u0(x), 0 < x < s Anfangsbedingungut(x, 0) = u1(x), 0 < x < s Anfangsbedingungu(0, t) = h(t), t > 0 Randbedingungu(s, t) = k(t), t > 0 Randbedingung

(12.62)

hat hochstens eine Losung u(x, t), falls u ∈ C2 ist. Diese ist dann auch stabil.

Dieser Satz liefert nur die Einzigkeit und versichert uns, daß die Losung stabil bleibt,er sagt aber nichts uber ihre Existenz. Schon gar nicht erzahlt er uns, wie man dieLosung denn erhalten konnte. Wenn man also den folgenden Beweis uberspringt, istdas eine laßliche Sunde, die der Autor gerne vergibt.

Beweis: Wir wollen hier nur die Einzigkeit beweisen, denn der Stabilitatsnachweislauft analog wie im vorigen Satz 12.32. Wir wollen ihn daher ubergehen.Wir nehmen an, daß es zwei Losungen u1(x, t) und u2(x, t) dieser Aufgabe gibt. Wieschon jeweils zuvor betrachten wir die Differenz

u(x, t) = u1(x, t)− u2(x, t).

Diese Funktion u(x, t) ist ebenfalls Losung der Wellengleichung, erfullt aber die fol-genden homogenen Randbedingungen:

u(x, 0) = ut(x, 0) = 0, u(0, t) = u(s, t) = 0.

Daraus ergeben sich noch zwei weitere Gleichungen:

ut(0, t) = ut(s, t) = 0. (12.63)

Nun kommt ein kleiner, ach, vielleicht doch ein großerer Trick. Ist u(x, t) eine Losungder Wellengleichung, so gilt auch

2ut(utt − c2 · uxx) = (u2t + c2 · u2

x)t − 2c2(ut · ux)x (12.64)

Das erkennt man durch einfaches Nachrechnen, indem man die rechte Seite ausdif-ferenziert und uxt = utx beachtet. Außerdem sieht man, daß links in der Klammerunsere Wellengleichung steht, die ja fur eine Losung den Wert 0 ergibt. Also ist derganze linke Ausdruck und dann naturlich auch der rechte Term gleich Null.Unsere Differenzfunktion u war eine Losung, also konnen wir sie in die Gleichung(12.64) einsetzen:

0 =∫ T

t=0

∫ s

x=0[(u2

t (x, t) + c2 · u2x(x, t))t − 2c2(ut(x, t) · ux(x, t))x] dx dt

=∫ s

0[u2

t (x, t) + c2 · u2x(x, t)] dx

∣∣T0− 2c2

∫ T

0ut(x, t) · ux(x, t) dt

∣∣∣∣x=s

x=0

.

Page 516: 3486584472_Mathem

12.4 Die Wellengleichung 503

Der Term auf der rechten Seite in der letzten Zeile verschwindet nun wegen der Rand-bedingungen (12.63). Im verbleibenden Integral stehen nur quadratische Terme. Damites verschwindet, muß also jeder Summand verschwinden, und wir erhalten

ut(x, T ) ≡ 0, ux(x, T ) ≡ 0.

Hieraus schließen wir aber sofort, daß u(x, t) eine konstante Funktion ist. Wegen derhomogenen Anfangsbedingung fur diese Differenzlosung folgt damit

u(x, t) ≡ 0,

also ergibt sich unsere gesuchte Einzigkeit

u1(x, t) = u2(x, t) fur alle (x, t) mit 0 < x < s, 0 < t.

Nun zur Existenz! Der freundliche Leser wird hoffentlich nicht unfreundlich, wenn wirihn daran erinnern, wie wir die Existenz bei der Warmeleitungsgleichung nachzuweisenversuchten. Das war ziemlich nervig und gar nicht lustig. Leider fuhrt ein solcherNachweis hier bei der Wellengleichung zu ahnlichen Konflikten. Um nun den Lesernicht endgultig zu verprellen, wollen wir daher auf den allgemeinen Weg verzichtenund uns lediglich an einem ziemlich einfachen Beispiel das Prinzip klarmachen. Dasgleiche Beispiel konnen wir dann anschließend numerisch behandeln und Theorie undPraxis miteinander vergleichen. Das wird uns wieder aufmuntern.

Beispiel 12.34 Wir betrachten folgendes Anfangs–Randwert–Problem der Wellen-gleichung:

utt(x, t) = 4uxx(x, t) 0 < x < 1, t > 0 Wellengleichungu(x, 0) = sin 2πx 0 < x < 1 1. Anfangsbedingungut(x, 0) = 0 0 < x < 1 2. Anfangsbedingungu(0, t) = u(1, t) = 0 t > 0 Randbedingungen

Das, was uns das Leben erheblich erleichtert, sind die homogenen Randbedingungenund die zweite homogene Anfangsbedingung. Lediglich die erste Anfangsbedingungsei nichthomogen. Außerdem haben wir nur eine Raumdimension vorgegeben.Unser beruhmter Produktansatz schlagt nun wieder gnadenlos zu:

Ansatz nach Bernoulli: u(x, t) = X(x) · T (t)

Wir hoffen, wie durfen das alles jetzt kurz zusammenfassen, denn die Uberlegungenbleiben sehr ahnlich zu denen bei elliptischen und parabolischen Gleichungen.Durch Einsetzen in die Differentialgleichung erhalt man zwei gewohnliche Differenti-algleichungen

T ′′(t)− λT (t) = 0, 4 ·X ′′(x)− λX(x) = 0.

Page 517: 3486584472_Mathem

504 12 Partielle Differentialgleichungen

Wir betrachten zunachst die zweite dieser Gleichungen. Aus den Randbedingungenerhalten wir

X(0) = 0,X(1) = 0.

Damit haben wir eine gewohnliche Randwertaufgabe fur X(x)

X ′′(x)− λX(x) = 0 mit X(0) = X(1) = 0,

worin λ ein freier Parameter ist. Wir suchen nun nach Werten von λ, fur die dieseRandwertaufgabe nichttriviale Losungen besitzt. Dies ist eine sog. Eigenwertaufgabe.Mit denselben Fallunterscheidungen wie fruher ergibt sich, daß nur fur λ < 0 sol-che nichttrivialen Losungen auftreten. Nach dem Umweg uber die komplexen Zahlenerhalten wir als allgemeine Losung

X(x) = a1 cos(√−λ

2x

)+ a2 sin

(√−λ

2x

).

Die erste Randbedingung X(0) = 0 liefert sofort a1 = 0. Die zweite RandbedingungX(1) = 0 fuhrt aber so wie fruher zu speziellen λ–Werten, fur die es nichttrivialeLosungen gibt:

√−λ = 2kπ =⇒ λ = −4k2π2 fur k = 1, 2, . . .

Damit erhalten wir fur jede naturliche Zahl k = 1, 2, . . . eine Losung

Xk(x) = a2 sin(kπx)

mit einer willkurlichen Konstanten a2.Dieselben Werte fur λ galten nun auch fur die erste Differentialgleichung in t. Sielautet daher

T ′′(t) + 4k2π2T (t) = 0.

Die charakteristische Gleichung liefert wiederum nur komplexe Losungen:

κ = ±2kπi.

Das fuhrt auf die allgemeine Losung

T (t) = b1 cos(2kπt) + b2 sin(2kπt)

fur jede naturliche Zahl k = 1, 2, 3, . . ., wobei b1 und b2 von k abhangen.Beide Ergebnisse setzen wir zusammen und wissen nun, daß fur jede naturliche Zahlk = 1, 2, . . . die Funktion

uk(x, t) = [ak cos(2kπt) + bk sin(2kπt)] sin(kπx)

Page 518: 3486584472_Mathem

12.4 Die Wellengleichung 505

Losung unserer Wellengleichung ist, die auch den homogenen Randbedingungen genugt.Nun mussen wir diese Losung noch den Anfangsbedingungen anpassen. Dazu nehmenwir nach altem Muster nicht eine der obigen Losungen, sondern bilden eine Summeaus ihnen, die hier wegen der einfachen Anfangsfunktion aus endlich vielen dieserLosungen bestehen kann:

u(x, t) =n∑

k=1

[ak cos 2kπt + bk sin 2kπt] sin kπx.

Mit der ersten Anfangsbedingung folgt

u(x, 0) =n∑

k=1

[ak cos 2kπ0 + bk sin 2kπ0] sin kπx =n∑

k=1

ak sin kπx

= sin 2πx

Das bedeutet a2 = 1, a1 = a3 = a4 = · · · = an = 0. Die zweite Anfangsbedingungwird uns die noch unbekannten Koeffizienten bk liefern.

ut(x, t) =n∑

k=1

2kπ[ak sin 2kπt− bk cos 2kπt] sin kπx.

Also folgt

ut(x, 0) =n∑

k=1

2kπ[ak cos 2kπ0 + bk sin 2kπ0] sin kπx

=n∑

k=1

2kπbk sin kπx = 0

Das geht naturlich nur fur bk = 0 fur k = 1, . . . , n.Das ergibt nun insgesamt unsere gesuchte Losung der Anfangsrandwertaufgabe:

u(x, t) = K · cos 4πt · sin 2πx, (12.65)

wobei wir mit K eine beliebige Konstante bezeichnen.

12.4.4 Numerische Losung mit dem Differenzenverfahren

Unser Vorgehen hier ahnelt sehr stark dem Verfahren bei parabolischen Gleichungen,wie wir es im Abschnitt 12.3.3 geschildert haben. Wieder ersetzen wir zur Berechnungeiner Naherungslosung die Differentialquotienten durch geeignete Differenzenquotien-ten. Betrachten wir nochmal das Beispiel 12.34:

Beispiel 12.35 Gegeben sei das Anfangs–Randwert–Problem der Wellengleichung:

utt(x, t) = 4uxx(x, t) 0 < x < 1, t > 0 Wellengleichungu(x, 0) = f(x) = sin 2πx 0 < x < 1 1. Anfangsbedingungut(x, 0) = g(x) = 0 0 < x < 1 2. Anfangsbedingungu(0, t) = u(1, t) = 0 t > 0 Randbedingungen

(12.66)

Page 519: 3486584472_Mathem

506 12 Partielle Differentialgleichungen

Zur Diskretisierung der Differentialgleichung unterteilen wir die Zeit in kleine Zeit-schritte der Große k > 0 und den Raum, also hier die x–Achse in kleine Ortsschritteder Lange h > 0.Zuerst benutzen wir sowohl fur die Zeitableitung als auch fur die Ortsableitung jeweilsden zentralen Differenzenquotienten an der Stelle ui,j, wobei wir wieder wie oben mitui,j die Naherung an unsere gesuchte Losung an der Stelle (xi, tj) bezeichnen, alsosetzen

uij ≈ u(xi, tj),

und erhalten die Gleichung

ui,j+1 − 2ui,j + ui,j−1

k2= 4 · ui+1,j − 2ui,j + ui−1,j

h2, (12.67)

fur i = 1, 2, . . . , n− 1 und j = 1, 2, . . .Nun kommt das Charakteristikum der Wellengleichung voll zum Tragen. Da in derDifferentialgleichung die zweite Ableitung nach der Zeit vorkommt, mußten wir denzweiten Differenzenquotienten verwenden. In obiger Gleichung stehen damit Werte imZeitschritt j−1, im Zeitschritt j und im Zeitschritt j+1. Unsere 1. Anfangsbedingungin (12.66) liefert uns die Werte im Zeitschritt j = 0. Wir brauchen jetzt also nochWerte im Zeitschritt j = 1, um dann mit dieser Gleichung die Werte im Zeitschrittj = 2, 3, . . . berechnen zu konnen. Woher nehmen, wenn nicht stehlen?Mister Brooke Taylor7, der im selben Jahr wie J. S. Bach geboren wurde, weist unsmit seiner Reihenentwicklung den Weg. Dazu mussen wir allerdings voraussetzen, daßdie Funktion f der ersten Anfangsbedingung zweimal stetig differenzierbar ist. Dannhalten wir die Stelle xn fest und entwickeln die Losung u(x, t) an der Stelle (xn, t1)nur bezuglich der Zeitvariablen um den Zeitpunkt t0 = 0 in eine Taylorreihe:

u(xn, t1) = u(xn, 0) + k · ut(xn, 0) +k2

2· utt(xn, 0) +O(k3).

Jetzt bringen wir unsere Differentialgleichung ins Spiel

= u(xn, 0) + k · g(xn) +k2

2· 4uxx(xn, 0) +O(k3).

Hier setzen wir die erste Anfangsbedingung ein:

= u(xn, 0) + k · g(xn) +k2

2· 4f ′′(xn) +O(k3).

Die zweite Ableitung approximieren wir jetzt mit dem zweiten zentralen Differenzen-quotienten:

= u(xn, 0)+k ·g(xn)+k2

2h2·4[f(xn−1−2f(xn)+f(xn+1)]+O(k2h2 +k3).

Diese Gleichung benutzen wir nun zur Berechnung von un1:7Taylor, B. (1685 - 1731)

Page 520: 3486584472_Mathem

12.4 Die Wellengleichung 507

un1 = un0 + k · g(xn) +k2

2h2· 4[f(xn−1 − 2f(xn) + f(xn+1)] +O(k2h2 + k3).

Damit kennen wir aus der ersten Anfangsbedingung die Werte zum Zeitpunkt t0 = 0,aus obiger Gleichung Naherungswerte zum Zeitpunkt t1 = k. Und so haben wir allesbeisammen, um mit der Gleichung (12.67) die Werte im Zeitschritt t2 = 2k, dann dieim Zeitschritt t = 3k usw. auszurechnen, und fahren solange fort, bis wir bei einemverabredeten Zeitpunkt ankommen. Wieder hilft uns unser Computer.

Wir wahlen eine Ortsdiskretisierung h = 0.05, indem wir 20 Ortsschritte vorgeben.Als Zeitintervall nehmen wir [0, 1]. Die Zeitdiskretisierung verandern wir von k = 0.01zu k = 0.025 und schließlich zu k = 0.027. Dadurch ergeben sich 100 bzw. 40 bzw 37Zeitschritte. Man mochte meinen, daß der Unterschied von 40 zu 37 doch uberhauptnichts bedeutet. Aber wehe, wenn ich auf das Ende sehe. Unsere mit dem Computerberechneten Naherungen vergleichen wir mit den Werten der exakten Losung (12.65):

Explizite Methode fur die Wellengleichung

Ort Naherung Naherung Naherung exakt100 Zeitschritte 40 Zeitschritte 37 Zeitschritte

0.0 0.000000 0.000000 0.00 0.0000000.1 0.587230 0.587786 −9497.27 0.5877870.2 0.950161 0.951057 −20895.21 0.9510560.3 0.950159 0.951056 −35143.76 0.9510560.4 0.587228 0.587783 −51419.44 0.5877870.5 −0.000004 −0.000003 −66739.52 0.0000000.6 −0.587234 −0.587789 −76429.15 −0.5877870.7 −0.950162 −0.951058 −75620.63 −0.9510560.8 −0.950156 −0.951055 −61384.83 −0.9510560.9 −0.587227 −0.587780 −34527.61 −0.5877871.0 0.000000 0.000000 0.00 0.000000

Das sieht ja zunachst bei 100 Zeitschritten und dann bei 40 Zeitschritten ganz manier-lich aus. Aber der Unterschied von 40 Zeitschritten zu nur noch 37 ist doch wahrlichgering. Und dann solch ein desolates Ergebnis.Die Erklarung bringt folgender Satz:

Satz 12.36 Ist die Losung unserer Anfangs–Randwert–Aufgabe (12.66) viermal stetigdifferenzierbar, so hat die explizite Methode (12.67) einen lokalen Diskretisierungsfeh-ler

O(k2 + h2). (12.68)

Sie ist stabil genau dann, wenn gilt

a2 · k2 ≤ h2. (12.69)

Page 521: 3486584472_Mathem

508 12 Partielle Differentialgleichungen

In unserem Beispiel war a2 = 4 gewahlt. Die Bedingung (12.69) vereinfacht sich dannhier zu

Stabilitat ⇐⇒ k ≤ h

2.

Wir haben fur das Ortsintervall [0, 1] in allen drei Durchrechnungen n = 20 und damith = 0.05 fest gewahlt. 100 Zeitschritte fur ein Zeitintervall [0, 1] bedeutet k = 0.01.Hier ist die Bedingung erfullt.Bei 40 Zeitschritten wird es schon knapp wegen k = 0.025.Wenn jetzt aber das kleine Sparschwein noch um drei Zeitschritte pokern will, verlierter alles. Hier ist k = 0.027 und damit großer als h/2 = 0.025. Das Ergebnis ist volligunbrauchbar.Wegen dieses chaotischen Verhaltens liegt es nahe, auch hier wie bei der Warmelei-tung nach einer impliziten Methode zu suchen, die dann stabil ist. Das machen wirfolgendermaßen:Wir ersetzen die zweite zeitliche Ableitung wie oben durch den zentralen zweiten Dif-ferenzenquotienten bei ui,j. Als Ersatz fur die zweite raumliche Ableitung verwendenwir eine Mittelung zwischen dem zweiten Differenzenquotienten bei ui,j+1 und dembei ui,j−1:

ui,j+1 − 2ui,j + ui,j−1

k2=

4h2

·[[ui+1,j+1 − 2ui,j+1 + ui−1,j+1]

2

+[ui+1,j−1 − 2ui,j−1 + ui−1,j−1]

2

]

fur i = 1, 2, . . . , n− 1 und j = 1, 2, . . . Diese Mittelung hat so etwas mehr Symmetrie-charakter bezuglich des Punktes ui,j . Weil hier die unbekannten Werte im Zeitschrittj + 1 links und rechts auftreten, ist es wieder eine implizite Methode. Wir multi-plizieren mit 2k2 und losen folgendermaßen auf:

−4k2

h2ui−1,j+1 +

(2 +

8k2

h2

)ui,j+1 − 4k2

h2ui+1,j+1 =

= 4ui,j − 2ui,j−1 +4k2

h2(ui+1,j−1 − 2ui,j−1 + ui−1,j−1) .

Hier schaut uns wieder ein tridiagonales lineares Gleichungssystem an, das wir mitHilfe des Rechners losen und mit der exakten Losung aus (12.65) vergleichen konnen:

Implizite Methode fur die Wellengleichung

Page 522: 3486584472_Mathem

12.4 Die Wellengleichung 509

Ort Naherung Naherung Naherung exakt100 Zeitschritte 40 Zeitschritte 37 Zeitschritte

0.0 0.000000 0.000000 0.000000 0.0000000.1 0.585313 0.563007 0.553871 0.5877870.2 0.947057 0.910966 0.896179 0.9510560.3 0.947055 0.910963 0.896177 0.9510560.4 0.585313 0.563003 0.553865 0.5877870.5 −0.000001 −0.000002 −0.000002 0.0000000.6 −0.585316 −0.563008 −0.553871 −0.5877870.7 −0.947055 −0.910965 −0.896179 −0.9510560.8 −0.947053 −0.910965 −0.896181 −0.9510560.9 −0.585311 −0.563008 −0.553870 −0.5877871.0 0.000000 0.000000 0.000000 0.000000

Hier wird das Ergebnis zwar bei Vergroßerung der Zeitschrittweite deutlich schlechter,aber ein totales Ausflippen der Werte wie beim expliziten Vorgehen tritt nicht auf.

Satz 12.37 Ist die Losung unserer Anfangs–Randwert–Aufgabe (12.66) viermal stetigdifferenzierbar, so hat die implizite Methode (12.70) einen lokalen Diskretisierungs-fehler

O(k2 + h2).

Sie ist ohne Einschrankung stabil.

Da haben wir also ganz analog zu unserer Erfahrung bei der Warmeleitung Stabi-litatsverlust bei der expliziten Vorgehensweise, wogegen die implizite Methode keinesolchen Probleme macht. Dafur muß man bei ihr ja auch ein Gleichungssystem losen.

Page 523: 3486584472_Mathem
Page 524: 3486584472_Mathem

Literaturverzeichnis

[1] Burg, K.; Haf, H.; Wille, F.: Hohere Mathematik fur Ingenieure, I – IVTeubner, Stuttgart, 1985/1987

[2] Dirschmidt, H.J.: Mathematische Grundlagen der ElektrotechnikVieweg, Braunschweig, 1987

[3] Engeln-Mullges, G.; Reutter, F.: Num. Mathematik fur IngenieureBI, Mannheim, 1978

[4] Feldmann, D.: Repetitorium der IngenieurmathematikBinomi Verlag, Springe, 1988

[5] Haase, H, Garbe, H.: ElektrotechnikSpringer-Verlag Berlin, u.a. , 1998

[6] Hammerlin, G.; Hoffmann, K.–H.: Numerische MathematikSpringer, Berlin u.a., 1989

[7] Hermann, M.: Numerische MathematikOldenbourg Wissenschaftsverlag, Munchen, 2001

[8] Herrmann, N.: Hohere Mathematik fur Ingenieure, AufgabensammlungBd. I und II, Oldenbourg Wissenschaftsverlag, Munchen, 1995

[9] Maess, G.: Vorlesungen uber numerische Mathematik I, IIBirkhauser, Basel u.a., 1985/88

[10] Meyberg, K., Vachenauer, P.: Hohere MathematikBand 1 und 2, Springer–Verlag, Berlin et al., 1990

[11] Papula, L.: Mathematik fur Ingenieure und NaturwissenschaftlerVieweg Verlag, Braunschweig et.al., 2001

[12] Schaback, R., Werner, H.: Numerische MathematikSpringer–Verlag, Berlin et al., 1993

[13] Schmeißer, G.; Schirmeier, H.: Praktische MathematikW. de Gruyter–Verlag, Berlin u.a., 1976

Page 525: 3486584472_Mathem

512 LITERATURVERZEICHNIS

[14] Schwarz, H. R.: Numerische MathematikTeubner, Stuttgart, 1988

[15] Schwetlick, H.; Kretschmar, H.: Numerische Verfahren fur Naturwissenschaftlerund IngenieureFachbuchverlag, Leipzig, 1991

[16] Tornig, W.; Spellucci, P.: Numerische Mathematik fur Ingenieure und Phys. I, IISpringer–Verlag, Berlin u.a., 1990

[17] Tornig, W.; Gipser, M.; Kaspar, B.: Numerische Losung von partiellen Differen-tialgleichungen der TechnikTeubner, Stuttgart, 1985

[18] Werner, H.; Arndt, H.: Gewohnliche DifferentialgleichungenSpringer–Verlag, Berlin u.a., 1986

[19] Worle, H.; Rumpf, H.-J.: Ingenieur–Mathematik in Beispielen I, II, IIIOldenbourg Verlag, Munchen, 1986

Page 526: 3486584472_Mathem

Index

Abbildungkontrahierende, 242

Ableitung bei Distributionen, 318Abschneide–Funktion, 202Adams–Bashforth

Formeln von, 388Adams–Moulton

Formel von, 389ahnliche Matrizen, 98Aquivalenz

Fixpunkt- und Nullstellensuche, 242Aquivalenzsatz von Lax, 391Algorithmus von Neville–Aitken, 180allgemeinste PDGl., 451allgemeinste PDGl. 2. Ordnung, 451Alternativsatz fur lin. Gleich.–Systeme ,

10Anfangs-Randwert-Problem, 460Anfangsbedingung, 459Anfangsbedingungen, 339Anfangswertaufgabe, 339Ansatz fur Galerkin–Verfahren, 411Ansatz fur Kollokation, 401Ansatz fur Kollokationsverfahren, 400Apfelmannchen, 259a posteriori Fehlerabschatzung, 245a priori Fehlerabschatzung, 245Ausgleichpolynom, 68autonomes System, 367AWA, 339

B–Splines, 203Bairstow

Verfahren von, 254Banachscher Fixpunktsatz, 243

fur Systeme, 257

Bandmatrix, 426Basislosung, 155Basisvariable, 155Bernoulli–Ansatz, 468, 473, 486, 503Brachystochrone, 434Butcher–Diagramm, 356

Cauchy–Folge, 414Cauchy–Problem

Wellengleichung, 500Cauchy-Daten, 459Cea

Lemma von, 431cg–Verfahren, 79charakteristisches Polynom, 95Cholesky–Zerlegung, 73

Losung mittels, 78Crank–Nicolson–Methode, 497C(a, b), 417

Daten, 38Defekt, 201Defekt bei Kollokation, 401Defektfunktion, 390degenerierter Eckpunkt, 153Delta–Distribution, 312diagonalahnlich, 98Dido

Problem der, 433Difeenzenquotient, 175Differentialgleichung

gewohnliche, 335Differenzenmethode, finite, 403Differenzenquotienten, 176, 405, 476Differenzenverfahren

Wellengleichung, 505

Page 527: 3486584472_Mathem

514 INDEX

DimensionHermite Splines, 193kubische Splines, 201lineare Splines, 188

Dirac–Maß, 312Dirichlet–Problem

Einzigkeit, 465Dirichlet–Problem fur die Poissongleichung

Einzigkeit, 467Dirichlet–Randbedingungen, 458Dirichletsche Randwertaufgabe, 462disjunkte Mengen, 100Distribution, 310

Ableitung, 318Faltung, 322Limes bei, 314regulare, 311singulare, 313

dyadisches Produkt, 108

Eckpunkt, 153degenerierter, 153entartet, 153

Eigenvektor, 94Eigenvektoraufgabe, 94Eigenwert, 94

Vielfachheit, 95Eigenwertaufgabe, 94Eigenwerte

Berechnung , 96eimplizite k–Schritt–Verfahren, 382Einbettungsansatz, 438Einschritt–Verfahren, 3481–Norm, 28Einzelschrittverfahren, 84elliptisch, 456entarteter Eckpunkt, 153euklidische Norm, 28Euler–Methode

explizite, 494implizite, 495

Euler–Polygonzug–Verfahren, 349Euler–Verfahren

implizites, 352

verbessertes, 351Eulersche Differentialgleichung

Variationsrechnung, 439Exaktheitsgrad einer Quadraturformel, 214Existenz und Einzigkeit

global, 342lokal, 347

Existenz und Einzigkeit bei RWA, 398Existenzsatz fur AWA, 340Explizite Euler–Methode, 494explizite k–Schritt–Verfahren, 382Extremalen, 440

f. u., 278Faber

Satz von, 186Faltung bei Distributionen, 322Faltung von Distributionen

Rechenregeln, 324Faßregel, 217fast uberall, 278FDM, 402, 403Fehlerabschatzung

a posteriori, 245a priori, 245

FEM, 425, 427Fehlerabschatzung, 432

FFT, 300Finite Differenzenmethode, 402finite Differenzenmethode, 403Finite Elemente, 425

Algorithmus, 427Fixpunkt, 241Fixpunktaufgabe, 241Fixpunktsatz

Banachscher, 243Banachscher fur Systeme, 257

Fixpunktverfahren, 242–248fur Systeme, 257

Frechet–Ableitung, 258Frobenius–Norm, 30Frobeniusmatrix, 19Funf–Punkte–Stern, 477Fundamentallemma

Page 528: 3486584472_Mathem

INDEX 515

Variationsrechnung, 439Funktion

stuckweise stetig, 269Funktional

lineares stetiges, 308Funktionalmatrix, 258

Galerkin–Verfahrenschwache Form, 424

Gateaux–Ableitung, 436Gaußsche Quadraturformeln

Exaktheitsgrad, 230Restglied, 230

Gaußsche Normalgleichungen, 66Gaußsche Quadraturformeln

G3, 227Gewichte, 230Stutzstellen und Gewichte, 236

gemischte Randbedingungen, 458Gesamtschrittverfahren, 84gewohnliche Differentialgleichung, 335Gewicht

des Funfpunktesterns, 477Gewichte einer Quadraturformel, 214Gleichgewichtspunkt, 365Grundfunktion, 437

Hauptabschnittsdeterminante, 13Hauptminor, 13Hauptteil, 451Hauptunterdeterminante, 13Heaviside–Funktion, 270Hermite–Interpolation, 184Hermite–Splines, 193hermitesch, 11Hermitesche Interpolation, 182

Existenz und Einzigkeit, 183Hessenberg–Form, 104heteronomes System, 367Hilbertmatrix, 35Homogenisierung

Randbedingungen, 396Householder

Verfahren von, 108

HymanVerfahren von, 116

hyperbolisch, 456

implizite Euler–Methode, 495implizites Euler–Verfahren, 352indefinite Matrix, 14inneres Produkt bei stetigen Funktionen,

413instabil, 365Interpolation

Hermite, 182, 184Interpolation mit kubischen Splines

Ansatz, 205Interpolationspolynom

Lagrange, 173inverse Iteration, 142inverse Matrix

L–R–Zerlegung, 56

Jacobi–Rotation, 130Jacobi–Rotationsmatrix, 128Jacobi–Verfahren

zyklisch, 133j–te schwache Ableitung, 418

Kardinalsplines, 202Keplerregel, 217Kleinste–Quadrate–Losung, 68Knotennummerierung, 477Koeffizientenmatrix des Hauptteils, 452Kollokationsstellen, 400, 401Kollokationsverfahren, 401Kondition, 33

Hilbert–Matrizen, 35konjugiert, 79konjugierte Gradienten, 79Konsistenz, 361

Mehrschritt–Verfahren, 384Konsistenz fur Mehrschritt–Verfahren

hinreichende Bedingung, 384Konsistenzordnung, 361Konsistenzordnung fur Mehrschritt–Verfahren,

384

Page 529: 3486584472_Mathem

516 INDEX

kontrahierende Abbildung, 242Kontraktion

hinreichende Bedingung, 243hinreichende Bedingung fur Systeme,

258Konvergenz

Differenzenverfahren, 481Naherungsverfahren fur AWA, 379

Konvergenz der FDM, 408Konvergenz des SOR–Verfahrens, 91Konvergenzordnung, 248, 379

des Newton–Verfahrens, 249des Sekanten–Verfahrens, 253linear, 248quadratisch, 248

KonvergenzsatzEinschrittverfahren, 381

korrekt gestellt, 460Kroneckersymbol, 173Krummung, 210k–Schritt–Verfahren

lineare, 382kubische Spline–Funktionen

Algorithmus, 206kubische Splines, 201kurzeste Verbindung, 434

L–R–Zerlegung, 44Durchfuhrung, 45Losung mittels, 54

Losungzulassige, 153

Lagrange–Grundpolynome, 173Lagrangesches Interpolationspolynom, 173Laplace–Gleichung, 453Laplace–Operator, 476

Polarkoordinaten, 464Legendre–Polynome, 228

normierte, 228Orthogonalitat, 229

Lloc1 (R), 310

Lemma von Cea, 431lineare Spline–Funktionen

Konstruktion, 190, 197

lineare Splines, 187lineares Gleichungssystem, 10Linearform

stetige, 308Lipschitz–Bedingung, 340

hinreichende Bedingung, 341Lipschitz–Bedingung fur Systeme, 341

hinreichnede Bedingung, 342lokaler Diskretisierungsfehler, 361

Mandelbrotmenge, 259Marcinkiewicz

Satz von, 187Matrix

ahnlich, 98diagonalahnlich, 98Frobenius–, 19hermitesch, 11Hessenberg–Form, 104indefinit, 14negativ definit, 14negativ definite, 26orthogonal, 16Permutations–, 18positiv definit, 12positiv definite, 26positiv semidefinit, 12positiv semidefinite, 26reduzibel, 23schwach zeilendiagonaldominant, 21stark zeilendiagonaldominant, 21symmetrisch, 11Transpositions–, 18zerfallend, 23

Matrixnorm, 30, 31Maximumnorm, 28Maximumprinzip, 465

Warmeleitung, 483McLaurin–Regeln, 223Membranschwingung, 453Milne–Simpson–Verfahren, 385Mittelpunktregel, 219

naturliche Spline–Funktion, 205

Page 530: 3486584472_Mathem

INDEX 517

Nebenbedingungen, 146negativ definite Matrix, 14negativ definite Matrix, 26Neumann–Randbedingungen, 458Neumannsche Randwertaufgabe, 472Neville–Aitken

Algorithmus von, 180Newton–Cotes–Regeln, 223Newton–Verfahren, 248–251

fur Systeme, 260–261modifiziertes, 262–264vereinfachtes, 261–262

Nichtbasisvariable, 155nichtlineare Gleichungen, 241

System, 256, 257Nitsche–Trick, 433Norm, 27

1–Norm, 28euklidische, 28Frobenius–, 30Maximum–, 28Schur–, 30Spaltensummen–, 31Spektral, 31Zeilensummen–, 31

Norm bei stetigen Funktionen, 413Norm einer Matrix, 30Norm im Sobolev–Raum, 416Normalenvektor, 458Normalgleichungen

Gaußsche, 66Normierung, 226Nullstellensuche, 241Nullvariable, 155

ONB, 11Optimierungsaufgabe, 152

lineare, 152Ordnung

Differentialgleichung, 336Ordnung einer Quadraturformel, 214orthogonal, 16Orthonormalbasis, 11

parabolisch, 456Permutationsmatrix, 18Picard–Iteration, 343Pivotelement, 160p–Norm, 27Poisson–Gleichung, 453Polarkoordinaten, 463Polygonzug–Verfahren von Euler, 349Polynominterpolation

Konvergenzatz, 186positiv definit, 12, 26positiv semidefinit, 12, 26Pradiktor–Korrektor–Verfahren, 392Prager-Oettli

Satz von, 39Produkt Funktion mit Distribution, 316Produktansatz, 486Produktansatz nach Bernoulli, 468, 473,

503

Q–R–Schritt, 121Q–R–Verfahren, 122Q–R–Verfahren von Francis, 119Q–R–Zerlegung, 59Quadraturformel, 214

Exaktheitsgrad, 214Gewichte, 214Ordnung, 214Restglied, 214summierte, 220

QuadratutformelStutzstellen, 214

Ruckwartsanalyse, 38Randbedingung, 459Randbedingungen, 396Randwertaufgabe

allgemeinste Form, 396Rayleigh–Quotient, 137Rayleigh–Quotienten–Verfahren, 139Rayleigh–Shift, 122Rechteckregel, 215reduzible Matrix, 23regulare Distribution, 311

Page 531: 3486584472_Mathem

518 INDEX

Regula falsi, 253Relaxationsparameter

optimaler, 91Residuenvektor, 79Richtungsableitung, 436Ritzverfahren, 445Runge–Kutta–Verfahren

s-stufig, 356Runge–Kuttta–Verfahren , 354

Saiteschwingende, 452

Satz von Prager-Oettli, 39Schlupfvariable, 152Schnelle Fourier–Analyse (FFT), 300Schrittweite, 402Schur–Norm, 30schwach zeilendiagonaldominant, 21schwache Ableitung, 416schwache Form, 413schwache Form der RWA, 422schwache Losung, 422schwaches Zeilensummenkriterium, 21schwingende Saite, 452Sekanten–Verfahren, 252–253selbstadjungierte DGl, 409Separationsansatz nach Bernoulli, 468, 473,

486, 503Shift, 118, 122, 144Simplex–Tableau, 157Simplexverfahren , 158singulare Distribution, 313Sobolev–Raume, 420SOR–Verfahren, 90

Konvergenz, 91Spaltenpivotisierung, 49, 50Spaltensummennorm, 31Spektralnorm, 31Spektralradius, 32Spiegelung, 93Spline–Funktion

Darstellungssatz, 202Extremaleigenschaft, 209naturliche, 205

Spline–Funktionen, 201Defekt, 201

Sprungfunktionschwache Ableitung, 418

stuckweise stetig, 269Stutzstellen einer Quadraturformel, 214stabil, 365Stabilitat

implizites Euler–Verfahren, 376Stabilitat des Euler–Verfahrens, 375Stabilitat des Trapez–Verfahrens, 377Stabilitat fur Mehrschritt–Verfahren, 390Stabilitatsgebiet, 374Standardaufgabe

Variationsrechnung, 437Standardform

lineare Optimierung, 146stark zeilendiagonaldominant, 21starkes Zeilensummenkriterium, 21stetige Linearform, 308Stutzstellen, 402Sturm–Liouville–Randwertaufgabe, 445symmetrisch, 11

TableauSimplex–, 157

Tableauauswertung , 162Tableaurechnung , 161Taylor–Entwicklung

Funktion zweier Variabler, 363Teleskopsumme, 210Testfunktion, 308, 417Testproblem fur Stabiitat, 373Trager einer Funktion, 417Transformation, 226Transpositionsmatrix, 18Trapez–Verfahren , 353Trapezregel, 216

summierte, 221Tricomigleichung, 454Typeinteilung, 454

uberbestimmtes Gleichungssystem, 72Umwandlung DGl in System, 336

Page 532: 3486584472_Mathem

INDEX 519

Variation der Konstantenbei Distibutionen, 326

Variationsrechnung, 433verbessertes Euler–Verfahren, 351Verfahren

von Householder, 108von Hyman, 116von Jacobi, 130, 133von Wielandt, 142von Wilkinson, 105

Verfahren von Bairstow, 253–255Verfahrensfunktion, 348vertragliche Normen, 33Vertraglichkeit

Matrixnorm – Vektornorm, 33Vielfachheit eines Eigenwertes, 95vollstandig, 414Volterra–Integralgleichung, 343Von–Mises–Verfahren, 137Vorwartsanalyse, 36

WarmeleitungARWA, 490Einzigkeit, 484Stabilitat, 484

Warmeleitungsgleichung, 453, 482Wellengleichung, 458, 498

ARWA, 502Cauchy–Problem, 459, 500Differenzenverfahren, 505Differenzenverfahren, explizit, 506Differenzenverfahren, implizit, 508

WielandtVerfahren von, 142

WilkinsonVerfahren von, 105

Wilkinson–Shift, 122Wurmproblem, 434Wurzelbedingung, 391

Zeilensummenkriteriumschwaches, 21starkes, 21

Zeilensummennorm, 31

zerfallende Matrix, 23Zielfunktion, 146zulassige Funktionen, 437zulassige Losung, 153zulassiger Punkt, 153