mehrkriterielle optimierung mit metaheuristiken (vorlesung) prof. dr. günter rudolph fachbereich...
TRANSCRIPT
![Page 1: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/1.jpg)
Mehrkriterielle Optimierung mit Metaheuristiken
(Vorlesung)
Prof. Dr. Günter Rudolph
Fachbereich Informatik
Lehrstuhl für Algorithm Engineering (LS XI)
Fachgebiet Computational Intelligence
Sommersemester 2006
![Page 2: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/2.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 2
Kapitel 3: Analytische Lösung
Definition 3.1:
Sei M µ Rn und > 0.
U(x0) = { x 2 Rn : || x – x0 || ≤ } heißt -Umgebung von x0 2 M.
x 2 M innerer Punkt von M , 9 > 0: U(x) µ M. Sonst: Randpunkt von M.
Das Innere von M = Menge aller inneren Punkte. In Zeichen: int(M).
Der Rand von M = Menge aller Randpunkte. In Zeichen: M. ■
x
x
innerer Punkt
Randpunkt
![Page 3: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/3.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 3
Kapitel 3: Analytische Lösung
Definition 3.2:
Seien A, B µ Rn.
A + B := { a + b : a 2 A Æ b 2 B } algebraische Summe
A – B := { a – b : a 2 A Æ b 2 B } algebraische Differenz
A := { a : a 2 A } skalares Vielfaches ■
A + { 0 } = A
A + B = B + A
A – B = A + (-1) B
(A + B) = A + B
( + ) A µ A + A
→ 2A ≠ A + A (im Allgem.)
Rechenregeln:
![Page 4: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/4.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 4
Kapitel 3: Analytische Lösung
Definition 3.3:
K µ Rn heißt Kegel 8 x 2 K: 8 ≥ 0: x 2 K.
Kegel –K := { -x : x 2 K } heißt Diametralkegel von K.
Kegel K heißt
(a) konvex, falls 8 x1, x2 2 K: x1 + x2 2 K,
(b) nichttrivial, falls 0 2 K und K ≠ { 0 } und K ≠ Rn,
(c) echt, falls 0 2 K und K Å (-K) = { 0 }. ■
echt, konvex, nichttrivial
K = { x 2 R2 : x2 ≥ 0 } konvex, nichttrivial, nicht echt
weil K Å (-K) = { x 2 R2 : x2 = 0 } ≠ { (0, 0)‘ }
![Page 5: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/5.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 5
Kapitel 3: Analytische Lösung
Definition 3.4:
M µ Rn heißt
(a) konvex, falls 8 x, y 2 M: 8 2 (0,1): x + (1 - ) y 2 M,
(b) K-konvex oder kegelkonvex mit Kegel K, falls M + K konvexe Menge für einen echten, nichttrivialen, konvexen Kegel K. ■
konvex
nicht konvex
R+2 -konvex
![Page 6: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/6.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 6
Kapitel 3: Analytische Lösung
Satz 3.1:
(a) Die algebraische Summe konvexer Mengen ist konvex.
(b) Das kartesische Produkt konvexer Mengen ist konvex.
(c) Der Durchschnitt konvexer Mengen ist konvex. ■
ad a) Menge A konvex Æ Kegel K konvex ) A + K konvex (und K-konvex)
ad b) Menge A konvex ) An konvex
ad c) Seien x, c, d 2 Rn
{ x 2 Rn : c‘x ≤ 0 } und { x 2 Rn : d‘x ≤ 0 } konvexe Hyperebenen
{ x 2 Rn : c‘x ≤ 0 } Å { x 2 Rn : d‘x ≤ 0 } konvex
{ x 2 Rn : c‘x ≤ 0 Æ d‘x ≤ 0 } konvex
![Page 7: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/7.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 7
Kapitel 3: Analytische Lösung
Definition 3.5:
Seien x1, x2 2 X µ Rn und 2 [0,1]. Funktion f: X → Z µ Rm heißt
(a) konvex, falls f( x1 + (1 - ) x2 ) ≤ f(x1) + (1 - ) f(x2),
(b) konkav, falls –f konvex ist,
(c) linear oder affin, wenn f sowohl konvex als auch konkav. ■
konvex
konkav
linearweder konvex noch
konkav
![Page 8: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/8.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 8
Kapitel 3: Analytische Lösung
Satz 3.2:
Sei X µ Rn konvex und f: X → Rm mit f(x) = Ax + b affine Abbildung.
Dann Bild f(X) = { f(x) : x 2 X } von X konvex.
Beweis:
X konvex 8 2 [0,1]: 8 x1, x2 2 X:
x1 + (1-) x2 2 X und f( x1 + (1-) x2 ) 2 f(X).
Seien z1, z2 2 f(X) und x1, x2 2 X derart gewählt, dass z1 = f(x1), z2 = f(x2).
Zu zeigen: z1 + (1 - ) z2 2 f(X).
z1 + (1 - ) z2 = (Ax1 + b) + (1-)(Ax2 + b)
= A( x1 + (1-) x2) + b( + (1-))
= f( x1 + (1-) x2 ) 2 f(X) ■
![Page 9: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/9.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 9
Kapitel 3: Analytische Lösung
Gilt das vielleicht sogar für konvexe Funktionen über konvexen Mengen?
→ Nein! Gegenbeispiel:
f(x) = ( x, x2 )‘ mit X = [ -1, 1 ] ½ R
konvex konvex0 1
1
-1f1
f2
f(X) nicht konvex!
Anmerkung:
9 weitere Klassen von Funktionen über konvexe Mengen, deren Bilder konvex sind.
Hier nicht von Bedeutung, da nur Kegelkonvexität der Bilder entscheidend:
![Page 10: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/10.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 10
Kapitel 3: Analytische Lösung
Satz 3.3:
Sei X µ Rn konvex und f: X → Rm konvex.
Dann Bild f(X) kegelkonvex mit Kegel K = R+
Beweis:
Wenn ž1, ž2 2 Ž = f(X) + K, dann 9 v1, v2 2 K Æ x1, x2 2 X:
ž1 = z1 + v1 = f(x1) + v1 und ž2 = z2 + v2 = f(x2) + v2.
Wegen 1, 2 ≥ 0 mit 1 + 2 = 1 und der Konvexität von f(.) folgt
1 ž1 + 2 ž2 = 1 f(x1) + 2 f(x2) + 1v1 + 2v2 ≥ f(1x1 + 2x2) + 1v1 + 2v2
Da K konvexer Kegel, ist v1,2 := 1v1 + 2v2 2 K und 9v3 2 K: v := v1,2 + v3 2 K.
) 1 ž1 + 2 ž2 = f(1x1 + 2x2) + v 2 f(X) + K für geeignetes v bzw. v3 ■
m
![Page 11: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/11.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 11
Kapitel 3: Analytische Lösung
Definition 3.6:
Sei X µ Rn und f: X → Rm, m ≥ 2.
Mehrkriterielles Optimierungsproblem
(f1(x), f2(x), …, fm(x))‘ → min!
bzgl. x 2 X ■
Definition 3.7:
Lösung x* 2 X heisst Pareto-optimal ex. kein x 2 X mit f(x) Á f(x*).
Wenn x* Pareto-optimal, dann f(x*) effizient.
Wenn f(x) ¹ f(y), dann: x dominiert y, f(x) dominiert f(y).
Menge aller Pareto-optimalen Punkte = Paretomenge
Menge aller effizienten Punkte = effiziente Menge oder Paretofront. ■
![Page 12: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/12.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 12
Kapitel 3: Analytische Lösung
Satz 3.5:
Sei F ½ Rm. Es gilt F* µ F.
Beweis: Annahme: z 2 F* jedoch z F.
Deshalb: ) z 2 int(F) ) 9 > 0: U(z) ½ F.
Wähle Richtung r 2 Rm mit r ≥ 0 und Schrittweite s > 0 mit ||sr|| < .
) z0 = z – sr 2 F liegt sogar 2 int(F) und z0 ¹ z
) z F* WIDERSPRUCH zur Annahme! ■
Satz 3.6:
Sei F ½ Rm. Dann F* = (F + R+ )*.■
m
![Page 13: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/13.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 13
Kapitel 3: Analytische Lösung
Definition 3.8: (Kuhn/Tucker 1951)
Sei f: X → Rm differenzierbar.
x* 2 X heisst eigentlich Pareto-optimal ,
• x* ist Pareto-optimal und
(a) es existiert kein h 2 Rm mit
wobei J(x*) = { j = 1,…,m : gj(x*) = 0 } die Menge der aktiven Indices. ■
![Page 14: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/14.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 14
Kapitel 3: Analytische Lösung
notwendig: Determinante der Jacobi-Matrix muss Null sein!
Beispiel:
Jacobi-Matrix
![Page 15: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/15.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 15
Kapitel 3: Analytische Lösung
optimale eigennützigeLösungen
![Page 16: Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)](https://reader036.vdocuments.pub/reader036/viewer/2022062417/55204d7549795902118c9c16/html5/thumbnails/16.jpg)
Rudolph: MOMH (SS 2006) ● Kap. 3: Analytische Lösung 16
Kapitel 3: Analytische Lösung
Optima von f1
c = 10, d = 0, k = 0, l = 0
Optima von f2
( 0, 0 )
ca. (+/- 1.662, +/- 1.504)
Noch ein Beispiel:
Berechnung analytischer Lösung noch möglich
aber Grenzen der analytischen Lösbarkeit erreicht!