l e r n s k r i p t - fernuniversität hagen · 1.3 randrepräsentationen (constructive solid...

46
L E R N S K R I P T Kurs 1279 Computergrafik SS 2007 Dr. Michael Felten Erstellt von: Hendrik Bornholdt E-Mail: [email protected]

Upload: others

Post on 19-Oct-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

  • L E R N S K R I P T

    Kurs 1279 Computergrafik

    SS 2007

    Dr. Michael Felten

    Erstellt von: Hendrik Bornholdt E-Mail: [email protected]

  • Erstellt von: Hendrik Bornholdt - 2 - Stand: SS2007

    1. Körper ................................................................................................................................................................. 4 1.3 Randrepräsentationen (Constructive Solid Geometry) ................................................................................. 4 1.4 CSG (Constructive Solid Geometry)............................................................................................................ 4

    1.4.1 Darstellung und Konstruktion von CSG-Objekten ............................................................................... 4 1.4.2 Algorithmen für CSG-Modelle und graphische Darstellung von CSG-Modellen ................................ 5

    1.4.2.1 Klassifikation von Mengen bezüglich eines CSG-Objektes ......................................................... 5 1.4.2.2 Fläche-Körper-Klassifikation – Boundary Evaluation.................................................................. 5 1.4.2.3 Raytracing-Methoden und direkte Displayalgorithmen................................................................ 6 1.4.2.4 Berechnung integraler Eigenschaften von CSG-Modellen ........................................................... 6

    1.5 Zellmodelle .................................................................................................................................................. 6 1.5.1 Zellzerlegung........................................................................................................................................ 6 1.5.2 Räumliche Aufzählungsmethoden........................................................................................................ 6 1.5.3 Quadtrees.............................................................................................................................................. 7

    1.5.3.1 Konstruktion von Quadtree und Octree ........................................................................................ 7 1.5.3.2 Mengenoperationen, Transformationen und Berechnung integraler Eigenschaften von Körpern 7 1.5.3.3 Lineare Octrees und Quadtrees ..................................................................................................... 7 1.5.3.4 Binary Space Partitioning Trees (BSP Trees)............................................................................... 8

    1.6 Hybridmodelle.............................................................................................................................................. 8 1.6.1 Probleme mit Hybridmodellen......................................................................................................... 8 1.6.2 Aufbau eines Hybrid-Modellierers .................................................................................................. 8

    2. Lokale Beleuchtungsmodelle .............................................................................................................................. 9 2.1 Einleitung ..................................................................................................................................................... 9 2.2 Physikalische Grundlage .............................................................................................................................. 9

    2.2.1 Strahlungsphysikalische (radiometrische) Grundgrößen ...................................................................... 9 2.2.2 photometrische Grundgrößen ............................................................................................................. 10 2.2.3 Strahlungsaustausch zwischen Oberflächen ....................................................................................... 10

    2.3 Farbmetrik .................................................................................................................................................. 11 2.3.1 Grundlage der additiven Farbmischung.............................................................................................. 11 2.3.2 Auge und Farbsehen ........................................................................................................................... 12 2.3.3 Spektralwerte ...................................................................................................................................... 12

    2.4 Farbmodelle................................................................................................................................................ 12 2.4.1 Technisch-physikalische Farbmodelle................................................................................................ 12 2.4.2 Wahrnehmungsorientierte Farbmodelle ............................................................................................. 12

    2.5 Beleuchtungsmodelle ................................................................................................................................. 13 2.5.2 lokales (empirisches) Beleuchtungsmodell ........................................................................................ 13

    2.5.2.1 ambientes Licht........................................................................................................................... 13 2.5.2.2 ideal diffus reflektiertes Licht ..................................................................................................... 14 2.5.2.3 gerichtet diffus reflektiertes Licht (Phong) ................................................................................. 14

    2.5.3 lokale Beleuchtungsalgorithmen ........................................................................................................ 14 2.5.3.1 Konstante Beleuchtung (flat shading)......................................................................................... 14 2.5.3.2 Gouraud–Algorithmus ................................................................................................................ 14 2.5.3.3 Phong–Algorithmus .................................................................................................................... 15

    3. Globale Beleuchtungsmodelle .......................................................................................................................... 16 3.1 Strahlenverfolgung (Raytracing) ................................................................................................................ 16 3.2 Radiosity .................................................................................................................................................... 18

    4. Fraktale Geometrie............................................................................................................................................ 20 4.1 Selbstähnlichkeit und fraktale Dimension.................................................................................................. 20

    4.1.1 Fraktale Dimension............................................................................................................................. 20 4.1.2 Peanokurven ....................................................................................................................................... 21

    4.2 Dynamische Systeme ................................................................................................................................. 21 4.2.1 Grundbegriffe der Theorie diskreter dynamischer Systeme ............................................................... 21 4.2.2 Julia-Mengen ...................................................................................................................................... 21 4.2.3 Mandelbrot-Mengen ........................................................................................................................... 22

    4.2.3.1 Algorithmen zur Berechnung von Mandelbrot-Mengen für die Funktion .................................. 22 4.4 Iterierte Funktionssysteme ......................................................................................................................... 23

    4.4.3 Das Collage-Theorem – Generieren von IFS-Code............................................................................ 23 4.5 Lindenmayersysteme.................................................................................................................................. 23

    4.5.1.2 Schildkröten als Bindeglied zwischen Formalismus und Anschauung....................................... 24 4.5.2 Geklammerte L-Systeme ............................................................................................................... 24 4.5.3.1 Kontextsensitive L-Systeme ....................................................................................................... 24 4.5.3.2 Geklammerte kontextsensitive L-Systeme.................................................................................. 24

    5. Grundlagen der Bildverarbeitung...................................................................................................................... 25

  • Erstellt von: Hendrik Bornholdt - 3 - Stand: SS2007

    5.1 Einführung.................................................................................................................................................. 25 5.2 Digitale Halbtonverfahren.......................................................................................................................... 25

    5.2.1 Verfahren mit festem Schwellwert ..................................................................................................... 25 5.2.1.1 Konstanter und angepasster Schwellwert.................................................................................... 25 5.2.1.2 Error-Diffusion ........................................................................................................................... 25

    5.2.2 Verfahren mit variablem Schwellwert (Dither-Verfahren)................................................................. 26 5.2.3 Grautonmuster .................................................................................................................................... 26 5.2.4 Dot-Diffusion ..................................................................................................................................... 26

    5.3 Die Fourier-Transformation ....................................................................................................................... 26 5.3.1 Einleitung ........................................................................................................................................... 26 5.3.2 Die kontinuierliche Fourier-Transformation....................................................................................... 26

    5.3.3 Die diskrete Fourier-Transformation ............................................................................................. 28 5.3.4 Eigenschaften der Fourier-Transformation .................................................................................... 29

    5.3.6 Abtasttheorem und Bildfilterung ........................................................................................................ 30 5.3.6.1 Bildfilterung................................................................................................................................ 30

    5.3.7 Translation.......................................................................................................................................... 31 5.3.8 Skalierung........................................................................................................................................... 31 5.3.10 Quantisierungsfehler......................................................................................................................... 31 5.3.11 Fast Fourier Transformation (FFT) .................................................................................................. 31

    5.4 Bildverbesserung........................................................................................................................................ 32 5.4.1 Grauwertmanipulation ........................................................................................................................ 32 5.4.2 Histogramm-Manipulation ................................................................................................................. 33 5.4.3 Gleitender Mittelwelt und Medianfilter .............................................................................................. 34 5.4.4 Tiefpassfilter....................................................................................................................................... 34 5.4.5 Hochpassfilter..................................................................................................................................... 35 5.4.6 Butterworth-Filter............................................................................................................................... 35

    6. Grundlagen der Mustererkennung..................................................................................................................... 36 6.1 Kantendetektion ......................................................................................................................................... 36

    6.1.1 Der Begriff der „Kante“, Kantenmodelle ........................................................................................... 36 6.1.2 Anforderungen und Schwierigkeiten bei der Kantendetetion............................................................. 36 6.1.3 Kantendetektionsschema .................................................................................................................... 37 6.1.4 Kantenoperatoren................................................................................................................................ 37 6.1.5 Differentiation .................................................................................................................................... 37 6.1.6 Differenz-Operatoren erster Ordnung................................................................................................. 38

    6.1.6.2 Prewitt-Operator ......................................................................................................................... 39 6.1.6.2 Sobel-Operator............................................................................................................................ 39

    6.1.7 Differenz-Operatoren zweiter Ordnung.............................................................................................. 40 6.1.7.1 Laplace-Operator ........................................................................................................................ 40

    6.1.8 Der Marr-Hildreth-Operator ............................................................................................................... 40 6.1.9 Der Canny-Operator ........................................................................................................................... 41

    6.1.9.1 Non-Maxima-Supression-Verfahren zur Kantenerkennung ....................................................... 41 6.1.10 Hough-Transformation ..................................................................................................................... 41

    6.2 Skelettierungsalgorithmen.......................................................................................................................... 41 6.3 Bildsegmentierung ..................................................................................................................................... 41

    7. Texturen ............................................................................................................................................................ 42 7.1.2 Texturabbildungen.............................................................................................................................. 42 7.1.3 Diskrete und prozedurale Texturen .................................................................................................... 42 7.1.4 Beleuchtungsrechnung und Texturen ................................................................................................. 43

    7.2 2D-Texturen ............................................................................................................................................... 43 7.2.1 Texturierung von Polygonflächen ...................................................................................................... 43 7.2.2 Texturierung parametrisierter Flächen................................................................................................ 44 7.2.3 Texturierung komplexer Objektoberflächen....................................................................................... 44

    7.2.3.1 Zylinder-Mapping....................................................................................................................... 44 7.2.3.2 Kugel-Mapping................................................................................................................................ 44 7.2.3.3 Box-Mapping................................................................................................................................... 45 7.2.4 Texturkoordinaten außerhalb des Gültigkeitsbereichs........................................................................ 45 7.2.5 Reflection Mapping und Environment Mapping ................................................................................ 45

    7.2.5.1 Reflection Mapping .................................................................................................................... 45 7.2.5.1 Environment Mapping ................................................................................................................ 45

    7.2.6 Bump Mapping................................................................................................................................... 45 7.4 3D-Textur ................................................................................................................................................... 46

  • 1. Körper FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 4 - Stand: SS2007

    1. Körper

    1.3 Randrepräsentationen (Constructive Solid Geometry) Ein Körpermodell kann eindeutig durch seine Oberfläche und eines zugehörige Orientierung beschrieben werden. Wegen der topologischen Orientierung ist für jeden Punkt der Oberfläche eindeutig festgelegt, auf welcher Seite das Innere des Objekts liegt. BReps benutzen diese Tatsache und beschreiben 3D-Objekte durch ihre Oberfläche.

    1.4 CSG (Constructive Solid Geometry)

    - Körper werden durch Bäume Boolescher Operatoren und Primitiva, sogenannte CSG-Bäume,

    beschrieben

    1.4.1 Darstellung und Konstruktion von CSG-Objekten

    - Die Darstellung von CSG-Objekten als Bäume ist eng mit der Konstruktion der Objekte verknüpft. - Die Knoten des Baumes repräsentieren regularisierte Boolesche Mengenoperationen bzw.

    Transformationen im Raum, welche die Lage eines Primitivums im dreidimensionalen Raum definieren.

    - Die Blätter des Baumes verweisen auf Primitiva (Quader, Zylinder, Kugel, Kegel,…) - Die Konstruktionsmethode eines Objektes in CSG ist nicht eindeutig. Durch Umformen des durch

    einen Baum gegebenen Booleschen Ausdruckes kann man weitere Konstruktionsmethoden und damit äquivalente Darstellungen, d.h. CSG-Bäume, für dasselbe Objekt finden. Zwischenobjekte sind dann jedoch möglicherweise unterschiedlich.

  • 1. Körper FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 5 - Stand: SS2007

    1.4.2 Algorithmen für CSG-Modelle und graphische Darstellung von CSG-Modellen

    - In einem CSG-Baum wird die Geometrie von Kanten und Flächen nicht abgespeichert - geometrischen Daten eines Objektes müssen also erst aus dem CSG-Baum ermittelt werden

    1.4.2.1 Klassifikation von Mengen bezüglich eines CSG-Objektes

    - Bei der Klassifikation einer Menge C bezüglich eines CSG-Objektes R werden folgende Mengen bestimmt:

    o CinR: besteht aus denjenigen Punkten von C, die in R liegen o CaufR: besteht aus denjenigen Punkten von C, die auf dem Rand von R o CausR: besteht aus den Punkten von C, die nicht in R liegen

    - Typen o Punkt-Körper-Klassifikation: die Menge C besteht aus einem Punkt o Kurve-Körper-Klassifikation o Fläche-Körper-Klassifikation

    - Mit Hilfe dieser Klassifikationen kann z.B. entschieden werden, wie eine Fläche einen Körper schneidet, ob ein Punkt in einem Körper liegt oder ob der Schnitt zwischen zwei Körpern leer ist.

    - Die Klassifikation einer Menge bezüglich eines CSG-Objektes muss auf dessen Primitiva zurückgeführt werden, da die tatsächlichen Geometriedaten nur in diesen Primitiva gespeichert sind.

    - CSG-Baum wird von der Wurzel rekursiv bis zu den Primitiva durchlaufen. - Für die Primitiva selbst wird die Klassifikation dann anhand ihrer Geometriedaten durchgeführt. - Die Ergebnisse dieser Klassifikationen werden dann mit Hilfe der Operatoren im CSG-Baum wieder

    zusammengesetzt, um eine Klassifikation für das ganze Objekt zu erhalten. - Gerade-Körper-Klassifikation

    1.4.2.2 Fläche-Körper-Klassifikation – Boundary Evaluation

    - Klassifikation analog zur Gerade-Körper-Klassifikation - kann zur Konvertierung einer CSG-Darstellung in eine BRep verwendet werden. - Die Algorithmen zur Konvertierung basieren auf einem sogenannten „erzeuge und teste“-Paradigma

    für Flächen und Kanten

  • 1. Körper FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 6 - Stand: SS2007

    1.4.2.3 Raytracing-Methoden und direkte Displayalgorithmen

    - Bei direkten Displayalgorithmen wird eine vollständige Konvertierung der CSG-Darstellung in eine BRep vermieden.

    - Anstatt den CSG-Baum vollständig zu berechnen, wird er nur entlang bestimmter Strahlen im Raum genauer untersucht, wie das auch bei Raytracing auf den Pixeln der Scanlines eines Rasterdisplays der Fall ist.

    - Dadurch werden dreidimensionale Mengenoperationen auf eindimensionale (entlang der Strahlen) reduziert.

    1.4.2.4 Berechnung integraler Eigenschaften von CSG-Modellen

    - Ausschöpfungsmethode: verwendet eine Punkt-Körper-Klassifikation. - der gesamte R3 wird in kleine Würfel zerlegt ist. - Für die Mittelpunkte der einzelnen Würfel wird dann zunächst festgestellt, ob sie innerhalb, auf oder

    außerhalb des betrachteten Körpers liegen. - Zur Volumenberechnung wird dann das Volumen aller Würfel mit Mittelpunkt im Körper addiert.

    1.5 Zellmodelle - ein Körper wird in eine Menge sich nicht überlappender, benachbarter Zellen zerlegt - diese können verschiedene Formen, Größen, Lagen und Orientierungen besitzen. - Man unterscheidet die folgenden Modelle:

    o Zellzerlegungen o Räumliche Aufzählungsmethoden o adaptive Darstellungen (Quadtrees, Octrees, Binary Space Partitioning Trees)

    1.5.1 Zellzerlegung

    - Eine Zellzerlegung basiert auf einer bestimmten Anzahl von Zelltypen und einem einfachen Operator zum Zusammensetzen dieser Zellen.

    - Zellen können beliebige Objekte sein, die keine Löcher besitzen. Nachteile dieser Darstellung: - Die Darstellung selbst muss nicht eindeutig sein. - Die Überprüfung einer Darstellung auf ihre Richtigkeit ist aufwendig, da jedes Paar von Zellen einer

    Zerlegung auf mögliche nicht erlaubte Überschneidungen hin überprüft werden muss.

    1.5.2 Räumliche Aufzählungsmethoden

    Bei räumlichen Aufzählungsmethoden wird der R3 in ein festes Raster von kleinen Würfeln eingeteilt. Diese Elementarwürfel bezeichnet man als Voxel. Vorteile: - Körper können eindeutig dargestellt werden. - Algorithmen zum Generieren von neuen Körpern aus schon bestehenden sind relativ einfach. Nachteile: - Großer Speicherbedarf - Es können nur diejenigen Objekte exakt beschrieben werden, deren Oberflächen parallel zu den

    Oberflächen der Voxel verlaufen.

  • 1. Körper FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 7 - Stand: SS2007

    1.5.3 Quadtrees

    1.5.3.1 Konstruktion von Quadtree und Octree

    - Bei einem Quadtree wird die Ebene in Quadranten eingeteilt. - Eine gegebene Fläche überdeckt jeden dieser Quadranten ganz, teilweise oder überhaupt nicht - 2D-Repräsentation zur Codierung von Bildern - Fläche wird in 4 Quadranten aufgeteilt - Teilweise überdeckte Quadranten werden rekursiv in kleinere Quadranten aufgeteilt bis alle Quadranten

    mit schwarz oder weiß gekennzeichnet sind oder die Rekursionstiefe erreicht ist.

    1.5.3.2 Mengenoperationen, Transformationen und Berechnung integraler Eigenschaften von Körpern

    - Diese Operationen beruhen auf Traversierungsalgorithmen. Dabei wird der zu einem Körper gehörende Octree von der Wurzel bis hin zu den Blättern durchlaufen.

    - Mengenoperationen, z.B. Vereinigung von zweier Körpern, dabei werden jeweils die Oktanden mit der gleichen Nummerierung verglichen.

    - Geometrische Operationen, wie Translation, Rotation, Skalierung oder perspektivische

    Transformationen auf Quadtrees und Octrees sind nur in Sonderfällen (Rotation um 90°) einfach zu implementieren.

    - Um integrale Eigenschaften eines Körpers wie Volumen, Masse und Oberfläche zu berechnen, genügen meistens auch einfache Traversierungsalgorithmen. Es werden die a priori bekannten Volumina einzelner, mit schwarz gekennzeichneter Oktanden aufaddiert.

    - Um bestimmte visuelle Effekte (z.B. glatte Oberflächen) zu erhalten, sind Algorithmen zur Bestimmung von Nachbarknoten erforderlich.

    1.5.3.3 Lineare Octrees und Quadtrees

    - Obwohl bei Octrees im Gegensatz zu Aufzählungsmethoden viel Speicher eingespart werden kann, ist der Speicherbedarf verglichen zu anderen Repräsentationen noch sehr groß.

    - aus diesem Grunde auch lineare Datenstrukturen eingesetzt: - z.B. 023 030 031 102 112 122 132 221 301 303 310 312 320 321 330

  • 1. Körper FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 8 - Stand: SS2007

    1.5.3.4 Binary Space Partitioning Trees (BSP Trees)

    - Binäre Raumaufteilung: Baumknoten beschreiben zwei Halbräume

    - Alternative zum Octree - Im allgemeinen Fall entstehen die Teilbäume durch

    eine Trennung mit Hilfe einer Ebene mit beliebiger Richtung, Orientierung und Lage.

    - Zu jedem Knoten gehören dabei die Gleichung einer Fläche und zwei Zeiger auf die beiden, durch die Ebene definierten Halbräume

    1.6 Hybridmodelle - Keiner der drei wichtigsten Zugänge zu Solid Modelling (Boundary-Darstellung, CSG-Darstellung

    oder Räumliche Zerlegungsmethoden) ist für alle Anwendungen gleich gut geeignet. - Daher werden bei der Implementierung oft mehrere Modelle gleichzeitig verwendet. - Dabei muss auf die Konsistenz der Daten in den verschiedenen Repräsentationen geachtet werden. Um

    von einer Repräsentation in eine andere zu wechseln, sind entsprechende Konvertierungsalgorithmen notwendig.

    - CSG ist z.B. für den Anwender am besten als Repräsentationsart geeignet - BReps hingegen zur schnellen Visualisierung - Beispiel eines Hybridmodellierers ist daher ein CSG-BRep-Modellierer. Die CSG-Datenstruktur wird

    dabei als Modelldatenstruktur verwendet.

    1.6.1 Probleme mit Hybridmodellen

    Probleme: - Konvertierungen zwischen den Darstellungen - Konsistenz

    Konvertierung zwischen den Darstellungen

    - CSG-Modelle haben den Vorteil, dass sie in alle anderen Darstellungen konvertiert werden können. - Das Problem der Konvertierung von Boundary-Modellen in CSG-Modelle ist bisher noch nicht gelöst.

    Dagegen lassen sich Boundary-Modelle ähnlich einfach wie CSG-Modelle in Zellmodelle umrechnen. Die Konvertierung von Zellmodellen in BRep- oder CSG-Modelle wäre wünschenswert, um z.B. digitale, dreidimensionale Informationen in entsprechende BRep- oder CSG-Darstellungen umzuwandeln.

    - Sie stehen aber im Allgemeinen nicht zur Verfügung. Umwandlungen von Boundary- oder CSG-Darstellungen in Zelldarstellungen sind approximativ (annäherungsweise).

    - Wurde eine Zelldarstellung aus exakten Darstellungen wie BRep- oder CSG-Darstellung gewonnen, so sind Rückkonvertierungen nicht sinnvoll.

    Konsistenz

    - Die Konsistenz zwischen verschiedenen Repräsentationen ist ein nur sehr schwer erreichbares Ziel. - Numerische Ungenauigkeiten der Konvertierungsalgorithmen können zu inkonsistenten Darstellungen

    ein und desselben Objektes innerhalb des Modellierers führen. - Ein weiteres Problem ist, dass Konvertierungsalgorithmen von der einen in die andere Darstellung nur

    auf gewisse Objekte anwendbar sind. - Im Allgemeinen kann eine Konsistenz zwischen verschiedenen Repräsentationen nur für solche Objekte

    erreicht werden, die vollständig von der einen in eine andere Darstellung konvertiert werden können.

    1.6.2 Aufbau eines Hybrid-Modellierers

    - Um Probleme mangelnder Konvertierungsalgorithmen und Konsistenz zu lösen, wird in Hybrid-Modellierern häufig eine der Repräsentationen als Primärrepräsentation und die andere(n) als Sekundärrepräsentation(en) verwendet.

    - Meistens handelt es sich dabei um eine primäre CSG-Datenstruktur, die um eine sekundäre BRep-Datenstruktur erweitert ist

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 9 - Stand: SS2007

    2. Lokale Beleuchtungsmodelle

    2.1 Einleitung - ein Beleuchtungsmodell ist eine Vorschrift zur Berechnung der Farb- und Grauwerte der einzelnen

    Bildpunkte eines Bildes. - die Einflüsse der Lichtquellen (Lage, Größe, Stärke, spektrale Zusammensetzung) sowie der

    Oberflächenbeschaffenheit (Geometrie, Reflexionseigenschaften) auf die Farbe eines Bildpunktes werden erfasst.

    - es beschreibt und berechnet (mit vernünftigem Aufwand) den Vorgang der Lichtausbreitung in einer definierten Umgebung

    2.2 Physikalische Grundlage - Licht ist der für den Menschen sichtbare Ausschnitt des elektromagnetischen Spektrums von Violett

    (360 nm = Nanometer) bis Rot (830 nm). - Breitet sich Licht einer Frequenz, z.B. eines Lasers, so aus, dass sich die Phasenlage der transversalen

    Welle nicht ändert, so spricht man von kohärentem Licht - Die Physik unterscheidet drei Gebiete der Optik:

    • Quantenoptik • Wellenoptik (erklärt Phänomene, die sich im mikroskopischen Bereich abspielen) • Strahlenoptik (geometrische Optik) die Superpositionseigenschaft des Lichtes erlaubt, dass die Einflüsse mehrerer Lichtquellen und auch kleiner Wellenlängebereiche einzeln berechnet und überlagert werden können. In der GDV sind das z.B. die drei Farbkomponenten R, G, B.

    2.2.1 Strahlungsphysikalische (radiometrische) Grundgrößen

    - Die Radiometrie beschäftigt sich mit dem ganzen elektromagnetischen Spektrum. - Alle strahlungsphysikalischen Größen bekommen zur Unterscheidung von den entsprechenden

    photometrischen Größen (nächster Abschnitt) den Index e (für energetisch).

    - Raumwinkel - Strahlungsenergie (wichtigste Größe der Radiometrie, alle anderen Größen werden davon abgeleitet) - Strahlungsleistung (zeitliche Ableitung der Strahlungsenergie) - Strahlstärke (Intensität) (im Allgemeinen eine Funktion der Abstrahlrichtung) - spezifische Ausstrahlung (Radiosity) (der Bestrahlungsstärke entsprechende Sendegröße) - Bestrahlungsstärke (Maß für die pro Fläche auftreffende Strahlungsleistung) - Strahldichte (Radiance)

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 10 - Stand: SS2007

    2.2.2 photometrische Grundgrößen

    - Im Gegensatz zur Radiometrie beschäftigt sich die Photometrie mit der Messung von elektromagnetischer Strahlung im sichtbaren Bereich von ca. 360 nm bis 830 nm.

    - Der entscheidende Unterschied zur Radiometrie besteht darin, dass nicht nur physikalische Größen, sondern auch die physiologischen Eigenschaften des menschlichen Auges berücksichtigt werden.

    - Jeder strahlungstechnischen Größe wird eine photometrische Größe zugeordnet, wobei zur Unterscheidung der Index v (für visuell) verwendet wird.

    - Außerdem erhalten die photometrischen Größen neue Einheiten. - photometrischen Grundgrößen:

    o Lichtmenge o Lichtstrom o Lichtstärke o Spezifische Lichtausstrahlung o Beleuchtungsstärke o Leuchtdichte

    - Der Zusammenhang zwischen radiometrischen und photometrischen Größen wird durch die Hellempfindlichkeitsfunktion V(λ) hergestellt. Die Hellempfindlichkeitsfunktion gibt die relative Empfindlichkeit des Auges in Abhängigkeit von der betrachteten Wellenlänge an.

    2.2.3 Strahlungsaustausch zwischen Oberflächen

    - Emission:

    o Aussendung von sichtbarem Licht o Radiometrie: Strahldichte o Photometrie: Leuchtdichte o die Richtungsunabhängigkeit der Leuchtdichte ist eine wesentliche Voraussetzung für das

    Radiosity-Verfahren

    - Reflexion o Licht wird zurückgeworfen, spiegelnd o 3 Arten werden unterschieden:

    - Ideal diffuse Reflexion (bei rauhen Oberflächen): die reflektierte Leuchtdichte ist unabhängig von der Abstrahlungsrichtung

    - Ideal spiegelnde Reflexion (glatte Fläche)

    � Reflexionsgesetz (Der einfallende und der reflektierte Strahl bilden mit der Normalen der reflektierenden Oberfläche gleiche Winkel. Einfallender Strahl, reflektierter Strahl und Flächennormale liegen in einer Ebene.) � Brechungsgesetz nach Snellius (Einfallender Strahl, Normale und gebrochener Strahl liegen in einer Ebene. Der Sinus des Einfallwinkels steht zum Sinus des

    Brechungswinkels in einem konstanten Verhältnis, das nur von der Natur der beiden Medien abhängt.)

    - Gerichtet diffuse Reflexion (spekulare Reflexion)

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 11 - Stand: SS2007

    abhängig von Position Lichtquelle Beobachter ambient nein nein diffus ja nein spiegelnd ja ja

    Es gilt:

    2.3 Farbmetrik

    2.3.1 Grundlage der additiven Farbmischung

    - die Farbgebung auf einem Grafikmonitor geschieht auf der Grundlage der additiven Farbmischung - jeder Bildpunkt des Monitors besteht eigentlich aus drei dicht beieinanderliegenden Bildpunkten. - Aufgrund des beschränkten räumlichen Auflösungsvermögens des Auges, werden die drei

    Farbkomponenten im Auge zu einem einheitlichen Farbreiz gemischt. - Standard-Monitore benutzen die Farben rot, grün und blau. - Für jede Komponente können unterschiedliche Intensitätsstufen (256) gewählt werden � ca. 16 Mio.

    Farbkombinationen lassen sich bilden

    Farbdarstellung

    - Farben können als Vektoren eines dreidimensionalen Vektorraumes aufgefasst werden - Die Vektoren dieses ‘Farbraums’ heißen Farbvalenzen. Die Länge eines Vektors ist ein Maß für die

    Leuchtdichte und heißt Farbwert, seine Richtung bestimmt die Farbart. - Für die bildliche Darstellung einer Farbtafel benutzt man häufig eine zweidimensionale Darstellung mit

    Hilfe von baryzentrischen Koordinaten

    Grassmannsche Gesetze

    1. Grassmannsches Gesetz: Zwischen je vier Farben besteht immer eine eindeutige lineare Beziehung. Eine Farbe braucht zu ihrer Beschreibung drei voneinander unabhängige Bestimmungsstücke, d.h. die Farbe ist eine dreidimensionale Größe.

    Das Grassmannsche Gesetz wird also nicht verletzt, es müssen nur analog zum Vektorraum auch negative Farbwerte zugelassen werden. Man nennt diese Art von Farbmischung äußere Farbmischung; sind alle drei Farbwerte positiv, handelt es sich um eine innere Mischung.

    2. Grassmannsches Gesetz: Gleich aussehende Farben ergeben mit einer dritten Farbe stets gleich aussehende Farbmischungen.

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 12 - Stand: SS2007

    2.3.2 Auge und Farbsehen

    - für das Farbsehen sind die drei Zapfenarten verantwortlich - die wesentlich empfindlicheren Stäbchen registrieren nur die Helligkeit der einfallenden Strahlung - die Farbzapfenarten des Auges unterscheiden sich hinsichtlich ihres lichtempfindlichen Sehstoffes. - Jeder dieser Sehstoffe hat eine andere spektrale Empfindlichkeitsfunktion p, d und t. - Zwei Farbreize sind gleich, falls die Erregungszustände der Farbzapfen gleich sind. - Die Farbvalenz wird daher eindeutig durch die Erregungszustände der Farbzapfen bestimmt.

    2.3.3 Spektralwerte

    - Bestimmung der Farbgleichung bei vorgegebenen Primärvalenzen für einen beliebigen Spektralreiz - Mit Hilfe der Spektralwertkurven für ein gegebenes Primärvalenztripel kann man den Farbreiz, den ein

    ganzes Wellenlängenspektrum Lλ erzeugt, ermitteln.

    2.4 Farbmodelle

    2.4.1 Technisch-physikalische Farbmodelle

    - beschreiben eine Farbe als Mischung dreier Primärfarben - die Unterschiede zwischen den einzelnen Modellen liegen in der Wahl der Primärfarben und der Art der

    Farbmischung - Modelle sind an den Erfordernissen und Bedürfnissen der Ausgabegeräte orientiert

    - RGB-Modell (Punkte eines Einheitswürfels, Primärfarben: Rot, Grün, Blau)

    - - CMG-Modell (Primärfarben Cyan, Magenta und Gelb, Verwendung: Plotter, Drucker)

    - YIQ-Modell [Farben sind durch Leuchtdichte (Luminanz Y, Helligkeit) und Farbart (Chrominanz)

    definiert, Kenngrößen: Farbton (dominierende Wellenlänge) und Farbsättigung (Maß für die spektrale Reinheit), Luminanz Y = 0,3R + 0,59G + 0,11B, Chrominanz I = R-Y und Q = B-Y]

    - YUV-Modell Verwendet Helligkeit Y und zwei Farbdifferenzen U und V, z.B. PAL und SECAM

    2.4.2 Wahrnehmungsorientierte Farbmodelle

    - arbeiten mit den Größen Helligkeit, Farbton und Farbsättigung - diese Größen müssen zur Ausgabe aber in ein technisch-physikalisches Modell transformiert werden. - die Farbe wird in numerisch-symbolischer Form beschrieben: - HLS-System

    Hue (Farbton, Winkel zwischen 0° und 360°) - Lightness (Helligkeit, zwischen 0 = schwarz und 1 = weiß) - Saturation (Sättigung, beträgt 0 für achromatische Farben und kann als höchsten Wert 1 für die gesättigten Farben annehmen) Die Farbanordnung entspricht der senkrechten Projektion des RGB-Würfels von weiß nach schwarz entlang der Hauptdiagonalen Das entstehende regelmäßige Sechseck wird meist durch einen Kreis ersetzt

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 13 - Stand: SS2007

    - Umgangssprachliche Systeme Diese Systeme sollen auch für einen ungeübten Benutzer sicher zu handhaben sein.

    Die Menge der Farben, die durch diese Systeme bezeichnet werden kann, ist durch die jeweilige Syntax beschränkt. z.B. orangish red, publish red, purple red, red purple, blue,…

    2.5 Beleuchtungsmodelle

    2.5.2 lokales (empirisches) Beleuchtungsmodell

    - ein Beleuchtungsmodell ist eine Vorschrift zur Berechnung der Farb- und Grauwerte der einzelnen Bildpunkte eines Bildes

    - beschreiben die in einem Punkt der Objektoberfläche wahrnehmbare Leuchtdichte. - dabei wird das Zusammenwirken von einfallendem Licht aus den Lichtquellen und dem

    Reflexionsverhalten der Objektflächen ausgewertet. - lokale Beleuchtungsmodelle sollen mit minimalem Aufwand möglichst realitätsnahe Flächengraphik

    erzeugen. - Sie basieren deshalb auch nicht auf strengen physikalischen Gesetzmäßigkeiten. - Neben dem Umgebungslicht sind noch drei Reflexionsarten zu berücksichtigen (ambientes Licht, ideal

    diffuses Licht und ideal reflektiertes Licht)

    2.5.2.1 ambientes Licht

    Lamb ambiente Leuchtdichte, Ea Beleuchtungsstärke auf Grund des Umgebungslichts, ra ambienter Reflexionsgrad, L Leuchtdichte des einfallenden Lichts.

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 14 - Stand: SS2007

    2.5.2.2 ideal diffus reflektiertes Licht

    unabhängig vom Betrachtungswinkel Ldi f f diffus reflektierte Leuchtdichte, rd diffuser Reflexionsgrad 0 < rd < 1 L Leuchtdichte des einfallenden Lichts, V Winkel zwischen Flächennormale und Vektor zur Lichtquelle, N Flächennormale VL Vektor zur Lichtquelle

    2.5.2.3 gerichtet diffus reflektiertes Licht (Phong)

    Nach dem Phong’schen Modell erhält man dann bei n Lichtquellen die Leuchtdichte in einem Punkt aus:

    Das Phong-Modell ist zur Darstellung von glatten, plastikähnlichen Oberflächen geeignet. Dabei wird das Glanzlicht der Oberfläche durch den Term cosn(θ) beschrieben, wobei der Parameter n die „Rauhigkeit“ der Oberfläche bestimmt. Es handelt sich um ein vollständig empirisches Modell, das auf keinerlei physikalischer Grundlage aufbaut. So erfüllt es z.B. den Energieerhaltungssatz nicht, der vorschreibt, dass eine Oberfläche nicht mehr Licht, als von der Lichtquelle zur Verfügung gestellt wird, reflektieren kann.

    2.5.3 lokale Beleuchtungsalgorithmen

    Objekte liegen in triangulierter Form vor

    2.5.3.1 Konstante Beleuchtung (flat shading)

    - einfachster Algorithmus zur Beleuchtung polygonal begrenzter Körper - belegt ein ganzes Polygon gleichmäßig mit einer Farbe - es muss nur einmal pro Polygon eine Leuchtdichte berechnet werden Aufwand: linear abhängig von der Anzahl der sichtbaren Polygone. Bewertung: Darstellung der Körper ist nicht realistisch, für die spiegelnde Reflexion nicht sinnvoll Anwendungsgebiet: Polygone bestehen aus wenigen Pixeln Algorithmus for jedes Polygon do

    • Berechne im Objektraum das Beleuchtungsmodell an einem Punkt des Polygons; • Projiziere das Polygon in die Bildebene; • Fülle das Polygon mit der in Schritt 1 berechneten Farbe.

    endfor

    2.5.3.2 Gouraud–Algorithmus

    - basiert auf dem Scan – line – Algorithmus von Watkins - Es handelt sich dabei um die Interpolation der an den Ecken eines Dreiecks berechneten Leuchtdichten. - Diese Werte werden entlang der Kanten des Dreiecks und anschließend entlang einer Rasterzeile

    interpoliert, was sich in den Vorgang der Rasterung integrieren lässt Aufwand: setzt sich im günstigsten Fall additiv aus einem in der Anzahl der sichtbaren Polygone linearen und einem in der Anzahl der Pixel des Bildschirms linearen Aufwand zusammen Bewertung: Ergebnisse sind befriedigend für diffuse Körper, Gouraud-Shading wird meist mit diffuser Reflexion assoziiert

  • 2. Lokale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 15 - Stand: SS2007

    Algorithmus

    1. Berechne im Objektraum die Normalenvektoren in den Eckpunkten der Polygone; for jedes Polygon do

    2. Berechne im Objektraum das Beleuchtungsmodell an allen Eckpunkten des Polygons; 3. Projiziere das Polygon in die Bildebene; for alle vom Polygon überdeckten Scanlinien do

    4. Berechne die linear interpolierte Leuchtdichte an der linken und rechten Kante des Polygons; for jedes Polygonpixel der Scanlinie do

    5. Berechne die linear interpolierte Leuchtdichte des Pixels. endfor

    endfor endfor

    2.5.3.3 Phong–Algorithmus

    - erfasst auch spiegelnde Effekte - dazu werden die Normalen benötigt. - deshalb werden nicht die Leuchtdichten, sondern die Normalenvektoren interpoliert. Diese Berechnung

    kann ebenfalls inkrementell sein und integriert in die Rasterung aufgenommen werden. - allerdings muss jeder Normalenvektor vor Auswertung des Beleuchtungsmodells normiert werden.

    Nach der Interpolation wird in jedem Punkt die Leuchtdichte berechnet. Aufwand: im günstigsten Fall ein in der Anzahl der sichtbaren Polygone und in der Anzahl der Pixel sich additiv zusammensetzender linearer Aufwand. Aufwand im Vergleich zum Gouraud-Shading sehr hoch, besonders die Berechnung der normierten Normalenvektoren. Bewertung: Die Resultate sind im allg. realistischer als bei konstanter Beleuchtung oder beim Gouraud-Algorithmus

  • 3. Globale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 16 - Stand: SS2007

    3. Globale Beleuchtungsmodelle Im Gegensatz zu den lokalen Beleuchtungsverfahren steht bei den globalen Verfahren nicht eine einfache Realisierung, sondern eine möglichst realistische Wiedergabe einer Szene im Vordergrund. Um eine solche photorealistische Darstellung zu erreichen, sollten die physikalischen Vorgänge so exakt wie möglich modelliert werden.

    3.1 Strahlenverfolgung (Raytracing)

    Beschreibung - Raytracing simuliert den Prozess der Lichtausbreitung und arbeitet dabei nach den Gesetzen für ideale

    Spiegelung und Brechung - Ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur

    Ermittlung der Sichtbarkeit von dreidimensionalen Objekten ab einem bestimmten Punkt im Raum - Zur Vereinfachung werden beim konventionellen Raytracing nur ideal reflektierte und ideal gebrochene

    Strahlen weiterverfolgt - Mit Hilfe dieses Algorithmus wird das Verdeckungsproblem implizit gelöst. - Die Schattenberechnung wird durchgeführt, indem man von den Auftreffpunkten des Sehstrahls

    sogenannte Schattenstrahlen zu den Lichtquellen der Szene sendet - Zum Beleuchtungsmodell nach Phong, das den lokalen Anteil modelliert, kommen - der ideal spiegelnde und der transmittierte Anteil hinzu:

    Algorithmus - Man sendet durch jedes Pixel des Bildschirms einen vom Augpunkt ausgehenden Strahl in die Szene. - Trifft der Sehstrahl auf ein Objekt, so wird das lokale Beleuchtungsmodell berechnet. - Dann werden zwei neue Strahlen erzeugt, nämlich der reflektierte und der gebrochene (transmittierte)

    Sehstrahl. Der Leuchtdichtebeitrag dieser beiden Strahlen wird rekursiv berechnet. - Dieser Prozess bricht ab, wenn eine Lichtquelle getroffen wird, die auf dem Strahl transportierte

    Energie zu gering wird oder wenn der Sehstrahl die Szene verlässt. - Aus praktischen Erwägungen wird man eine Obergrenze für die Rekursionstiefe festlegen. Anwendungsgebiet - vor allem für Szenen mit hohem spiegelnden und transparenten Flächenanteil gut geeignet.

    Beschleunigungstechniken - Verringerung der durchschnittlichen Kosten der Schnittpunktberechnung zwischen einem Strahl und

    einem Szeneobjekt

  • 3. Globale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 17 - Stand: SS2007

    - Verringerung der Gesamtanzahl der Strahl-Objekt-Schnittpunkttests: o Raumunterteilung mit regulären Gittern

    • In einem Vorverarbeitungsschritt wird der dreidimensionale Objektraum in nichtüberlappenden Unterräume unterteilt (sog. Voxel = Volumenelement)

    • Geringer Rechenaufwand • Eignet sich gut für kleine und mittelgroße Szenen

    o Raumunterteilung mit Octrees • Effiziente Datenstruktur • Achsenparallele Boundingbox (umhüllt eine Teilszene) wird in gleichgroße Subvoxel

    unterteilt, wenn ein Voxel zu viele Objektprimitive enthält o Szenenunterteilung mit hierarchischen Bäumen

    • Ziel: Kosten bei den Schnittpunkttests eines Strahls mit den Objekten der Teilszene zu sparen

    • 1. Aufbau einer Hierarchie durch z.B. Bounding Volumes • 2. Traversierung

    o Mailbox-Technik • jedes Objekt bekommt eine Mailbox und jeder Strahl eine ID, nach jedem

    Schnittpunkttest wird das Ergebnis der Berechnung zusammen mit der Strahl-ID in der Mailbox des Objekts eingetragen

    • Strahl-ID und Mailbox werden miteinander vergleichen • Stimmen diese überein, kann das Ergebnis des Schnittpunkttests aus der Mailbox

    abgelesen werden o Schatten-Caches

    • jede Lichtquelle verwaltet einen Schatten-Cache, der das Resultat der Strahlverfolgung des letzten Schattenstrahls speichert

    o adaptive Rekursionstiefenkontrolle • Ad-hoc-Technik zur Vermeidung unnötiger Strahlenverfolgung (bei

    Sekundärstrahlen), wenn ihr Beitrag zur Pixelfarbe zu klein ist o Pixel-Selected Raytracing

    • Previewtechnik zur Beschleunigung der Visualisierung • homogene Regionen werden in der Bildebene detektiert und interpoliert

    SMART - Algorithmus Bei diesem Traversierungsalgorithmus für Octree-Datenstrukturen wird der Strahlpfad durch den Octree mit Hilfe von zwei Entscheidungsvektoren inkrementell berechnet:

    • HSMART berechnet horizontale Schritte von einem Voxel zum Nachbarvoxel. • VSMART berechnet vertikale Schritte von einem Elternvoxel zum Kindvoxel.

    Vorteile: + Die Szenenbeschreibung kann beliebig komplexe Objekte enthalten. Die einzige Bedingung besteht

    darin, dass Objektnormale und Schnittpunkte mit Strahlen berechenbar sind. Es besteht keine Notwendigkeit, alle Objekte durch Polygone zu approximieren.

    + Die Berechnung verdeckter Flächen, Schatten, Reflexionen und Transparenzen sind ein inhärenter Teil des Raytracing-Algorithmus.

    + Explizite perspektivische Transformationen der Objekte und Clipping-Berechnungen sind nicht notwendig.

    + Objekte dürfen sich gegenseitig durchdringen. Schnitte zwischen Objekten brauchen nicht berechnet zu werden.

    + Das Beleuchtungsmodell muss nur in sichtbaren Objektpunkten berechnet werden.

    Nachteile: - Die Abtastung der Szene mit einem Strahl pro Pixel erzeugt in der Regel Aliasing, das mit

    Supersampling oder stochastischem Abtasten gemildert werden kann. - Schnittpunktsberechnungen werden in der Regel in Floating-Point-Arithmetik durchgeführt. Da unter

    Umständen viele Millionen Strahlen verfolgt werden müssen, ist der Rechenaufwand sehr groß. - Schatten haben stets scharfe Grenzen. Weiche Halbschatten sind nur durch rechenaufwendigere,

    stochastische Raytracing-Verfahren darstellbar. - Außerdem müssen Schatten bei jeder Änderung der Kameraparameter neu berechnet werden,

    obwohl diese nur von den Lichtquellen und den Objekten der Szene abhängig sind. - Globales diffuses Licht wird beim konventionellen Raytracing-Verfahren nicht berücksichtigt.

  • 3. Globale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 18 - Stand: SS2007

    3.2 Radiosity Beschreibung - entscheidende photometrische Größe: spezifische Lichtausstrahlung M - Das Verfahren beruht auf dem Energieerhaltungssatz: alles Licht, das eine Fläche empfängt und nicht

    absorbiert, muss sie wieder reflektieren. Außerdem kann eine Fläche auch selbstleuchtend sein. - globales Beleuchtungsverfahren für ideal diffus reflektierende Oberflächen. - Es werden nicht nur die Wechselwirkung der Oberflächen mit den Lichtquellen, sondern auch die

    Wechselwirkung der Oberflächen untereinander berücksichtigt. - Berechnet wird im Radiosity-Verfahren die Beleuchtungsstärke (gemessen in Lux) einer jeden Fläche. - Ein Formfaktor gilt immer zwischen zwei Patches und beschreibt die Menge der ausgetauschten

    Strahlung, liegt also zwischen null (keine Strahlung wird ausgetauscht) und eins (alle Strahlung wird ausgetauscht).

    Anwendungsgebiet

    Lichtverteilung in Gebäuden.

    Vereinfachungen - Beim Radiosity-Verfahren werden nur die rein diffusen Reflexionen berücksichtigt. - Die Oberflächen der Objekte werden durch eine endliche Zahl kleiner, ebener Flächen, sogenannter

    Patches, beschrieben. Jedes Patch hat einen einheitlichen Reflexionsgrad und eine einheitliche Radiosity. Die Radiosity einer Fläche j wird dann beschrieben durch:

    - Aus den beiden obigen Gleichungen erhält man durch Einsetzen die Grundgleichung des Radiosity-

    Verfahrens, ein lineares Gleichungssystem:

    Verfahren zur Lösung des Gleichungssystems: - Eliminationsverfahren von Gauß - iteratives Gauß-Seidel-Verfahren - iteratives Progressive Refinement-Verfahren

    o das Progressive-Refinement-Verfahren beruht darauf, dass man die Ausbreitung des Lichts durch die Szene ausgehend von den primären Lichtquellen verfolgt.

    o Vorteile des Verfahrens:

    � schnelle Konvergenz � zur Durchführung eines Iterationsschrittes genügt die Kenntnis einer Zeile der

    Formfaktormatrix � nach wenigen Iterationsschritten werden im allg. schon sehr gute Ergebnisse erzielt.

    Berechnung von Formfaktoren - Nusselts Analogon (Vorbereitung des Hemi-Cube-Verfahrens)

    o Wilhelm Nusselt konstruierte eine Halbkugel mit Einheitsradius, in deren Zentrum sich das Flächenelement dAi befindet.

    o Für die Berechnung von Formfaktoren wird die Oberfläche der Halbkugel in kleine Segmente aufgeteilt.

    - Hemi-Cube-Verfahren (Berechnung von Delta-Formfaktoren) o Statt der Halbkugel bei Nusselts Analogon verwendet man bei diesem Verfahren Halbwürfel

    (Hemi-Cubes). - Formfaktorberechnung mit Raytracing

    Während beim Hemi-Cube-Verfahren die Lichtquelle die differentielle Fläche darstellt, über die der Hemi-Cube gelegt wird, ist es beim Verfahren von Wallace genau umgekehrt: Die Lichtquelle wird als endliche Fläche aufgefasst und von ihr aus werden die Formfaktoren zu infinitesimalen Flächenelementen berechnet. Raytracing dient lediglich zur Verdeckungsrechnung.

  • 3. Globale Beleuchtungsmodelle FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 19 - Stand: SS2007

    Bewertung - bietet die Möglichkeit, indirekte Beleuchtung und die Wirkung von flächenhaften diffusen Lichtquellen

    effizient zu berechnen. - Insbesonders bei Innenräumen wird dadurch eine wesentlich realistischere Wirkung der Szene erzielt

    als mit anderen Verfahren. - Die konsequente Verwendung physikalischer Größen macht das Radiosity-Verfahren zum wichtigsten

    Verfahren in der Beleuchtungsplanung von Gebäuden.

    Vorteile - Blickpunktunabhängigkeit. – Ein Vorteil des Radiosity-Verfahrens ist, dass die Berechnung vom

    Standort und Blickwinkel des Betrachters unabhängig erfolgt, die das Durchwandern einer berechneten Szene in Echtzeit möglich macht.

    - Einfache indirekte, ideal diffuse Lichtreflexion. – Ideal diffuse Lichtreflexionen werden vom Radiosity-Verfahren auf natürliche Weise unterstützt.

    Nachteile - bei komplexen Szenen sind ausgeklügelte Datenstrukturen notwendig. - Beschränkung auf rein diffuse Lichtausbreitung. Dieser kann jedoch aufgehoben werden, indem man

    das Radiosity-Verfahren mit Raytracing kombiniert. Diese Kombination der beiden sehr gegensätzlichen Verfahren, man nennt es oft auch Zwei-Schritt-Verfahren, hat bisher die realistischsten Bilder erbracht.

    - Es ist sowohl von der Rechenzeit als auch vom Speicherbedarf aufwendiger als das Raytracing.

    Vergleich Raytracing und Radiosity

    Historisch gesehen war Radiosity interessant, da es die Simulation indirekter diffuser Beleuchtung auf einfache Weise erlaubte, was mit Raytracing lange Zeit nicht möglich war. Andererseits war Raytracing gut für spiegelnde und transparente Objekte geeignet, wozu wiederum Radiosity nicht fähig war. Es wurden daher anfangs Vorschläge zur Kombination von Radiosity mit Raytracing gemacht, die jedoch aufwändig waren und sich letztendlich nicht im großen Maße durchsetzen konnten. Mit dem Aufkommen moderner globaler Beleuchtungsverfahren wie Path-Tracing und Photon Mapping wurden jedoch die Möglichkeiten von Raytracing beträchtlich erweitert. Weil derartige Algorithmen alle von Radiosity unterstützten Effekte mit weniger Fehlern und auf elegantere Weise simulieren können, ist Radiosity im Bereich der hochwertigen realistischen Bildsynthese weitgehend aus der Mode gekommen. Kommerzielle Verwendung findet Radiosity vor allem bei Echtzeitrendering von Architekturmodellen, bei denen eine zeitaufwändige Vorausberechnung vertretbar ist. Auch derartige Anwendungen sind jedoch mit Raytracing möglich. Weitere Anwendung finden Radiosity-Verfahren in den Bereichen der Klima- bzw. Wärmeforschung, da Wärmeverteilung eher diffus als gerichtet geschieht und Radiosity hier praktikabler als strahlenbasierte Ansätze ist.

  • 4. Fraktale Geometrie FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 20 - Stand: SS2007

    4. Fraktale Geometrie - Begriff Fraktal entstammt dem lat. frangere (brechen, zerbrechen) - Fraktale entstehen indem eine bestimmte Formel/ Folge auf einen Ausgangswert

    angewandt wird und das Ergebnis wieder als Ausgangswert benutzt (Iteration) - Viele in der Natur vorkommende Strukturen weisen eine starke Selbstähnlichkeit auf. - Beispiele sind Gebirgsformationen, Meeresküsten oder Pflanzenblätter. - Solche in sich wiederholende Muster, die beim Hereinzoomen immer wieder zutage

    treten, lassen sich ausnutzen, wenn man ein umfangreiches Gebilde durch ein kleines Erzeugendensystem darstellen möchte.

    - Die Produktion von Fraktal-Bildern erfolgt daher durch wiederholte Anwendung einer Transformation f auf einen bestimmten Teil des Bildes.

    - Sie sind Algorithmen, die sich mit Hilfe eines Computers in Formen und Strukturen verwandeln lassen.

    4.1 Selbstähnlichkeit und fraktale Dimension Selbstähnlichkeit

    - Eine Kurve ist selbstähnlich, wenn in jedem beliebig kleinen Teil unendlich viele Kurventeile stecken, die bei Vergrößerung sichtbar werden und nicht von der ursprünglichen Kurve zu unterscheiden sind.

    - Die mathematische Beschreibung der Selbstähnlichkeit erfolgt mit dem Begriff der fraktalen Dimension.

    Kochkurve

    - Die Kochkurve ist ein Beispiel für ein Fraktal. - Bei der Konstruktion der Kochkurve beginnt man mit einem Geradensegment, dass in drei gleichgroße Teile

    zerlegt wird. - Der mittlere Teil definiert die Grundseite eines gleichseitigen Dreiecks, welche dann durch die beiden

    anderen Dreiecksseiten ersetzt wird. - Diese einfache Konstruktionsvorschrift wird rekursiv auf alle entstehenden Geradensegmente angewendet. - Die so erzeugte Kochkurve hat unendliche Länge und ist selbstähnlich: ihre fraktale Dimension ist

    D=log4/log3 - log(Anzahl der selbstähnlichen Teile)/log(Verkleinerungsfaktor)

    4.1.1 Fraktale Dimension

  • 4. Fraktale Geometrie FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 21 - Stand: SS2007

    • Für jede selbstähnliche Struktur besteht eine feste Beziehung zwischen der Anzahl der Teile N, in die die Struktur zerlegt werden kann, und dem zugehörigen Skalierungsfaktor r gemäß

    • Ein selbstähnliches Objekt hat Dimension D , falls es in N identische Kopien unterteilt werden kann, die jeweils skaliert sind mit dem Faktor r

    • Dabei heißt D die fraktale oder Selbstähnlichkeitsdimension der Struktur.

    4.1.2 Peanokurven

    • Im Gegensatz zu den Kochkurven, deren Eigenschaft es ist, sich weder selbst zu berühren noch zu schneiden, existieren auch solche Kurven, die genau diese Eigenschaften besitzen und dabei eine Fläche vollständig ausfüllen.

    • Sie werden als Peanokurven bezeichnet und haben die fraktale Dimension zwei.

    4.2 Dynamische Systeme • besteht aus einem Phasenraum (der Menge aller möglichen Zustände des Systems) und einer Regel, die

    vorschreibt, wie sich der Zustand des Systems zeitabhängig verändert. Diese Regel heißt Dynamik des Systems.

    • Sie erlaubt, den Zustand des Systems in der Zukunft zu berechnen, sofern man ihn in der Gegenwart kennt. • Diskret heißt das System, wenn man die Zustände nur in gewissen Zeitpunkten betrachtet. • die Regel ist selbst zeitkonstant, d.h. dass die Funktion, die den Phasenraum in sich abbildet und die Regel

    beschreibt, sich nicht ändert.

    4.2.1 Grundbegriffe der Theorie diskreter dynamischer Systeme

    Phasenraum

    Menge aller möglichen Zustände des Systems

    Regel

    Gibt an, wie sich der Zustand des Systems zeitabhängig verändert (Dynamik des Systems.)

    Orbit

    Die Menge O(x) = {x,f(x),f2(x),…} heißt Orbit von x unter f . O(x) erfasst alle Zustände, die aus einem Anfangszustand x unter iterativer Anwendung von f hervorgehen.

    Fixpunkt

    Ein Punkt x heißt Fixpunkt von f , wenn f(x) = x, als O(x) = {x}

    Attraktionsverhalten

    Abstoßend oder superattraktiv (=0) Um attraktiven Fixpunkt x0 existiert eine Umgebung, in der Punkte bei Iteration von x0 angezogen werden Um abstoßende Fixpunkt x0 existiert eine Umgebung, in der sich Punkte bei Iteration von x0 entfernen

    4.2.2 Julia-Mengen

    Phasenraum jetzt komplexe Ebene C

    Fatoumenge

    Die Fatoumenge F(f) einer Funktion f :C � C (komplexe Ebene) ist die Menge aller x, für welche die Iterationsfolge f, f2, f3 gleichgradig stetig ist, d.h. in den Punkten der Fatoumenge bewirkt eine kleine Änderung der Anfangswerte nur eine kleine Änderung der Orbits.

    Julia-Menge

    Die Julia-Menge der Funktion f :C � C ist gegeben durch

    J = J(f) = C – F(f) wobei F(f) die Fatoumenge von f ist. Ändert man, ausgehend von einem Punkt der Julia-Menge, den Anfangswert nur geringfügig, so erhält man einen völlig anderen Orbit.

  • 4. Fraktale Geometrie FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 22 - Stand: SS2007

    Eine einfache und bekannte Art, Julia-Mengen von quadratischen Polynomen zu definieren, ist folgende Rekursion: Mit zwei komplexen Zahlen, c und zn, sei

    zn+1 = zn2 + c

    Eigenschaften der Julia-Menge

    1. Juliamenge ist nicht leer 2. enthält überabzählbar viele Punkte 3. Juliamengen einer Funktion sind immer gleich 4. ∞ ist attraktiver Fixpunkt der Funktion 5. Juliamenge ist topologischer Rand des Attraktionsgebietes von ∞

    Algorithmen zur Berechnung von Julia-Mengen für die Funktion

    • Inverse Iteration Beurteilung: schneller Algorithmus, aber: die Urbilder verteilen sich nicht gleichmäßig über die Julia-Menge.

    • Boundary-Scanning-Methode Beurteilung: Der Algorithmus liefert ein scharfes Bild der Julia-Menge, benötigt aber eine lange Laufzeit

    o Man wählt ein geeignetes quadratisches Gitter (Bildschirmauflösung) o Enthält eine Zelle dieses Gitters Teile der Julia-Menge, so enthält sie den Rand des

    Attraktionsgebietes von ∞ • Level-Set-Methode

    o ausgefüllte Julia-Menge liegt in einer Kreisscheibe S0 mit Radius r >= max (|c|,2) o Alle Punkte in dieser Kreisscheibe liegen möglicherweise in der ausgefüllten Juliamenge o S1 Menge aller Punkte, die nach erster Iteration noch in S0 liegen

    4.2.3 Mandelbrot-Mengen

    • ist ein Fraktal, das in der Chaostheorie eine bedeutende Rolle spielt • Gegeben: Quadratische Funktionen: Qc(z) = z

    2+c, c ε C

    • z0 heißt kritischer Punkt der Funktion Qc falls Q’c(z0)=0 • Die Mandelbrotmenge ist gewissermaßen eine Beschreibungsmenge der Juliamengen • Wenn man die Mandelbrotmenge graphisch darstellt, entspricht jedem Punkt c in der komplexen

    Zahlenebene eine Juliamenge • Die Mandelbrotmenge ist die Menge aller c für die gilt:

    o der kritische Punkt 0 liegt nicht im Attraktionsgebiet von ∞ o die Folge 0, Qc (0), Qc ²(0) … ist beschränkt o die Juliamenge ist zusammenhängend

    Eigenschaften der Mandelbrot-Menge

    1. symmetrisch zur reellen Achse 2. ist Teilmenge von {c | |c|

  • 4. Fraktale Geometrie FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 23 - Stand: SS2007

    Unterschied Mandelbrotmenge und Julia-Menge

    Während bei der Mandelbrotmenge nach der Gleichung zn+1 = zn² + c die realen und imaginären C-Werte für eine festen Startwert z0 (z.B. z0 = 0 für das Apfelmännchen) das Bild bestimmen, ist es bei der Juliamenge genau umgekehrt: z0 wird variiert und ihr realer und imaginärer Teil bestimmen die aufzutragenden Koordinaten. c bleibt konstant.

    4.4 Iterierte Funktionssysteme Beschreibung

    - ist eine Menge F von Funktionen, die denselben Raum M als Definitions- und Wertebereich haben und unter Verknüpfung abgeschlossen sind

    - sind in der Lage, mit wenigen Regeln komplexe, natürlich aussehende Bilder zu erzeugen. - eine Folge von Punkten wird im R 2 durch fortgesetzte Anwendung von affinen Transformationen

    durchlaufen. - jede Transformation ist definiert durch eine 2 ⋅ 2 - Deformationsmatrix A , einen Translationsvektor b

    und eine Anwendungswahrscheinlichkeit p - Bei der Methode der iterierten Funktionssysteme (IFS) kann die Wirkung der Parameter sehr gut kontrolliert

    werden

    Verwendung

    - werden zur Bildkodierung (ist ein Verfahren zur verlustbehafteten Kompression von Digitalbildern, bei dem die Selbstähnlichkeit in den Bildern benutzt wird) mit hoher Kompressionsrate benutzt

    - Dienen auch als praktisches Werkzeug, um Bilder von Wolken, Landschaften und Pflanzen zu erzeugen

    - Sierpinski-Dreieck W = {w1,…wn} eine endliche Menge von affinen Abbildungen und P = {p1,…pn} eine Menge von zugehörigen Wahrscheinlichkeiten mit ∑

    ni=1 pi = 1 und 0

  • 4. Fraktale Geometrie FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 24 - Stand: SS2007

    4.5.1.2 Schildkröten als Bindeglied zwischen Formalismus und Anschauung

    Sollen z.B. Fraktale anhand ihrer sie beschreibenden L-Systeme gezeichnet werden, so müssen letztere notwendig Informationen über die Länge und die Winkel zwischen Linienabschnitten enthalten. Diese Information in einem durch ein L-System erzeugten String wird mittels einer Schildkröte interpretiert. Der Befehlssatz für Schildkröten kann auf den dreidimensionalen Fall erweitert werden. F Bewegung der Länge d in Bewegungsrichtung f Analog zu F aber ohne Verbindungslinie zwischen den Punkten (x,y) und (x’,y’) + Drehung nach links um den Winkel - Drehung nach rechts um den Winkel $ Drehung nach unten um den Winkel & Drehung nach oben um den Winkel | Bewegungsrichtung umkehren.

    4.5.2 Geklammerte L-Systeme

    Um Verzweigungspunkte verschiedener Ordnung bei einer Kröteninterpretation zwischenzuspeichern, führte Lindenmayer eine Notation für graphentheoretische Bäume ein, in der Klammern vorkommen. Diese erweitern den Befehlssatz für Schildkröten wie folgt: [ Legt den aktuellen Krötenzustand (als Kopie) auf den

    Stapelspeicher. Dabei werden nicht nur Position und Orientierung, sondern auch andere Informationen über Attribute, z.B. Farbe, Linienbreite usw., dort abgelegt.

    ] Nimmt oberstes Element vom Stapel und macht es zum aktuellen Zustand der Kröte. Dabei wird nicht gezeichnet.

    Mittels geklammerter L-Systeme sind pflanzenähnlich anmutende Gebilde erzeugbar.

    4.5.3.1 Kontextsensitive L-Systeme

    • Bis jetzt waren die Produktionen alle vorgestellten L-Systeme kontextfrei (auf jedes Zeichen in einem String wird bei der Ersetzung, unabhängig davon, welche Nachbarn das Zeichen besitzt, dieselbe Ersetzungsregel angewandt)

    • Austausch zwischen benachbarten Zellen ist jedoch nur mittels kontextsensitiver L-Systeme möglich

    • Spezifikationen von L-Systemen:

    o In P (Menge der Produktionen) dürfen Produktionen unterschiedlicher Kontextlänge vorhanden sein.

    o Existieren zu einem Zeichen eine kontextsensitive und eine kontextfreie Produktion, so wird die kontextsensitive bevorzugt.

    o Falls für ein Zeichen keine Produktion existiert, so wird es durch sich selbst ersetzt

    4.5.3.2 Geklammerte kontextsensitive L-Systeme

    Geklammerte kontextsensitive L-Systeme sind viel komplexer als ungeklammerte, da benachbarte Segmente innerhalb einer Struktur durch beliebig viele Symbole innerhalb der Klammern getrennt sein können. Es sind also spezielle Regeln bei der Suche des linken oder rechten Kontexts notwendig. Daher wird vereinbart, dass bei der Kontextsuche für ein Symbol die Nachkommen nicht zum Kontext beitragen.

    ABCD[EF][G[HI[JKL]M]NOPQ]

    Symbol linker Kontext rechter Kontext

    A - B D C - G D N E D F

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 25 - Stand: SS2007

    5. Grundlagen der Bildverarbeitung

    5.1 Einführung - Einsatz: Aufnahmen von Satelliten, Medizin, Videorekorder - Ein Bild wird in der digitalen Bildverarbeitung als eine Menge von n x m Bildpunkten (Pixel) angesehen,

    wobei jedem Punkt ein Zahlenwert für einen Grauwert oder ein Zahlentripel für eine Farbe zugeordnet ist - Die Bildverarbeitung wird aus diesem Grund auch oft als die Anwendung von Algorithmen auf

    Zahlenfelder bezeichnet - Vorteile:

    � Präzision (kein Informationsverlust im photographischen Prozess, kein Rauschen analoger Schaltkreise)

    � Flexibilität - Nachteile:

    � Höhere Kosten � geringe Abarbeitungsgeschwindigkeit

    - die Lösung von Bildverarbeitungsschritten besteht meist aus einer Kette von Verarbeitungsschritten - folgende vier Teilgebiete lassen sich abgrenzen

    � Bildverbesserung: Bildmaterial wird derart bearbeitet, dass die Erfolgsaussichten der nachfolgenden Verarbeitungsschritte verbessert werden, z.B. Rauschfilterung, Kontrastverstärkung, Histogrammanipulation, geometrische Entzerrung, Bildrestauration

    � Segmentierung: Unterteilung des gesamten Bildbereiches in zusammengehörende Gebiete � Merkmalsextraktion: Extraktion aussagekräftiger Merkmale aus den noch rohen Bilddaten der

    Segmentierungsstufe, bildet die Schnittstelle von der ikonischen (bildhaften Daten) zur symbolischen Datenverarbeitung (bildbeschreibende Daten), Merkmale wie lange Geradendstücke, Ecken und Einbuchtungen lassen sich extrahieren, z.B. Konturverfolgung, Skelettierung

    � Bildverstehen: beinhaltet die Objekterkennung und die Bildinterpretation - Beispiel: Auszählen von Blutzellen eines bestimmten Typs in der digitalisierten Aufnahme eines

    mikroskopischen Präparats

    5.2 Digitale Halbtonverfahren - Digitale Halbtonverfahren sind Algorithmen, die die Graustufen von Grauwertbildern mit Hilfe geeigneter

    Schwarz-Weiß-Darstellungen nachbilden. - da das menschliche Auge jedoch nur in der Lage ist, eine gewisse Anzahl von Schwarz-Weiß-Übergängen

    pro Sehwinkel exakt wahrzunehmen, verschwimmen beim Überschreiten dieser Grenze die Übergänge, und es entsteht der Eindruck von Grautönen.

    - Variiert werden Punktgröße (Zeitungsdruck) oder Punktdichte (Rasterbildschirme, Drucker). - Schwellwertverfahren ordnen jedem Bildpunkt aufgrund seines Grauwertes den Wert schwarz oder weiß

    zu. Man unterscheidet:

    5.2.1 Verfahren mit festem Schwellwert

    5.2.1.1 Konstanter und angepasster Schwellwert

    Anhand einer festen Schwelle, die Grauwerteigenschaften des Bildes berücksichtigen kann, wird entschieden, ob einem Bildpunkt der Wert schwarz oder weiß zugewiesen wird.

    5.2.1.2 Error-Diffusion

    - Durch das Verändern eines Bildpunktes auf schwarz oder weiß entsteht ein Fehler - es wird versucht diesen pro Bildpunkt gemachten Fehler zu kompensieren, indem man ihn auf die

    Nachbarpunkte verteilt. - Die Abweichung des gewählten Wertes zum ursprünglichen Grauwert kann auf noch nicht bearbeitete

    direkte oder auch indirekte Nachbarn entsprechend einer Gewichtsmatrix verteilt werden (Error-Diffusion).

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 26 - Stand: SS2007

    5.2.2 Verfahren mit variablem Schwellwert (Dither-Verfahren)

    - Eine Schwellwertmatrix definiert ortsabhängige Schwellwerte - z.B. Ordered-Dither

    5.2.3 Grautonmuster

    - Graustufen können durch unterschiedliche Größen realisiert werden

    - durch die regelmäßige Struktur der Muster werden unerwünschte Strukturen in den Bildern erzeugt - es treten durch die reduzierte Anzahl an Graustufen scharfe Grauwertsprünge auf

    5.2.4 Dot-Diffusion

    - Fasst die Vorteile von Error Diffusion (optisch gute Bilder) und Ordered Dither (leichte Implementierung) zusammen

    5.3 Die Fourier-Transformation Grundlegendes zu Bildern und Frequenzen

    Ortsbereich: Der Wert des Pixel (x,y) entspricht der Intensität des Bildes am Ort (x,y)

    Frequenzbereich: Der Wert des Pixel (x,y) entspricht dem Anteil einer zugeordneten Frequenz (u,v) am Bild

    Viele Effekte und defekte sind im Frequenzbereich besser erfassbar- und manipulierbar, z.B.:

    - Rauschen: meist hohe Frequenzen - Regelmäßige Störeffekte (Motionblur, Scanner-Muster, etc.) - Weicher Verlauf: niedrige Frequenz - Kanten: lokal hohe Frequenz

    5.3.1 Einleitung

    - Die FT ist eine Frequenz-Transformation, die eine Funktion in ihre Sinus- und Kosinus-Bestandteile (Basisfunktionen) mit verschiedenen Frequenzen zerlegt

    - Funktionen reeller Variablen lassen sich oft in Form von Reihen darstellen. - Solche Funktionen können als eine Überlagerung (Superposition) von harmonischen Schwingungen

    unterschiedlicher Frequenzen aufgefasst werden - Im einfachsten Fall sind dies Sinus- und Cosinusschwingungen. - Hohe Frequenzen entsprechen feinen Strukturen der Ursprungsfunktion, niedrige Frequenzen dagegen

    langsamen Änderungen des Funktionsverlaufs (wie in der Musik) - Die Fouriertransformation ist grundlegend für Bereiche wie die Signaltheorie (z.B. Filter, lineare

    Systeme im Kontinuierlichen und Diskreten) und die Abtasttheorie. - Die Abtasttheorie befasst sich mit der Abtastung und Rekonstruktion kontinuierlicher Funktionen, d.h.

    ihrer Überführung ins Diskrete und zurück. - Mit Methoden der digitalen Bildfilterung wird z.B. versucht, Grauwertstörungen zu beseitigen, die

    durch systematische Einflüsse (Fehler) bei der Bildaufnahme verursacht wurden. - Die Fouriertransformation dient dabei der Analyse der Störung und zur Beschreibung des Verfahrens

    zur Minderung oder Aufhebung des Störeinflusses - Ein weiterer Einsatz der FT ist die Bildkodierung

    5.3.2 Die kontinuierliche Fourier-Transformation

    Fourierreihe

    Eine eindimensionale periodische Funktion f(x) mit der Periode T=2π lässt sich als eine Reihe von trigonometrischen Funktionen darstellen:

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 27 - Stand: SS2007

    Fourier-Analyse: f(t) � F(u), Fourier-Synthese: F(u) � f(t) f(t): Zeitfunktion, F(u): Spektrum

    Eine beliebige reele Funktion f(x) lässt sich darstellen in der Form

    Diese Beziehung lässt sich aufspalten in

    Man sagt: Die Fourier-Transformierte F liefert eine Entwicklung der Funktion f in ein kontinuierliches Spektrum.

    F(u) und f(x) bezeichnet man auch als Fourier-Transformationspaar. Betrachtet man die Variable x als Zeitkoordinate (Ortskoordinate) und damit f(x) als kontinuierliche Funktion der Zeit (des Ortes), so bezeichnet man F(u) als Frequenzspektrum (Ortsfrequenzspektrum). Kennt man beispielsweise den Verlauf einer Funktion f in Abhängigkeit von der Zeit t (Bsp.: Klang einer Saite), so kann man die Frequenzen u berechnen, die den Verlauf der zeitlichen Funktion ausmachen - man bestimmt das Frequenzspektrum (Fourier-Analyse) (Bsp.: Grundschwingung und Oberschwingungen mit ihren jeweiligen Anteilen). Der umgekehrte Weg ist ebenfalls möglich. Die Konstruktion einer Funktion der Zeit aus ihrem Frequenzspektrum nennt man Fourier-Synthese.

    Für den zweidimensionalen Fall (z.B. Bilder, aufgefasst als zweidimensionales kontinuierliches Signal) erhält man

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 28 - Stand: SS2007

    Da die Fourier-Transformierte einer reellen Funktion im Allgemeinen komplex ist, kann man auch schreiben

    5.3.3 Die diskrete Fourier-Transformation

    Bislang wurden F(u) und f(x) als kontinuierliche Funktionen behandelt. Für die Anwendungen in der digitalen und diskreten Bildverarbeitung ist diese Form der Fourier-Transformation jedoch ungeeignet. Man verwendet daher die diskrete Fourier-Transformation mit

    Kontinuierliche Funktionen f(x) müssen dazu in eine diskrete Form überführt werden. Dazu wird die kontinuierliche Funktion f(x) mit der Vorschrift

    in eine diskrete Form überführt. Man spricht dabei auch von Abtastung, da die diskrete Funktion mit der kontinuierlichen Funktion an den Stellen (x0+m∆x) übereinstimmt

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 29 - Stand: SS2007

    5.3.4 Eigenschaften der Fourier-Transformation

    - Vertauschungssatz Fasst man das Ortsfrequenzspektrum F(k,l) der Ortsfunktion f(m.n) als eine neue Ortsfunktion F(m,n) auf, so hat deren Fourier-Transformierte die an den Koordinatenachsen gespiegelte Form f(-k,-l) des ursprünglichen Signals.

    - Separierbarkeit Die zweidimensionale Fourier-Transformation kann mit Hilfe einer eindimensionalen Fourier-Transformation zunächst nach der einen Variablen (z.B. FTk) und anschließend mit einer weiteren eindimensionalen Fourier-Transformation (z.B. FTl) der so erhaltenen Zwischengröße nach der anderen Variablen berechnet werden

    - Periodizität F(k,l) = F(k+M,l) = F(k,l+N) = F(k,M,l+N)

    - Überlagerungssatz, Linearität Die Fourier-Transformierte von Summen von Ortsfunktionen ist gleich der Summe ihrer Fourier-Transformierten

    - Ähnlichkeitssatz Eine Dehnung der Ortsfunktion f(m.n) in der Ortsebene führt zu einer Skalierung und Stauchung von F(k,l) in der Ortsfrequenzebene und umgekehrt

    - Rotationssatz Eine Drehung der Funktion f(m.n) im Ortsbereich um einen Winkel Alpha bewirkt eine Drehung von F(k,l) in der Ortsfrequenzebene um den gleichen Winkel im gleichen Richtungssinn und umgekehrt.

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 30 - Stand: SS2007

    - Verschiebungssatz Eine Verschiebung der Funktion f(m.n) im Ortsbereich bewirkt eine lineare Phasendrehung der Funktion F(k,l) im Ortsfrequenzbereich und umgekehrt:

    - Faltungssatz

    Das Faltungsprodukt * zweier 2-dimensionaler Funktionen korrespondiert mit dem Produkt der Fourier-Transformierten dieser Funktionen und umgekehrt

    Hochfrequente Anteile eines Bildes geben Hinweise auf mögliche Kanten, so dass mit der Fourier Transformation auch Kantendetektionsverfahren entwickelt werden können.

    5.3.6 Abtasttheorem und Bildfilterung

    - Damit Bilder im Digitalrechner verarbeitet werden können, müssen sie zuerst in eine diskrete Darstellung gebracht werden.

    - Die Umformung erreicht man durch Abtastung (Diskretisierung = Festlegung der Abtaststellen im Definitionsbereich) und Quantisierung (Zuordnung der abgetasteten Werte zu vorgegebenen Wertebereichen endlicher Auflösung).

    - Inhalt dieses Abschnitts ist die Abtastung, die dabei entstehenden Fehler, die Rekonstruktion der ursprünglichen, kontinuierlichen Bildfunktion und die dazu notwendige Bildfilterung.

    Abtasttheorem:

    Existiert für eine Funktion f(x) eine endliche Grenzfrequenz uG, so dass das Spektrum F(u) = 0 ist für u > uG, dann ist die abgetastete Funktion f(x) aus den Abtastwerten f(m∆x) fehlerfrei rekonstruierbar, sofern die Abtastfrequenz uT = 1 / ∆x mindestens doppelt so groß wie uG ist:

    Wird die Vorschrift verletzt, d.h. wird f(x) unterabgetastet, so treten bei der Rekonstruktion unerwünschte Bildfehler (Aliasing) auf.

    Zur Rekonstruktion von f aus den Abtastwerten wird zunächst das Ortsfrequenzspektrum F(u)aus ^F(u) berechnet. Dazu wird ^F(u) mit einer Rechteckfunktion multipliziert. Die inverse Fourier-Transformierte von ^F(u)R(u) stimmt dann exakt mit f(x) überein.

    5.3.6.1 Bildfilterung

    Die Faltung beschreibt einen mathematischen Operator, der für zwei Funktionen f und g eine dritte Funktion liefert. Mit Methoden der digitalen Bildfilterung wird z.B. versucht, Grauwertstörungen zu beseitigen, die durch systematische Einflüsse (Fehler) bei der Bildaufnahme verursacht wurden.

    Nach dem Faltungssatz korrespondiert die Fouriertransformierte des Faltungsproduktes zweier Funktionen mit dem Produkt der Fouriertransformierten und umgekehrt. Fasst man f(x) als Signal auf und g(x) als linearen, ortsinvarianten Operator (Filter), so beschreibt Gleichung

    das Ein-/Ausgangsverhalten eines linearen Systems. Aus dem Faltungssatz folgt, dass ein Filter sowohl im Orts– als auch im Ortsfrequenzbereich realisiert werden kann.

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 31 - Stand: SS2007

    Werden mehrere lineare Filter auf ein Bild angewendet, so können die Filter multipliziert werden und mit einem Mal auf das Bild angewendet werden. Vorgang im Ortsbereich: Das Bild wird mit dem Kernel bearbeitet. Es entsteht die Faltung A * K (nicht umkehrbar) � Basiselement: Pixel Vorgang im Ortsfrequenzbereich: Die Fouriertransformation des Bildes wird mit der Fouriertransformation des auf die Größe des gesamten Bildes ausgedehnten Kernels multipliziert. Dieser Vorgang ist wieder umkehrbar, da nur eine einfache Multiplikation verwendet wird. � Basiselement: Frequenz Im Rahmen der Bildverarbeitung heißen lineare Systeme auch Filter. Die Wirkung eines Filters, beschrieben durch seine Impulsantwort g(x) bzw. deren Übertragungsfunktion G(x), auf eine beliebige Funktion f(x) bzw. ihre Fourier-Transformierte F(u) kann im Orts- und Ortsfrequenzraum beschrieben werden. Auch die Filterung selbst kann im Ortsraum oder im Ortsfrequenzraum, d.h. an der Bildfunktion selbst oder and ihrer Fourier-Transformierte durchgeführt werden.

    5.3.7 Translation

    Zuerst wird f(x,y) aus den Abtastwerten rekonstruiert, dann transformiert und schließlich wieder abgetastet.

    5.3.8 Skalierung

    Siehe 5.3.7

    5.3.10 Quantisierungsfehler

    Die Einhaltung des Abtasttheorems ist für eine exakte Bildwiedergabe notwendig, aber nicht hinreichend. Mindestens ebenso großen Einfluss auf die Bildqualität hat die für die digitale Darstellung erforderliche Quantisierung der Grau– bzw. Farbwerte. Stehen z.B. zu wenige unterschiedliche Grauwerte zur Verfügung, so treten trotz korrekter Abtastung störende Grauwertsprünge („falsche“ Konturen, -Pseudokanten“) im Bild auf.

    5.3.11 Fast Fourier Transformation (FFT)

    - Verfahren zur schnellen Durchführung von diskreten Fourier-Transformationen

    - Die Geschwindigkeitssteigerung wird im Wesentlichen durch die bestimmte Anzahl von Bildpunkten bzw. Stützwerten (diese muss eine Zweierpotenz sein) und Vorsortierungen der Werte erreicht.

    - Die FFT ist keine Näherung der diskreten Fourier-Transformation, sondern sie liefert dieselben Ergebnisse

    - nutzt Symmetrieeigenschaften einer diskreten Fourier-Transformation mit N2k aus und reduziert die Anzahl der erforderlichen Multiplikationen durch Ausklammern von Faktoren.

    - Der zentrale Punkt bei den FFT-Verfahren ist die sukzessive Unterteilung.

    - Anzahl komplexer Multiplikationen von N2 auf etwa (N/2)*log2N

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 32 - Stand: SS2007

    5.4 Bildverbesserung Bildverbesserungsverfahren haben das Ziel, Bildsignale so aufzubereiten, dass sie die relevanten Informationen besser darstellen, d.h. Bildinformationen, die bei einer speziellen Anwendung redundant oder sogar störend sind, zu unterdrücken und dafür wichtige Bildinhalte deutlicher hervorzuheben. Die Verfahren kann man grob in solche unterteilen, die - im Orts- oder Frequenzbereich arbeiten, - in lokale und globale, - in signalunabhängige und signalabhängige, - sowie in lineare und nichtlineare Methoden - bildpunktbezogene Verfahren

    o Grauwertmanipulation o Histogramm-Manipulation

    - Umgebungsbezogene Verfahren o Boxfilter o Medianfilter o Tiefpassfilter o Hochpassfilter o Butterworth-Filter

    5.4.1 Grauwertmanipulation

    Grauwerte eines Bildes werden so transformiert, dass z.B. - zu helle oder zu dunkle Bilder gleichmäßig korrigiert werden, - der zur Verfügung stehende Grauwertbereich ausgeschöpft wird, - gewisse Grauwertbereiche gespreizt werden.

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 33 - Stand: SS2007

    Bei allen diesen Transformationen muss daraufgeachtet werden, dass entweder alle neuen Grauwerte im darstellbaren Bereich liegen oder dass ein entsprechendes Clipping der Werte bei Über- oder Unterschreitung des gültigen Bereichs durchgeführt wird.

    5.4.2 Histogramm-Manipulation

    - grundlegende Datenstruktur der statistischen Bildanalyse - zeigt welche Intensitäten vorhanden sind - x-Achse: Wertebereich 0..255, y-Achse: Häufigkeit der Intensität - kumuliertes Histogramm Summenhäufigkeit) - Unter dem Histogramm eines Bildes versteht man die Häufigkeitsverteilung seiner Grauwerte. - Ein globales Kriterium für die Histogrammeinebnung ist die Forderung, dass die Intensitätswerte des

    transformierten Bildes möglichst gleichmäßig über den gesamten zur Verfügung stehenden Grauwertbereich verteilt sind; diese Forderung entspricht einer Linearisierung der Summenhäufigkeit der Grauwerte.

    - Die Umsetzung erfolgt anhand einer einmal berechneten Look- Up-Tabelle. - Damit sich das dominante Vorkommen eines Grauwertbereichs (z.B. eines großflächigen Hintergrundes)

    nicht auf das gesamte Bild auswirkt, wird bei der adaptiven Histogrammeinebnung die Einebnung jeweils individuell für einzelne Teilbereiche des Bildes durchgeführt.

    - Histogramme sind die grundlegende Datenstruktur der statistischen Bildanalyse. - Sie können graphisch am besten als Balkendiagramme dargestellt werden, mit dem Grauwert als horizontale

    Achse und der Häufigkeit als Balkenhöhe

  • 5. Grundlagen der Bildverarbeitung FernUni Hagen - Lernskript Computergrafik 2 (01279)

    Erstellt von: Hendrik Bornholdt - 34 - Stand: SS2007

    5.4.3 Gleitender Mittelwelt und Medianfilter

    Die Methoden der Histogrammanipulation und Grauwertmanipulation sind rein bildpunktbezogen. Wird bei der Bildverbesserung auch die Umgebung eines Bildpunktes dem Wert nach mitberücksichtigt (und nicht nur statistisch wie bei den Histogrammanipulationen), so spricht man von digitalen Filtern im Ortsbereich.

    Gleitende Mittelwert

    Er dient der Glättung der Grauwerte eines Bildes. Eine Grauwertglättung kann für die Unterdrückung von Rauschen und zum Entfernen unerwünschter, kleiner Bildelemente verwendet werden.

    Filtermaske

    Digitale Darstellung eines Filters im Ortsbereich. Ein 3x3-Boxfilter lässt sich z.B. in der Form

    darstellen. Filtermasken werden auch als (Filter-)Operatoren bezeichnet. - Bilder, die mit diesem Mittelwert-Operator bearbeitet werden, wirken im Vergleich zum Original weicher

    und etwas unschärfer. - Ein großer Nachteil dieser Methode zur Rauschfilterung ist die Tatsache, dass feine Details verloren gehen. - Unter Umständen kann es weiterhin nachteilig sein, dass im neuen Bild durch die Mittelung Grauwerte

    entstehen können, die im Originalbild nicht vorhanden waren