Download - Elaborazione delle Immagini
-
Indice generaleFormazione delle Immagini.................................2
Acquisizione dell'immagine............................2Processo di acquisizione dell'immagine.....2Processo di formazione delle immagini......3
Percezione delle Immagini...................................3Concetti di base....................................................3Image Enhancement.............................................3
Caratteristiche..................................................3Formula Generale............................................4Operatori Puntuali Generale............................4
Trasformazioni dei valori di grigio.............4Applicazioni................................................4Trasformazioni puntuali di base..................5
Operatori Puntuali...........................................5Negativo di un immagine............................5Trasformazioni logaritmiche.......................5Trasformazioni Logaritmiche.....................5Contrast Stretching.....................................5Contrast Stretching con funzioni lineari a pezzi............................................................6Gray level/intesity Slicing..........................6Bit Plane Slicing.........................................6
Istogramma di un immagine............................6Definizione.................................................6Istogramma normalizzato...........................6Istogramma cumulato.................................7
Equalizzazione dell'istogramma......................7I passi della procedura di equalizzazione. . .8Matching di istogramma.............................8
Operazioni Aritmetiche con le immagini........8Somma di Immagini...................................9Sottrazione di immagini..............................9
Operazioni insiemistiche...............................10Operatori Logici............................................10
And, Or.....................................................10Trasformazioni Spaziali.....................................10
Trasformazioni spaziali mediante Operatori Locali.............................................................10Filtri...............................................................10Filtri Lineari - Convolutivi............................11Soluzioni con la maschera sui bordi..............12Operatori di Smoothing : Filtri passa-basso. .12
Applicazioni..............................................13Sogliatura.......................................................13Filtro Gaussiano.............................................13
Filtro Mediano...............................................14Operatori di Sharpening................................14Operatore di Sharpering Basato sulla derivata seconda..........................................................15Operatore Laplaciano....................................15Filtri di Sharpening Unsharp Masking & High Boosting.........................................................16Uso della derivata prima................................17Operatori di Smoothing Sommario...............18Operatori di Sharpening Sommario...............18
Segmentazione delle immagini..........................19Segmentazione di Immagini..........................19Approcci alla segmentazione.........................20Parallelismo Enhancement-Edge detection...20Metodi basati sulla discontinuit (Basati sui contorni)........................................................20Operatori utilizzati nell'ambito della segmentazione...............................................21Determinazione di Punti Isolati.....................21Procedimento.................................................21Estrazione di linee.........................................21Bordi (edges) e Contorni...............................22Operatori........................................................23
Determinazione dei contorni basata su operatori-gradiente....................................24
Uso del Laplaciano nella segmentazione......24Uso del Laplaciano della Gaussiana per la segmentazione...............................................25Determinazione dei Contorni Linking i bordi.......................................................................26
Tecniche di Linking (locali)......................26Segmentazione d'immagini Approccio per regioni............................................................26Thresholding [Multilevel thresholding]........26Algoritmo iterativo per definire la soglia globale...........................................................27Local, Adaptive Thresholding.......................27Operatori derivativi nel Tresholding.............28Determinazione di Regioni............................28Region Growing............................................28Tecniche di Split & Merge.........................29
Split Merge [Slide 33]...............................29Merge [Slide 35].......................................30
Il Colore.............................................................30
1
-
Formazione delle Immaginirelazione che sussiste fra la scena e limmagine prodotta sul piano sensibile
Coinvolge due aspetti:
Aspetti Geometrici
Spiegano su quale punto del piano-immagine (bidimensionale, 2D) va a cadere un punto della scena (tridimensionale, 3D)
Aspetti fisici
Spiegano il valore di Brightness(intensit luminosa) di un punto dell'immagine in funzione dell'illuminazione della scena e delle propriet della superficie
Acquisizione dell'immagineE il processo che porta dallimmagine prodotta sul piano sensibile del dispositivo di imaging a quella disponibile nella memoria del calcolatore
[Esempio] Un semplice modello di formazione delle Immagini
La scena illuminata da una sorgente puntuale.
Loggetto nella scena riflette la radiazione incidente.
Il dispositivo di Imaging /Camera memorizza la radiazione riflessa e incidente sul piano immagine per mezzo di materiale fotosensibile.
Data una scena e un piano vedremo che
Un punto della scena incide su punti diversi del piano immagine
Un punto del piano immagine colpito da raggi provenienti da punti diversi della scena
Il sistema di imaging che deve riprodurre un'immagine ha il ruolo di convogliare i raggi su un dispositivo di rilevazione in modo che ad un punto della scena corrisponda uno ed un solo punto delpiano immagine.
Bisogna risolvere come far cambiare direzione ai raggi in modo che un fascio divergente diventi convergente Es. Pinhole Camera: scatola con un foro minuscolo.
Processo di acquisizione dell'immagine Per formare unimmagine occorre disporre di un sistema di rivelazione
Nel caso della visione naturale il sistema di rivelazione la retina, su cui troviamo particolari sensori: i coni per la visione diurna e i bastoncelli per la visione notturna
Nella visione artificiale o pi semplicemente nei sistemi di imaging tecnologici occorre disporre di matrici di rivelazione in cui sono disposti i sensori
2
-
Processo di formazione delle immagini(nel caso in cui la sorgente il campo elettromagnetico) il pixel ha il compito di assorbire tutta la luce ( i fotoni ) che incide su di esso e di generare elettroni liberi che in questo caso sono detti foto-elettroni.
La generazione di un foto-elettrone allinterno di un singolo pixel avviene perch un atomo, della sostanza di cui fatto il pixel, assorbe un fotone e lenergia di questo fornita ad uno dei suoi elettroni che cos si pu allontanare dal resto dellatomo e diventare un foto-elettrone libero.
La rivelazione di unimmagine consiste allora nel conteggio, per ciascun pixel, di tutti gli elettroni liberi generati durante lesposizione.
Esistono altre cause, indipendenti dalla quantit di luce assorbita dal singolo pixel, di generazione dielettroni liberi. La principale tra queste la stessa temperatura di lavoro a cui si trova il pixel, in quanto lagitazione termica produce di per s elettroni liberi. Nel processo di rivelazione dellimmagine questi elettroni termici sommandosi ai foto-elettroni costituiscono una fonte di rumore rispetto al segnale vero e proprio costituito dai foto-elettroni.
Formazione Immagini Slide 18...
Percezione delle Immagini
Concetti di base
Image Enhancement Obiettivi:
facilitare e potenziare il processo di valutazione ed interpretazione di un immagine
da parte di un umano
per il riconoscimento visuale
Si opera trasformando i livelli di grigio
compensa deterioramenti della qualit
rende pi nitidi ed esalta i dettagli
eliminare effetti indesiderati
Caratteristiche La scelta del metodo di enhancement dipendente dal problema e dalla natura
dell'immagine
3
-
Non esiste una teoria generale, una soluzione si raggiunge con schemi trial and error
Se l'enhancement finalizzato ad un'ispezione visuale il criterio di bont del metodo essenzialmente soggettivo e/o dipendente dal contesto
preservano la struttura dell'immagine.
Formula Generaleg(x , y )=T [ f ( x , y)]
f(x,y) : immagine di input
g(x,y) : immagine di output (elaborata)
T : operatore su f con dominio di definizione un intorno di (x,y)
T si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano unicamente il singolo pixel.
T si dice operatore locale se l'intorno su cui opera ha dimensioni maggiori di 1x1.
T si dice operatore algebrico/logico se opera su un set di immagini di input.
Operatori Puntuali GeneraleT si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano unicamente il singolo pixel.
Trasformazioni dei valori di grigio Sono rappresentabili in forma tabellare, di grafico (Look Up Table)
Il risultato dipende solo dal valore di grigio del punto dell'immagine originale
Il risultato di ciascun passo dell'elaborazione pu essere registrato sull'immagine stessa a sostituzione del valore originale del pixel elaborato
Applicazioni Rimozione degli effetti di non linearit del sensore di acquisizione
correzioni preliminari al display delle immagini
per mantenere la corrispondenza tra valori di luminanza del pixel e brillanza di un elemento del display oppure
per attribuire agli elementi di interesse dell'immagine un valore entro il range di massima visibilit del dispositivo di display.
Espansione della dinamica dei livelli di grigio per far risaltare elementi dell'immagine rappresentati in un intervallo ristretto
Sogliatura dell'immagine per la definizione dei contorni
4
-
Trasformazioni puntuali di base Negativo
Lineari
Logaritmiche
Esponenziali
Operatori PuntualiNegativo di un immagineUn'immagine negativa semplicemente un'immagine con i valori dei pixels invertiti. In forma analitica:
y = (L - 1) - x con L=256 per un immagine a 8-bit
Trasformazioni logaritmiche In alcuni casi il range dinamico di un immagine (intervallo tra il pixel di valore pi basso e il
pixel di valore pi alto) eccede di molto le capacit di un dispositivo per la visualizzazione.
Scalando linearmente i valori il risultato che risultano visibili solo le parti chiare dell'immagine.
La funzione di trasformazione lavora mappando un range ristretto di valori di bassa intensitin un range pi ampio (dilatazione delle zone scure) e comprimendo i valori di alta intensit.
s = c log (1 + r) , con c costante ed r>=0
Trasformazioni Logaritmiches=cr
espansionedelladinamica se 1
Usata per esempio per visualizzare su un monitor immagini.
Contrast Stretching Obiettivo:
Aumentare il range di livelli di grigio presenti nell'immagine
Cause:Immagini poco contrastate sono frutto di scarsa illuminazione durante l'acquisizione, ridotto range dinamico nel sensore
Offrono molta flessibilit nella definizione della Trasformazione ma sono complessi da definire per una specifica applicazione
l'analista deve specificare punti di controllo della trasformazione
5
-
Contrast Stretching con funzioni lineari a pezzi
y={ ax ,0xr1b(xr 1)+s1, r 1xr2c(xr 2)+s2, r 2xL1Implementazione pi semplice:
Pout=(Pc)(badc
)+a
per esempio in immagini a 8 bit [0,255]
Pout=(Pc)(255dc )
Gray level/intesity SlicingIl Gray level slicing enfatizza linformazione contenuta in un range di livelli di grigio.
Bit Plane SlicingOgni piano immagine visualizza il contributo di uno specifico bit
Istogramma di un immagineListogramma dei livelli di grigio di unimmagine uno dei pi semplici ed utili strumenti nellelaborazione delle immagini. Molte tecniche di miglioramento e segmentazione si basano sulluso dellistogramma.
DefinizioneListogramma di unimmagine con livelli di grigio nellintervallo [0,L-1] una funzione discreta della forma:
h(r k)=nk
dove:
rk il kesimolivello di griggio
nk il numero di pixelscon il livello paria r kcon0KL1
Listogramma quindi una funzione che associa ad ogni livello il numero di pixel dellimmagine aventi quel livello di grigio.
Con listogramma otteniamo uninformazione statistica dellimmagine ovvero la frequenza di occorrenza dei livelli di grigio.
Istogramma normalizzato
p(rk )=nk
MN
con M, N numero di righe e colonne della matrice immagine
6
-
L'istogramma normalizzato d una stima della probabilit di occorrenza dei livelli di grigio nell'immagine descrivendo la frequenza di occorrenza dei valori di grigio nell'immagine.
La somma dei componenti di un istogramma normalizzato pari a 1
Istogramma cumulatoSi definisce istogramma cumulato la seguente funzione
H (rk )=x=0
rk
h(x )
Indica il numero di pixels nellimmagine che hanno valori di grigio minori o uguali a rk
nella sua forma normalizzata:
P(rk )=x=0
rk
p (x)
la funzione ha un massimo asintotico uguale a 1
In termini statici
p(x) denota la funzione di densit di probabilit
P(rk) denota la funzione di Distribuzione Cumulativa
Equalizzazione dell'istogrammaIl metodo risponde alla seguente idea intuitiva:
un'immagine con valori di grigio che occupano l'intero range e sono equamente distribuiti dovrebbe avere un buon contrasto.
Si tratta di un metodo di miglioramento del contrasto basato su criteri formali, automatico, senza euristica
Il metodo formulato nel continuo; nel discreto ho un'approssimazione
Teniamo conto che ogni operatore che attua una modifica del contrasto, e quindi che opera sui valori di grigio dell'immagine, comporta il riposizionamento delle barre dell'istogramma dell'immagine iniziale. Le barre non sono modificate in altezza (al limite sovrapposte) e il nuovo istogramma ha lo stesso numero di barre di quello iniziale
hi(x )dx=h0( y )dy dx ,dy0 , hi(x)dx=h0( y)dy
Partendo dalla relazione hi(x )dx=h0( y )dyimpostiamo che l'istogramma dell'immagine risultante sia uniforme, ovvero tutte le barre abbiano la stessa altezza
Sia N il numero totale dei pixels
L numero di livelli di grigio
7
-
Ciascuna barra dell'istogramma imposto uniforme pari a N/L
SLIDE Enhancement2-14
H (xk)=x=0
x k
h i(x)
La trasformazione che permette di ottenere unimmagine con istogramma uniforme listogramma cumulato dellimmagine originale moltiplicato per un fattore di scala.
I passi della procedura di equalizzazione Calcolo dell'istogramma dell'immagine di Input hi
Calcolo dell'istogramma cumulato Hi
Calcolo del nuovo valore del pixel dell'immagine di Output Pout secondo la formulataPout = (L-1/N) Hi(pin)
Non sempre lequalizzazione porta a buoni risultati
Scarse prestazioni si hanno ad esempio quando
limmagine presenta ampie zone scure.
Matching di istogrammaEnhancement2 Slide 21...25
Operazioni Aritmetiche con le immaginiSono operatori logici.
Descrizione
Somma: riduzione del rumore
Sottrazione: enfasi delle differenze
Moltiplicazione: mascheramento
Divisione: Mascheramento
Propriet:
Si effettuano pixel per pixel (in modalit sequenziale o parallela), ovvero gli operatori si applicano a pixels con stesse coordinate, appartenenti a immagini diverse
Sottrazione ed addizione sono le operazioni aritmetiche pi utilizzate
Divisione e moltiplicazione hanno ruoli equivalenti (la divisione tra due immagini riconducibile alla moltiplicazione di unimmagine per il reciproco dellaltra) riconducibili a mascheramenti
Le immagini che compaiono come operandi nelle espressioni algebriche debbono avere la
8
-
stessa dimensione
Somma di ImmaginiRiduzione del rumore, Image averaging
Definiamo rumore presente in un'immagine una componente del segnale acquisito che deriva dal segnale ideale
Consideriamo l'immagine come matrice di pixels i cui valori sono dati da :
g(x,y) = f(x,y)+r(x,y) con r rumore presente nell'immagine
L'idea sottesa al metodo di ridurre il rumore sommando una serie di immagini g(x,y)
g(x , y )= 1ki=1
K
gi(x , y)
possibile dimostrare che se il rumore scorrelato e con media 0 , il valore atteso di
g(x , y ) f (x , y )
Scaling per visualizzazione di immagini somma:
Unimmagine a 8 bit ha un range di valori per ciascun pixel [0,255]
Sommando K immagini il range [0, kX255]. Per riportare i valori nel range di visualizzazione lo scaling : g(x,y)/K
Sottrazione di immagini Si ottiene calcolando la differenza tra i valori di tutte le coppie di pixels corrispondenti, nelle
due immagini di riferimento. C(x,y)=A(x,y)-B(x,y)
La sottrazione pu essere utilizzata per enfatizzare le differenze tra due immagini non visibili percettivamente.
Nei prossimi due esempi che seguono viene sottratta ad unimmagine una stessa immagine acui sono stati azzerati nella codifica di ciascun pixel i 4 bit meno significativi
Scaling per immagini differenza:
Nella differenza di immagini il massimo range possibiledellimmagine risultato [-255, +255].
Per riportare i valori nel range di visualizzazione sfruttando tutto il range dinamico lo scaling consiste nel:
1. Considerare il minimo dellimmagine differenza
2. Sommare il suo negativo a tutti i pixel g(x,y)
3. Moltiplicare per la costante 255/Max dove MAX il massimo dellimmagine ottenuta al punto 2
9
-
Per la moltiplicazione e divisione serve per schiarire o scure di un certo valore l'immagine
Operazioni insiemistiche Si applicano a insiemi di pixels appartenti a regioni allinterno di immagini
Unassunzione implicita che i pixels appartenenti ad una regione (insieme) abbiano la stessa intensit; non infatti definito il risultato dellintersezione sui valori di intensit
Operatori Logici Operano anchessi pixel per pixel.
I pixels sono processati come stringhe di numeri binari; gli operatori si applicano dunque bita bit
Es: il Not applicato ad un pixel nero apparir bianco; il Not realizza la stessa funzione del negativo di un immagine: s=255-t
And, OrSono utilizzati per mascherare e quindi isolare regioni di interesse nellimmagine (RoI).
AND: foto AND foto( tutto nero e rettango bianco) passa solo ci che ce nel rettangolo bianco
OR: foto OR foto ( tutto bianco e un rettangolo nero ) passa solo ci che c' nel rettangolo nero
Trasformazioni SpazialiTrasformazioni spaziali mediante Operatori LocaliGli operatori locali per trasformazioni spaziali, detti anche filtri operano sullinformazione spaziale intesa come "variazione" dei livelli di grigio in un determinato intorno dell'immagine.
Frequenza Spaziale, Due definizioni:
E' la differenza fra il valore pi alto e pi basso in un certo intorno
E' il numero di cambiamenti nel valore di intensit per unit di distanza per ogni parte dell'immagine
* se tutti i pixel sono uguali = frequenza nulla
**se un pixel vale zero e quello sotto vale tanto = frequenza del segnale alta
***se un pixel rispetto a un altro ha variazioni unitarie = frequenza del segnale bassa
FiltriAlla base delle trasformazioni spaziali sottesa l'idea che un'immagine sia una sintesi di diverse componenti spaziali a diversa frequenza.
10
-
La decomposizione dell'immagine in una somma di componenti a differenti frequenze alla base dell'uso di filtri
Il processo inverso di sovrapposizione porta alla sintesi dell'immagine.
F(x,y) = LP (x,y) + HP (x,y)
con:
LP = low Pass filtering
HP = High Pass filtering
F = immagine di partenza
Tipi di filtri:
LowPass: enfatizza, lascia passare, le basse frequenze
HighPass: enfatizza, lascia passare, le alte frequenze
Le trasformazioni spaziali o filtri spaziali si basano su
operatori locali che operano direttamente nel piano immagine interessando il pixel e il suo intorno
sul concetto di finestra mobile (maschera, template, Kernel)
Filtri Lineari - Convolutivi Finestra monile: matrice di coefficienti e di valori da sommare
La finestra centrata sul pixel da elaborare
Le dimensioni della finestra in generale mxn (di solito quadrata)
Formula
m = 2a + 1
n = 2b + 1
w = matrice per trasformare
f = matrice
g(x , y )=s=a
a
t=b
b
w(s , t )f (x+s , y+ t)
11
-
*Per semplicit di notazione
con:
wi = coefficiente della maschera
zi = valore del pixel immagine
R=i=1
mn
wizi
Soluzioni con la maschera sui bordi Si limita il movimento della maschera mantenendola ad una distanza di (n-1)/2 cio si
eliminano i bordi
si duplicano le righe/colonne dell'immagine
Allargo l'immagine con righe/colonne di zeri
Operatori di Smoothing : Filtri passa-basso Si enfatizzano le basse frequenze e si attenuano le alte frequenze
determinano uno sfocamento dell'immagine, utile per vari scopi:
per eliminare piccoli dettagli
per ridurre il rumore
per attenuare falsi contorni per quantizzazione non accurata
Formula generale per operatori lineari di smoothing:
g(x , y )=s=a
a
t=b
b
w (s , t)f (x+s , y+t)
s=a
a
t=b
b
w(s , t)
con
maschera m x n
m = 2a +1
n = 2b +1
Osservazioni:
Il denominatore costante
dal punto di vista algoritmico
si applica all'immagine l'operazione indicata al numeratore
12
-
all'immagine risultante si applica il fattore di scala indicato dal denominatore
Applicazioni Eliminare dettagli
Eliminare rumore
SogliaturaL'effetto di omogeneizzazione fatto a scapito di informazioni di bordo, "edges",ovvero di discontinuit significative nell'immagine. Una soluzione la sogliatura.
Con
f immagine originale
g immagine filtrata
g immagine risultato
{gI (x , y)=g (x , y ) , se|g (x , y ) f (x , y )|
-
dell'operatore di filtraggio.
7 x7 per=1
11 x11 per=1,5
13 x13 per=2
19 x19 per=3
si ottiene una buona approssimazione con la costante davanti alla maschera viaggiante pari a:
K=2
Esempio
Maschera viaggiante:
1 4 7 4 1
4 16 26 16 4
7 26 41 26 7
4 16 26 16 4
1 4 7 4 1 Coefficiente: 1/273
Filtro Mediano Se l'obbiettivo ridurre il rumore piuttosto che livellare, omogeneizzare l'immagine, un
approccio alternativo agli operatori di smoothing lineare.
E' particolarmente efficace quando il rumore consiste in netti spikes e si vogliono preservarele zone di transizione dell'immagine.
Si definisce valore mediano m di un insieme di valori il valore tale per cui met dei valori dell'insieme sono minori (o uguali) ad m e met sono maggiori (o uguali).
Operativamente
si ordinano i valori compresi all'interno di una finestra
si individua il valore nella posizione centrale della sequenza e si assegna tale valore al pixel centrale
Trasformazioni Spaziali1-2015.pdf SLIDE 30...32
Operatori di SharpeningSono basati sulla derivata prima e derivata seconda della funzione immagine.
Basati sulla derivata prima:
devono avere valore zero nei tratti omogenei dellimmagine
14
-
devono avere valore diverso da zero lungo le zone di transizione
Formula
{ dfdx=f (x+1, y )f (x , y )dfdy=f (x , y+1)f (x , y )
Basati sulla derivata seconda:
devono avere valore zero nei tratti omogenei dellimmagine
devono avere valore diverso da zero allinizio ed al termine delle zone di transizione
Devono avere valore pari a zero nelle zone di transizione con pendenza costante
Formula
{ d2 fdx2
=f (x+1, y)+ f (x1, y)2 f (x , y)
d2 fdy2
=f (x , y+1)+ f (x , y1)2 f (x , y )
Operatore di Sharpering Basato sulla derivata secondaSiamo interessati ad un operatore che sia:
Isotropo ovvero che esalti le zone di alta frequenza in modo indipendente dalla direzione delle discontinuit
Invariante per rotazione: ruotando limmagine ed applicando poi loperatore si ottiene lo stesso risultato della rotazione dellimmagine a cui gi stato applicato loperatore
Operatore LaplacianoRosenfeld and Kak (1982) trovarono che loperatore piu semplice ed efficace basato sulla derivata seconda il Laplaciano.
Nel continuo, per una funzione f(x,y) loperatore Laplaciano definito nel modo seguente:
2 f= d2 f
d x2+ d
2 fd y2
15
-
un operatore lineare, possibile esprimerlo in termini di maschera convolutiva:(Dimostrazione SLIDE 10,11 Trasformazioni-spaziali2-2015.pdf)
nell'intorno a 4 (come segue o con i seni invertiti)
0 1 0
1 -4 1
0 1 0 Nell'intorno a 8 (come segue o con i segni invertiti)
1 1 1
1 -8 1
1 1 1
Le maschere derivative hanno il nucleo convolutivo a somma nulla: nelle zone omogenee dellimmagine (ovvero zone con pixels aventi lo stesso valore di
grigio), conformemente al comportamento atteso di un operatore derivativo assegnano ai pixels un valore pari a valore zero
Sommando il risultato del Laplaciano con limmagine originale le zone di transizione del segnale immagine risulteranno enfatizzate e le rimanenti inalterate
g(x , y )={f (x , y )2 f (x , y) , se il centrodellamaschera negativof (x , y) 2 f (x , y ) , se il centro dellamaschera positivoMaschere viaggianti
Senza elementi Diagonali0 -1 0
-1 4 -1
0 -1 0 Con elementi diagonali
-1 -1 -1
-1 8 -1
-1 -1 -1
Filtri di Sharpening Unsharp Masking & High BoostingIdea: un'immagine frutto del contributo di basse ed altre frequenze
F(x , y)=PassaAlto(x , y )+PassaBasso (x , y )
Un effetto di sharpening si ottiene sottraendo ad un'immagine l'immagine stessa con un operatore diSmoothing cio un filtro passa basso
PassaAltro(x , y)=F(x , y)PassaBasso (x , y )
16
-
Filtro Unsharp Maskingg(x , y )= f (x , y ) f smoothed (x , y )
High Boosting
Formulag(x , y )=Af (x , y)f smoothed(x , y) , con A1
Maschera convolutiva (Se A = 1 ottengo il Laplaciano)
f passaalto(x , y )={Af (x , y )2 f (x , y )Af (x , y)+2 f (x , y) Senza elementi Diagonali
0 -1 0
-1 A+4 -1
0 -1 0 Con elementi diagonali
-1 -1 -1
-1 A+8 -1
-1 -1 -1
Uso della derivata primaGradiente:
Il gradiente un vettore che in ogni punto orientato nella direzione di massima pendenza del segnale immagine. Lentit della pendenza catturata dal modulo del gradiente
f=[G xG y ]=[ f x f y ]
Modulo del Gradiente:
| f|=G x2+G y2
Direzione del gradiente (coefficiente angolare della retta Gy e Gx)
( x , y)=tan1(G yG x )Approssimazione discreta del modulo del gradiente mediante applicazione in successione di due maschere convolutive:
| f|=G x2+G y2 | f||G x|+|G y|
17
-
z1 z2 z3
z4 z5 z6
z7 z8 z9| f||z 8z 5|+|z6z5|
Altre approssimazioni: Operatore di Roberts
| f||z 9z 5|+|z8z6|-1 0
0 1+
-1 0
0 1 Operatore di Sobel
| f||(z7+2z8+z 5)(z 1+2z 2+ z3)|+|(z 3+2z 6+z9)(z 1+2z 4+z 7)|
-1 -2 -1
0 0 0
1 2 1+
-1 0 1
-2 0 2
-1 0 1
Operatori di Smoothing Sommario Operatori di integrazione (filtro passa basso)
Media, media pesata
Nuclei convolutivi con somma algebrica dei coefficienti positiva
Gauss (credo)
Operatori di Sharpening Sommario Operatori derivativi (filtro passa alto)
Gradiente, Laplaciano
Nuclei convolutivi con somma algebrica nulla
18
-
Segmentazione delle immagini
Segmentazione di ImmaginiGenerale:
La segmentazione suddivide limmagine in regioni/oggetti che la compongono e ripropone in chiave tecnologica/artificiale la primitiva figura/sfondo che regola la nostra percezione
Il livello di dettaglio con cui effettuare la suddivisione dipende dagli scopi dellanalisi di immagini di cui la segmentazione il passo iniziale
La segmentazione di immagini uno dei temi pi complessi dellelaborazione delle immagini
Dallaccuratezza del processo di segmentazione dipende il successo delle elaborazioni successive finalizzate allanalisi ed alla classificazione dei contenuti In alcune appllicazioni, per facilitare il processo di segmentazione si controlla il processo di acquisizione (es: per il controllo industriale si controlla lilluminazione e lo sfondo in modo tale che gli oggetti siano facilmente identificabili) o si controlla la formazione dellimmagine (es: nel telerilevamento per scopi di target recognition militare si utilizzano sensori sensibili alle caratteristiche spettrali degli oggetti da identificare
Sia R la regione spaziale che comprende lintera immagine.Possiamo intendere la Segmentazione un processo che partiziona R in n sottoregioni R 1 ,....., R n tali che :
1.nUi=1
R i=R
2. Ri unaregione connessa, i
3. RiR j= i , j , i j
4. P(Ri)=True , iP(R k ) un predicato logico definito per i punti appartenenti a Rk FI linsieme vuoto
19
-
5. P(RiR i)=False per ogniregione adiaciente Ri ,R j
Approcci alla segmentazione Approccio basato sulla discontinuit dei valori di grigio nellimmagine:
[Basate sui Contorni]
assume che i bordi (edges)degli oggetti siano sufficientemente diversi gli uni dagli altri edal background in modo da consentire una separazione degli oggetti di interesse
Approccio per similarit dei valori di grigio: [Basate sulle regioni]
procede direttamente individuando regioni che soddisfano i criteri 1-5 elencati in precedenza
Parallelismo Enhancement-Edge detection Enhancement - operatori puntuali livello di grigio
Enhancement - operatori locali frequenza spaziale
Segmentazione - operatori basati sulla discontinuit contorni
Segmentazione - operatori basati sulla similarit regioni
Contorni e regioni sono strutture che creano il link tra dati grezzi ed interpretazione.
Metodi basati sulla discontinuit (Basati sui contorni) Si basano su operatori derivativi
tali metodi sono articolati in due fasi:
Trasformazione dell'immagine per esaltare le zone di Discontinuit
Applicazione di un criterio di decisione ad ogni pixel dell'immagine trasformata per attribuire l'appartenenza o la non appartenenza del pixel alle zone di bordo
Alla base di queste tecniche ritroviamo operatori derivativi simili a quelli visti nell'ambito dell'Image Enhancement
NellEnhancement il risultato prodotto dallapplicazione di tali operatori viene sovrapposto allimmagine originale per esaltare le zone ad alta frequenza spaziale
Nella segmentazione dopo lapplicazione di tali operatori viene applicata una regola di decisione per decidere sulla base del valore della trasformazione se un dato pixel dellimmagine appartiene ad un bordo/edge
SLIDE 11 Segmentazione dimmagini.pdf
20
-
Operatori utilizzati nell'ambito della segmentazione Operatori direzionali semplici
Operatori basati sul modulo del gradiente
Operatore Laplaciano, Laplaciano della Gaussiana
Determinazione di Punti Isolati Applicando un operatore derivativo del secondo ordine
ottengo valori molto discrimanti
Il punto isolato definisce una zona di discontinuit in tutte le direzioni
Si utilizza quindi l'operatore Laplaciano che un operatore isotropo derivativo del secondo ordine
Procedimento Applico l'operatore Laplaciano su tutti i pixels dell'immagine
Applico un'operazione di sogliaturaif |R|>=Tthen punto isolato
Estrazione di lineeSi definiscono maschere viaggianti di tipo direzionale, ovvero che calcolano le differenze accumulate lungo certe direzioni:
La direzione caratterizzata dalla disposizione dei coefficienti con valore pi alto (pari a 2) nel nucleo convolutivo, la cui somma pari a zero; le maschere daranno quindi risposte nulle nelle zone omogenee.
Assumendo un background costante, ciascuna maschera far tornare il valore massimo quando sar posizionata in modo tale che la linea disposta lungo la riga centrale della maschera
Spiegazione
Siano R1, .., R4 le risposte delle maschere per un dato posizionamento sullimmagine
21
-
Se|Ri|>|R j for|all ji
il corrispondente pixel centrale appartiene alla linea con direzione corrispondente alla maschera i-esima
Se si interessati allindividuazione di linee in una determinata direzione nota a priori, si processa limmagine con la maschera corrispondente e si soglia il valore dellimmagine risultante opportunamente
Bordi (edges) e ContorniLapproccio per discontinuit alla segmentazione delle immagini ha come obbiettivo la determinazione completa del contorno degli oggetti contenuti nellimmagine.
Alcune precisazioni:
Contorno concetto globale
Bordo (edge) concetto locale
Un edge/bordo un insieme di pixels connessi che risiedono nelle zone di confine tra due regioni, in cui lintensit subisce brusche variazioni
Idealmente un edge un insieme di pixels connessi ognuno dei quali Si pone ortogonalmente alla transizione dei livelli di grigio.
Realisticamente, a causa di imperfezioni nel processo di acquisizione, un edge mostra spesso un effetto di sfocamento, cos da avere un profilo a rampa. Pi la rampa lunga pi ledge spesso.
Utilizzando operatori locali, per ottenere un contorno si determinano gli edges mediante operatori derivativi locali e si definisce poi una procedura per la ricostruzione/descrizione dei contorni degli oggetti linkando i bordi individuati
Edge
Con gli operatori derivativi si rilevano i punti di transizione di livelli di grigio nellimmagine
Per rilevare un edge occorre cogliere la significativit della transizione ovvero distinguere transizioni significative (edges) da transizioni non significative (rumore, variazioni non di bordo)
Lo strumento a disposizione per la discriminazione la sogliatura; il problema lindividuazione della soglia che sar frutto di conoscenze a priori o procedure trial and error
*Gli operatori basati sulla derivata prima e seconda sono sensibili al rumore In particolare la derivata seconda.
22
-
Altre precisazioni:
Punto di bordo:
La derivata prima in quel punto ha un valore superiore ad una determinata soglia
Segmento di Bordo:
Insieme di punti di bordo connessi secondo un dato criterio di connettivit
Contorno:
Insieme di segmenti di bordo linkati tra loro secondo un criterio di linking
Operatori Operatore di Roberts
| f||z 9z 5|+|z8z6|-1 0
0 1+
-1 0
0 1 Operatore di Sobel
| f||(z7+2z8+z 5)(z 1+2z 2+ z3)|+|(z 3+2z 6+z9)(z 1+2z 4+z 7)|
-1 -2 -1
0 0 0
1 2 1+
-1 0 1
-2 0 2
-1 0 1
Operatore di Prewitt| f||(z7+z 8+z 9)(z 1+z2+z 3)|+|(z3+ z6+z 9)(z1+z 4+z 7)|
-1 -1 -1
0 0 0
1 1 1+
-1 0 1
-1 0 1
-1 0 1
23
-
Determinazione dei contorni basata su operatori-gradiente Applicazione delle maschere nelle due direzioni
calcolo del modulo (e della direzione del gradiente)
Svantaggi:
Complessit del calcolo
Difficolt nell'individuazione di un valore di soglia
Se si applica lo smoothing
elimina zone di discontinuit non significative
Sar pi semplice determinare il valore di soglia per la determinazione dei contorni
Metodo:
Sobel
Smoothing
Threesholding
Uso del Laplaciano nella segmentazione Uso diretto per la localizzazione degli edge
Uso complementare agli operatori derivativi del primo ordine a cui demandato il ruolo di localizzazione degli edges; con il Laplaciano si prende la decisione se un pixel sta nel lato scuro o chiaro delledge (inizio o fine della rampa relativa alledge nel profilo immagine).
Vantaggi principali del Laplaciano per un uso diretto:
Il punto di passaggio per lo zero unico se la rampa in corrispondenza delledge sufficientemente ripida (questo consente di ottenere contorni a spessore unitario e centrati sul punto di transizione)
Gli zero crossing formano catene abbastanza continue indipendentemente dall'intensit del contorno
L'operazione di sogliatura pi semplice: i candidati punti di contorno sono gli zeri della derivata seconda.
24
-
Uso del Laplaciano della Gaussiana per la segmentazione Poich il Laplaciano un'operatore derivativo del secondo ordine ha comunque dei limiti se
applicato direttamente poich risulta molto sensibile al rumore.
Loperatore Laplaciano della Gaussiana (LoG) introdotto da Marr e Hildreth composto essenzialmente da due operazioni
Convoluzione conun filtro convolutivo gaussiano
Analisi della derivata seconda (Laplaciana): calcolo della
derivata e binarizzazione
introdotto al fine di superare lo svantaggio dellenfasi del rumore nellapplicazione del laplaciano mantenendone i vantaggi
Filtro LoG
Lidea di applicare un filtro di smoothing allimmagine per ridurre il rumore e poi applicare loperatore Laplaciano
Anzich fare in due passi si pu definire un unico nucleo convolutivo chiamato il Laplaciano della Gaussiana sfruttando la linearit delloperatore laplaciano
Formula:
log (x , y)= 14[1 x2+ y22 2 ]e
x2+ y2
22
E comodo utilizzare un nucleo convolutivo unico
Tuttavia applicando prima il filtro gaussiano e poi loperatore Laplaciano si avrebbe un maggior controllo sulla funzione di Smoothing
Analizziamo in dettaglio il ruolo delloperatore LoG per lindividuazione degli edges nellimmagine ai fini della segmentazione
Es. Consideriamo unimmagine composta da due regioni ciascuna con valori omogenei ma
diversi tra le due regioni La risposta del filtro di LoG sar la seguente:
Zero in zone distanti dalledge Positiva da un lato delledge Negativa dallaltro lato delledge Zero nel mezzo delledge
25
-
Determinazione dei Contorni Linking i bordi Idealmente le tecniche derivative dovrebbero restituire contorni continui; in realt a causa di
rumore, differenze di illuminazione etc. si ottengono contorni spezzati
Si provvede adottando tecniche di linking
Tecniche di Linking (locali) Si considerano due pixels individuati come pixels di bordo dalle tecniche basate sul
gradiente e si decide la loro a ppartenenza allo stesso contorno verificando la similarit di:
Intensit del modulo del gradiente
Direzione del vettore gradiente
Formule| f (x , y ) f (x0, y0)|E ,conE soglianonnegativa|(x , y )(x0 , y0)|A
*In casi complessi la continuit del contorno garantita dallutilizzo di approcci che integrano gli operatori locali in approcci globali
Segmentazione d'immagini Approccio per regioni
Thresholding [Multilevel thresholding] Comprende tecniche fondamentali e semplici, basate su criteri di omogeneit dei livelli di
grigio all'interno delle regioni di cui composta limmagine.
Si procede definendo degli intervalli nel range dinamico dell'immagine e ad ognuno di essi si associa una regione.
Lo strumento fondamentale per la segmentazione a soglia l'istogramma.
Formula:T = T [ (x,y), p(x,y) , f(x,y)]con:
f(x,y)livello di grigio del pixel di coordinate (x,y)
p(x,y) propriet locale (per es. livello medio
dei pixel di un determinato intorno)
T dipendente solo da f(x,y) Soglia globale
T dipendente sia da f(x,y), sia da p(x,y) Soglia locale
T dipendente da f(x,y), p(x,y), ed (x,y) Soglia dinamica, adattiva
26
-
Il rumore compromette l'applicabilit
Soluzione:
Applicare un filtro di smoothing che sfoca l'immagine (ma non l'istogramma)
L'illuminazione non omogenea sfavorisce il trovare un livello di soglia
La soglia globale da utilizzare
Immagini sempli con pochi oggetti uniformii
applicazioni nel controllo industriale in cui possibile definire e controllare l'illuminazione
Algoritmo iterativo per definire la soglia globale Seleziona un primo valore per la soglia T (ad es. valor medio di tutti i pixels
nellimmagine)
Segmenta limmagine usando T. Si ottengono due gruppi di pixels: G1 con valori sopra la soglia e G2 con valori minori o uguali alla soglia
Calcola la media dei valori per G1 e G2 (m1 ed m2 rispettivamente)
Calcola il nuovo valore di soglia T= 12(m1+m2)
Ripeti dal passo 2 finch la differenza in T tra due iterazioni inferiore ad un certo valore T 0
Local, Adaptive Thresholding Alcuni fattori connessi allacquisizione dellimmagine, per esempio lilluminazione non
uniforme, rendono inapplicabile il metodo di sogliatura basato sulla soglia globale
Il problema risolvibiledividendo limmagine originalein sottoimmagini ed utilizzareuna soglia diversa per ciascunasottoimmagine
Laspetto critico in questamodalit come dividerelimmagine (quanto grandi debbono essere le sottoimmagini) e come definire la soglia per ciascuna di esse
Lipotesi che si possa raggiungere per ciascuna immagine la condizione per cui efficace una semplice sogliatura globale
27
-
Operatori derivativi nel Tresholding Le possibilit di definire un valore di soglia per un problema di segmentazione sono
maggiori nel caso in cui listogramma dellimmagine abbia picchi elevati e ristretti, simmetrici e ben separati
Una possibilit per ottenere un buon istogramma su cui definire il valore di soglia di considerare solo pixels in prossimit dei bordi degli oggetti.
Per individuare se un pixel di bordo utilizzo il gradiente
Per individuare se sono sulla parte chiara o scura delledge utilizzo il laplaciano
Determinazione di RegioniLe tecniche di estrazione di regioni si basano sulle propriet di similarit tra i pixels dell'immagine
in alternativa alle tecniche di estrazione dei contorni che si basano sulle caratteristiche di discontinuit.
Le tecniche di estrazione di regioni tentano di raggiungere l'obbiettivo della segmentazione, ovvero l'estrazione di oggetti dall'immagine, in modo diretto definendo regioni che coincidano con oggetti o parti di essi.
Dal punto di vista insiemistico l'insieme delle regioni R 1 ,....., Rn , che vengono individuate da un processo di segmentazione devono rispettare le seguenti condizioni:
1.nUi=1
R i=R
2. Ri una regioneconnessa , i
3. RiR j= i , j , i j
4. P(Ri)=True , iP(R k ) un predicato logico definito per i punti appartenenti a Rk FI linsieme vuoto
5. P(RiR i)=False per ogniregione adiaciente Ri ,R j
Region Growing Le tecniche di segmentazione che vanno sotto il nome di region growing sono basate sul
concetto di accrescimento delle regioni ottenuto mediante progressiva fusione di pixels/regioni adiacenti.
L'idea base quella di partire con un insieme di "semi" e a questi aggregare pixels dell'intorno che obbediscono ad un criterio di omogeneit (predicato P).
Tali criteri possono basarsi su descrittori pi o meno complessi basati sull'uniformit del
28
-
livello di grigio, il colore, la tessitura...
Nellaccrescimento occorre considerare laspetto geometrico ovvero i pixels appartenenti ad una regione dovrano formare un insieme connesso
I criteri possono essere pi o meno complessi a seconda dei casi ed inglobare sia funzioni matematiche sia regole euristiche basate su conoscenze a priori degli oggetti.
Punti critici
Scelta dei semi; pu basarsi su euristiche o per essere attuata necessita la valutazione di criteri complessi e simili a quelli usati in fase di accrescimento.
Complessit computazionale
Vantaggi
Flessibilit
Accuratezza
Un aspetto interessante la definizione di approcci ibridi basati su estrazione di regioni guidata dai risultati dell'estrazione di contorni.
Tecniche di Split & MergeQueste tecniche eseguono la segmentazione in due fasi:
Fase1: processo Top Down di suddivisione dell'immagine in regioni elementari
Fase2:processo bottom-up di raggruppamento (merge) delle regioni elementari in regioni complesse.
Le tecniche "Split & Merge" si possono considerare un sottocaso delle tecniche di region growing in cui il punto di partenza fornito dalla fase di split e l'accrescimento fornito dalla fase di merge.
Split Merge [Slide 33]Il processo di splitting avviene tramite una procedura ricorsiva che crea e scandisce un albero quaternario
Si parte dall'intera immagine (R; root dell'albero quaternario) e si procede suddividendo l'immagine in un insieme di 4 regioni quadrate di dimensione 2 n X2 n (primo livello del'albero).
Si procede valutando per ogni blocco la condizione di omogeneit (rappresentata dal predicato P).
Per i blocchi per i quali la condizione non verificata si procede suddividendoli in quattro sotto-blocchi anch'essi quadrati di dimensioni 2 n-1 X2 n-1 ai quali viene applicata ricorsivamente la stessa procedura.
Si termina la procedura di Splitting quando per ogni regione soddisfatta la condizione di omogeneit.
29
-
Merge [Slide 35]Al termine del processo di suddivisione l'immagine segmentata in un insieme molto numeroso di regioni di piccole dimensioni (sovra- segmentazione).
E' dunque probabile che la partizione finale contenga regioni adiacenti con stesse propriet.
Si procede dunque a fondere regioni adiacenti R i ed R j per le quali
P(R i U R j )= True.
L'intero processo termina quando nessuna azione di SPLIT e MERGE possibile.
Il ColoreIl colore la traduzione visiva della stimolazione dei fotorecettori della retina provocata da unenergia radiante compresa entro un intervallo spettrale tra 0.4 e 0.7 micron di lunghezza donda
Importanza:
Ispezione visuale
Analisi automatica:
ricco di informazioni
Il fenomeno dei colori fondamentalmente di tipo psicofisico
dipende da
nautra luminosa
caratteristiche riflettivit
caratteristiche sensoriali del nostro occhio
caratteristiche psichiche
Sulla natura del colore si discusso per parecchi secoli.
Il problema resta ancora pieno di interrogativi.
La visione del colore deriva da un processo molto complesso in cui i fattori fisiologici e psicologici si sovrappongono in maniera determinante a fattori fisici.
Dal punto di vista fisico esistono solo radiazioni di diversa lunghezza donda e non il colore come entit.
Coni:
65% dei coni sono sensibili al rosso, 33% al verde, 2% al blu
30
-
Sintesi colori:
Colorimetria Obbiettivo
definire sistemi di riferimento colorimetrici assoluti che permettano di definire in modo univoco qualsiasi colore
A scopi di standardizzazione la CIE(Commission Internationale de lEclarage) fissa le lunghezze donda dei colori primari ai seguenti valori
Blu = 435.8nm
Green= 546.1 nm
Rosso = 700 nm
Osservazione:Dal punto di vista della distribuzione spettrale dei colori, non un singolo colore corrispondente ad una singola lunghezza d'onda pu essere definito rosso, verde o blu; quindi le tre componenti specificate RGB non generano tutti i colori dello spettro.
Sistema colorimetrico CIE XYZ Dalla teoria del tristimolo si deriva un modello quantitativo per specificare il colore.
Un colore sar determinato dai valori di tristimolo (detti anche coefficienti di tricromaticit) denotati X, Y, Z per la componente di Rosso, Verde e Blu rispettivamente
Come si derivano tali coefficienti?
Ricordiamo i fattori coinvolti nella caratterizzazione del colore
La riflettanza della superficie di cui si vuole quantificare il colore
31
-
la sorgente illuminante
le curve di sensibilit dei tre tipi di fotoricettori del nostro sistema visivo
L15-IL Colore.pdf SLIDE 26...46
Gli Spazi Colore - Modelli di rappresentazione del Colore Lo scopo dei mofelli e/o spazi colore quello di facilitare la specifica dei colori in una
modalit standard
In essenza un modello colore consiste di:
Un sistema di coordinate che definisce uno spazio
Un sottospazio in cui ogni colore un punto
Ogni spazio differisce per le variabili scelte come base per lo spazio
Esistono diversi spazi orientati a diversi scopi:
hardware oriented (monitor a colori, stampanti)
RGB (color monitor, Video cameras)
CMY, CMYK (stampanti a colore)
manipulation oriented (CAD, Animazione,..)
HSI
Esistono molti altri modelli, facilmente derivabili e comprensibili a partire da quelli citati
Il modello colore RGB E basato sulla teoria del tristimolo per la quale ogni colore visto come combinazione
variabile dei tre colori primari Red, Green, Blue
Il sistema RGB alla base della produzione di grafica per lo schermo
I valori spettrali di Red Green and Blue sono quelli convenzionalmente posti da C.I.E (non si generano quindi tutti I colori visibili)
Ogni colore appare nelle sue tre componenti spettrali Red Green Blue
ogni colore un punto allinterno del cubo ed definito in termini di un vettore che parte dallorigine del sistema di assi cartesiani.
E definito in un sistema di riferimento cartesiano con i colori primari R G B posti sugli assi
Linsieme dei punti appartenenti al cubo rappresenta linsieme dei colori
che si possono rappresentare con i colori primari scelti come basi Il modello RGB
32
-
semplice computazionalmente, orientato allHardware
Non include le caratteristiche percettive, non quindi immediata la manipolazione dei colori
Codifica delle immagini RGB
3 strati di colore Es. 8 bit, in totale fa 24 bit
E importante definire un sottoinsieme di colori riproducibile fedelmente indipendentemente dalle risorse hardware a disposizione.
Molti sistemi in uso riducono il numero di colori rappresentabili a 256 a vantaggio della fedelt di riproduzione
Dei 256 solo 216 sono affidabili ovvero riproducibile fedelmente indipendentemente dal sistema operativo. (Per applicazioni Internet consigliabile utilizzare tale sottoinsieme detto safe web colors)
I modelli CMY e CMYK lo spazio CMY lo spazio duale di RGB, con basi opposte:
C=1-R M=1-G Y=1-B
Conversione RGB CMY
[ CMY ]=[111][
RGB ]
Spazio HSI/L E vicino a come si pensa il colore ovvero in termini di
Tinta (Hue)
Saturazione (Saturation)
Intensit/Brillanza (Intensity) (o lightness)
E uno strumento utile per sviluppare algoritmi basati su una descrizione percettiva del colore e che dovranno essere utilizzati per manipolare colori secondo una descrizione naturale ed intuitiva
La nozione di intensit fondamentale nel descrivere uninformazione pittoriale; lo spazio HSI scorpora linformazione intensit dai descrittori di colore/tinta facilitando la specifica del colore complessivo
* e come far ruotare il cubo dell'RGB su un vertice
33
-
Elaborazione delle Immagini in Pseudocolore Tecniche di conferimento del colore a immagini acquisite in bianco e nero.
Lo scopo migliorare lispezione visuale di immagini e identificare informazioni rappresentate originariamente in scale di grigio.
Intensity Slicing/Color CodingPensiamo allimmagine rappresentata come funzione 3D. Ponendo un piano parallelo alle coordinate dellimmagine si definisce uno slicing dellimmagine. Associando un colore diverso ad ogni lato del piano otteniamo unimmagine a due colori.
In generale:
Sia[0, L-1] la scala di grigi, l 0 il nero e l L-1 il bianco
Supponiamo che P piani perpendicolari allasse delle intensit siano definiti ai livelli l 0 ...l p;
i piani P con 0
-
Operatori di Enhancement Similmente alle trasformazioni puntuali per immagini a livelli di grigio definiamo le
trasformazioni (ountuali) del colore in unimmagine full color con lespressioneg(x , y )=T [ f ( x , y)]
Dove f unimmagine a colori g limmagine trasformata T un operatore che opera suun intorno dellimmagine
Operatori Puntuali Operano solo sul valore puntuale del pixel ovvero sui valori di grigio dei piani immagine
che compongono limmagine a colorsi=T i(r1 ,... , rn), con i=1, ... , n
n il numero delle componenti colore:in RGB n=3, in CMYK n=4..;
si e ti denotano le componenti colore di ciascun pixel e Ti denota la trasformazione definita per una data componente colore; linsieme delle trasformazioni Ti denota linteratrasformazione detta color mapping
Color BalancingFunzioni che correggono Limmagine per ottenere quella corretta
Trasformazioni spaziali: Smoothin nello spazio RGBSia S x,y un insieme di coordinate che definiscono un intorno del pixel c di coordinate (x,y) in unimmagine RGB
c (x , y )=[R(x , y)G (x , y )B(x , y )]l'operazione di smoothing cos definita:
c (x , y )=1k (x , y)S
c (x , y )
c (x , y )=[1k (x , y)S
R(x , y )
1k ( x, y)S
G(x , y)
1k (x , y)S
RB(x , y )]Con R, G, B componenti del pixel c dellimmagine a colori nel piano di Rosso del Verde e del Blu
35
-
Color Image Sharpening:operatore Laplaciano
2[c (x , y )]=[2R (x , y )
2G(x , y )2B(x , y) ]
36
Formazione delle ImmaginiAcquisizione dell'immagineProcesso di acquisizione dell'immagineProcesso di formazione delle immagini
Percezione delle ImmaginiConcetti di baseImage EnhancementCaratteristicheFormula GeneraleOperatori Puntuali GeneraleTrasformazioni dei valori di grigioApplicazioniTrasformazioni puntuali di base
Operatori PuntualiNegativo di un immagineTrasformazioni logaritmicheTrasformazioni LogaritmicheContrast StretchingContrast Stretching con funzioni lineari a pezziGray level/intesity SlicingBit Plane Slicing
Istogramma di un immagineDefinizioneIstogramma normalizzatoIstogramma cumulato
Equalizzazione dell'istogrammaI passi della procedura di equalizzazioneMatching di istogramma
Operazioni Aritmetiche con le immaginiSomma di ImmaginiSottrazione di immagini
Operazioni insiemisticheOperatori LogiciAnd, Or
Trasformazioni SpazialiTrasformazioni spaziali mediante Operatori LocaliFiltriFiltri Lineari - ConvolutiviSoluzioni con la maschera sui bordiOperatori di Smoothing : Filtri passa-bassoApplicazioni
SogliaturaFiltro GaussianoFiltro MedianoOperatori di SharpeningOperatore di Sharpering Basato sulla derivata secondaOperatore LaplacianoFiltri di Sharpening Unsharp Masking & High BoostingUso della derivata primaOperatori di Smoothing SommarioOperatori di Sharpening Sommario
Segmentazione delle immaginiSegmentazione di ImmaginiApprocci alla segmentazioneParallelismo Enhancement-Edge detectionMetodi basati sulla discontinuit (Basati sui contorni)Operatori utilizzati nell'ambito della segmentazioneDeterminazione di Punti IsolatiProcedimentoEstrazione di lineeBordi (edges) e ContorniOperatoriDeterminazione dei contorni basata su operatori-gradiente
Uso del Laplaciano nella segmentazioneUso del Laplaciano della Gaussiana per la segmentazioneDeterminazione dei Contorni Linking i bordiTecniche di Linking (locali)
Segmentazione d'immagini Approccio per regioniThresholding [Multilevel thresholding]Algoritmo iterativo per definire la soglia globaleLocal, Adaptive ThresholdingOperatori derivativi nel TresholdingDeterminazione di RegioniRegion GrowingTecniche di Split & MergeSplit Merge [Slide 33]Merge [Slide 35]
Il ColoreColorimetriaSistema colorimetrico CIE XYZ
Gli Spazi Colore - Modelli di rappresentazione del ColoreIl modello colore RGBI modelli CMY e CMYKSpazio HSI/L
Elaborazione delle Immagini in PseudocoloreIntensity Slicing/Color Coding
Full color Image processingOperatori di EnhancementOperatori PuntualiColor BalancingTrasformazioni spaziali: Smoothin nello spazio RGBColor Image Sharpening:operatore Laplaciano