capitolo 15 la classificazione supervisionata classificazione a. dermanis, l.biagi

Post on 02-May-2015

227 Views

Category:

Documents

2 Downloads

Preview:

Click to see full reader

TRANSCRIPT

CAPITOLO 15CAPITOLO 15

La Classificazione supervisionataLa Classificazione supervisionata

CLASSIFICAZIONECLASSIFICAZIONE

A. Dermanis, L.Biagi

xSi

Ci = (x – mi)(x – mi)T 1ni

mi = xxSi

1ni

Metodi di classificazione supervisionata:

ParallelepipediDistanza euclideaDistanza di MahalanobisMassima verosimiglianzaBayesiano

Metodi di classificazione supervisionata:

ParallelepipediDistanza euclideaDistanza di MahalanobisMassima verosimiglianzaBayesiano

I pixel noti in ciascuna classe ω1, ω2, ..., ωK,

formano gli “insieme campione” S1, S2, ..., SK

con n1, n2, ..., nK pixel ciascuno.

I pixel noti in ciascuna classe ω1, ω2, ..., ωK,

formano gli “insieme campione” S1, S2, ..., SK

con n1, n2, ..., nK pixel ciascuno.

Stime per ciascun insieme campione Si, (i = 1, 2, …, K ) :

Vettori delle medie: Matrici di covarianza:

La Classificazione supervisionataLa Classificazione supervisionata

A. Dermanis, L.Biagi

|| x – mi || = min || x – mk || x ik

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2

(a) Semplice(a) Semplice

Assegna ciascun pixel alla classecon centro più vicino.

Confini fra le classi: iperpianiperpendicolari nel punto medio al segmento congiungente i centri delle classi.

La Classificazione con la distanza EuclideaLa Classificazione con la distanza Euclidea

A. Dermanis, L.Biagi

|| x – mi || > T, i x 0

|| x – mi || = min || x – mk ||k x i

|| x – mi || T

(b) Con livello di soglia T(b) Con livello di soglia T

Assegna ciascun pixel alla classecon centro più vicinosedistanza < livello di soglia

Lascia non classificati i pixel (class ω0)la cui distanza da ogni centro è maggiore della soglia.

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2

La Classificazione con la distanza EuclideaLa Classificazione con la distanza Euclidea

A. Dermanis, L.Biagi

Si introduce il ruolo della statistica nella classificazione!

La Classificazione con distanza EuclideaLa Classificazione con distanza Euclidea

Giusto Sbagliato

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2

A. Dermanis, L.Biagi

ij = (Ci)jj j = 1, 2, …, B

Deviazione standard per ogni banda

La classificazione con il metodo dei parallelepipediLa classificazione con il metodo dei parallelepipedi

x Pj x ix Pj x i

x Pi x 0x Pi x 0ii

Classificazione:Classificazione:

x = [x1 … xj … xB]T Pj

mij – k i

j xj mij + k i

j

j = 1, 2, …, B

Parallelepipedi Pi

A. Dermanis, L.Biagi

dM(x,mi) > T, i x0

dM(x,mi) < dM(x,mk), ki

dM(x,mi) T, xi

C = (x – mi) (x – mi)T = ni Ci 1

N i xSi

1

Ni

dM(x, x) = (x – x)T C–1 (x – x) Distanza di Mahalanobis:

Classificazione (semplice):

Classificazione con soglia:

La classificazione con la distanza di MahalanobisLa classificazione con la distanza di Mahalanobis

(Matrice di covarianza)

dM(x,mi) < dM(x,mk), ki xi

A. Dermanis, L.Biagi

di(x) > dk(x) k i xi

di(x) = 2 ln[li(x)] + B ln(2) = – ln | Ci | – (x – mi)T Ci–1 (x – mi)

li(x) > lk(x) k i xi

12

li(x) = exp [ – (x – mi)T Ci–1 (x – mi) ](2)B/2 | Ci |1/2

1

Funzione di distribuzione di probabilità o funzione di verosimiglianza per la classe ωi:

Classificazione:

Equivalente all’uso della funzione di decisione:

La classificazione con il metodo di massima verosimiglianzaLa classificazione con il metodo di massima verosimiglianza

A. Dermanis, L.Biagi

N : numero totale di pixel (i.e. per ogni banda)

B : numbero di bande,

ω1, ω2, …, ωK : le K classi presenti nell’immagine

Ni : numero di pixel nella classe ωi (i = 1,2, …, K)

nx : numero di pixel con valore x

nxi : numero di pixel con valore x in classe ωi

La classificazione mediante approccio BayesianoLa classificazione mediante approccio Bayesiano

A. Dermanis, L.Biagi

Nn x

x NNi

i ii Nn x

x i

i

n n x x

La classificazione mediante approccio BayesianoLa classificazione mediante approccio Bayesiano

N : numero totale di pixel (i.e. per ogni banda)

B : numbero di bande,

ω1, ω2, …, ωK : le K classi presenti nell’immagine

Ni : numero di pixel nella classe ωi (i = 1,2, …, K)

nx : numero di pixel con valore x

nxi : numero di pixel con valore x in classe ωi

A. Dermanis, L.Biagi

Nn x

x NNi

i ii Nn x

x i

i

n n x x

xi

xi

xx

nn N

nnN

Identità di base:

La classificazione mediante approccio BayesianoLa classificazione mediante approccio Bayesiano

N : numero totale di pixel (i.e. per ogni banda)

B : numbero di bande,

ω1, ω2, …, ωK : le K classi presenti nell’immagine

Ni : numero di pixel nella classe ωi (i = 1,2, …, K)

nx : numero di pixel con valore x

nxi : numero di pixel con valore x in classe ωi

A. Dermanis, L.Biagi

Nn x

x NNi

i ii Nn x

x i

i

n n x x

xi

xi

xx

nn N

nnN

xi i

i

x

n N

N Nn

N

La classificazione mediante approccio BayesianoLa classificazione mediante approccio Bayesiano

N : numero totale di pixel (i.e. per ogni banda)

B : numbero di bande,

ω1, ω2, …, ωK : le K classi presenti nell’immagine

Ni : numero di pixel nella classe ωi (i = 1,2, …, K)

nx : numero di pixel con valore x

nxi : numero di pixel con valore x in classe ωi

Identità di base:

A. Dermanis, L.Biagi

Nn x

x NNi

i ii Nn x

x i

i

n n x x

xi

xi

xx

nn N

nnN

xi i

i

x

n N

N Nn

N

xi i

ixi

xx

n N

N Nn

nnN

La classificazione mediante approccio BayesianoLa classificazione mediante approccio Bayesiano

N : numero totale di pixel (i.e. per ogni banda)

B : numbero di bande,

ω1, ω2, …, ωK : le K classi presenti nell’immagine

Ni : numero di pixel nella classe ωi (i = 1,2, …, K)

nx : numero di pixel con valore x

nxi : numero di pixel con valore x in classe ωi

Identità di base:

A. Dermanis, L.Biagi

p(i) =Ni

N

p(x) =nx

N

p(x | i) =nxi

Ni

p(x, i) =nxi

N

p(i | x) =nxi

nx

probabilità che un pixel appartenga alla classe ωi

probabilità che un pixel abbia il valore x

probabilità che un pixel della classe ωi abbia valore x (condizionata)

probabilità che un pixel con valore x appartenga alla classe ωi (condizionata)

probabilità che un pixel abbia il valore x eappartenga alla classe ωi (congiunta)

A. Dermanis, L.Biagi

p(i) =Ni

N

p(x) =nx

N

p(x | i) =nxi

Ni

p(x, i) =nxi

N

p(i | x) =nxi

nx

probabilità che un pixel appartenga alla classe ωi

probabilità che un pixel abbia il valore x

probabilità che un pixel della classe ωi abbia valore x (condizionata)

probabilità che un pixel con valore x appartenga alla classe ωi (condizionata)

probabilità che un pixel abbia il valore x eappartenga alla classe ωi (congiunta)

xi i

ixi

xx

n N

N Nn

nnN

A. Dermanis, L.Biagi

p(i) =Ni

N

p(x) =nx

N

p(x | i) =nxi

Ni

p(x, i) =nxi

N

p(i | x) =nxi

nx

probabilità che un pixel appartenga alla classe ωi

probabilità che un pixel abbia il valore x

probabilità che un pixel della classe ωi abbia valore x (condizionata)

probabilità che un pixel con valore x appartenga alla classe ωi (condizionata)

probabilità che un pixel abbia il valore x eappartenga alla classe ωi (congiunta)

xi i

ixi

xx

n N

N Nn

nnN

( | ) ( )( | )

( )i i

ip ω pω

pωp

=x

xx

Þ

formula di Bayes

A. Dermanis, L.Biagi

p(x|i) p(i)p(i|x) = p(x)

Pr(B | A) =Pr(A | B) Pr(B)

Pr(A)

Pr(A | B) =Pr(AB)

Pr(B)

Pr(A | B) Pr(B) = Pr(AB) = Pr(B | A) Pr(A)

p(x |i) p(i) > p(x |k) p(k) k i xi

p(i |x) > p(k |x) k i xi

p(x) = non necessaria (fattore comune)

Teorema di Bayes:

evento A = occorrenza del valore xevento B = occorrenza della classe ωi

Classificazione:

Classificazione:

A. Dermanis, L.Biagi

(x – mi)T Ci–1 (x – mi) + ln[ | Ci | + ln[p(i)] = min

p(x | i) p(i) = max

ln[p(x | i) p(i)] = ln[p(x | i) + ln[p(i) = max

p(x | i) = li(x) = exp{– – (x – mi)T Ci–1 (x – mi) }

(2)B/2 | Ci |1/2

1 12

Anzichè:

Equivalente

Classificazione:

per distribuzioneGaussiana:

o, finalmente:

p(x|i) p(i) = max [p(x|k) p(k) xi k

– – (x – mi)T Ci–1 (x – mi) – – ln[ | Ci | + ln[p(i)] = max1

212

A. Dermanis, L.Biagi

p(1) = p(2) = … = p(K)

C1 = C2 = … = CK = C

p(1) = p(2) = … = p(K)

C1 = C2 = … = CK = I

p(1) = p(2) = … = p(K)

(x – mi)T (x – mi) = min

(x – mi)T Ci–1 (x – mi) = min

(x – mi)T Ci–1 (x – mi) + ln[ | Ci | = min

(x – mi)T Ci–1 (x – mi) + ln[ | Ci | + ln[p(i)] = min

La Classificazione Bayesiana per una distribuzione Gaussiana:

CASI SPECIALI:

Massima Verosimiglianza!

Distanza di Mahalanobis!

Distanza Euclidea!

A. Dermanis, L.Biagi

top related