rozpoznávanie obrazcov

35
Rozpoznávanie obrazcov Sonka, Hlavac, Boyle: Image Processing, Analysis and Machine vision, kapitola: Object recognition http://dip.sccg.sk/

Upload: tristram-davies

Post on 02-Jan-2016

28 views

Category:

Documents


5 download

DESCRIPTION

Rozpoznávanie obrazcov. Sonka , Hlavac , Boyle : Image Processing , Analysis and Machine vision , kapitola: Object recognition http://dip.sccg.sk/. Rozpoznávanie obrazcov. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Rozpoznávanie obrazcov

Rozpoznávanie obrazcov

Sonka, Hlavac, Boyle: Image Processing, Analysis and Machine vision, kapitola: Object recognition http://dip.sccg.sk/

Page 2: Rozpoznávanie obrazcov

Rozpoznávanie obrazcov

Rozpoznávanie obrazcov sa používa na klasifikáciu oblastí a objektov a predstavuje dôležitú súčasť zložitejších systémov počítačového videnia.

Žiadne rozpoznávanie nie je možné bez znalostí. Vyžadujú sa špecifikácie tak o objektoch, ktoré sa rozpoznávajú ako aj všeobecnejšie znalosti o triedach objektov.

Page 3: Rozpoznávanie obrazcov

Prístupy rozpoznávania obrazcov

Štatistický založený na pochopení štatistického modelu obrazca a tried obrazcov

Neurónové siete: klasifikátor je reprezentovaný ako sieť buniek modelujúcich neuróny ľudského mozgu

Syntaktický (štrukturálny): triedy obrazcov reprezentované cez formálnu štruktúru ako gramatiky automaty reťazce atď.

Page 4: Rozpoznávanie obrazcov

Základné pojmy

Obrazec (pattern) je objekt, proces alebo udalosť, ktorú vieme pomenovať.

Trieda obrazcov (pattern class) je množina obrazcov s podobnými atribútmi a obvykle pochádzajú s rovnakého zdroja

Počas rozpoznávania (klasifikácie) daný objekt (obrazec) je priradený do jednej triedy

Page 5: Rozpoznávanie obrazcov

Štatistické rozpoznávanie obrazcov

Rozhodovanie na základe Bayesovo pravidla

Support Vector Machines Zhlukovacie metódy

Page 6: Rozpoznávanie obrazcov

Základný koncept

y x

nx

x

x

2

1Vektor príznakov x є X- Vektor pozorovaní (merania). - x je bod v priestore príznakov X

Skrytý stav

- Nemôže byť priamo pozorovaný.- Obrazce s rovnakým skrytým stavom patria do rovnakej triedy- Počet tried sa obyčajne vie dopredu.

Yy

- Určiť klasifikátor (rozhodovacie pravidlo), ktorý rozhodne o skrytom stave na základe pozorovania.

YX :q

Obrazec

Page 7: Rozpoznávanie obrazcov

Triedy obrazcov vytvárajú v príznakovom priestore zhluky, ktoré je možné rozdeliť diskriminačnými (oddeľujúcimi) hyperkrivkami.

Page 8: Rozpoznávanie obrazcov

Príklad

Rozpoznávanie džokej – basketbalista.

Page 9: Rozpoznávanie obrazcov

Príklad

x

2

1

x

x

výška

váha

Rozpoznávanie džokej – basketbalista.

Množina skrytých stavov Y = {H, J}

Priestor príznakov X = R 2

Trénovacie vzorky

)},(,),,{( 11 ll yy xx

1x

2x

Jy

Hy Lineárny klasifikátor

0)(

0)()q(

bifJ

bifH

xw

xwx

0)( bxw

Page 10: Rozpoznávanie obrazcov

Príznaky a obrazce

Kvalita vektora príznakov závisí od schopnosti rozdeliť vzorky do rôznych tried

•Vzorky z rovnakých tried by mali mať podobné hodnoty príznakov•Vzorky z rôznych tried by mali mať odlišné

hodnoty príznakov

“Good” features “Bad” features

Page 11: Rozpoznávanie obrazcov

Separabilné triedy - také, pre ktoré existujú oddeľujúce nadplochy. Lineárne separabilné – také, pre ktoré existujú oddeľujúce nadroviny. Väčšina reálnych problémov je reprezentovaná ako neseparabilné triedy, teda klasifikátor sa pomýli.

Page 12: Rozpoznávanie obrazcov

Komponenty PR systému

Sensors and preprocessing

Feature extraction

Classifier

Classassignment

• Sensors and preprocessing.• A feature extraction aims to create discriminative features

good for classification.• A classifier.• A teacher provides information about hidden state --

supervised learning.• A learning algorithm sets PR from training examples.

Learning algorithmTeacher

Pattern

Page 13: Rozpoznávanie obrazcov

Feature extraction methods

km

m

m

2

1

nx

x

x

2

11φ

km

m

m

m

3

2

1

nx

x

x

2

1

Redukcia príznakov Výber príznakov

Problém môže byť vyjadrený ako optimalizácia parametrov

Metódy s učiteľom: objektívnou funkciou je kritérium separability označených vzoriek, e.g., linear discriminat analysis (LDA).

Metódy bez učiteľa: hľadá sa reprezentácia nižšej dimenzie, ktorá zachová dôležité charakteristiky vstupných dát, e.g., principal component analysis (PCA).

φ(θ)

Page 14: Rozpoznávanie obrazcov

KlasifikátorKlasifikátor rozdelí priestor príznakov X na regióny označené triedou také že

||21 YXXXX }0{||21 YXXX and

1X 3X

2X

1X1X

2X

3X

Klasifikácia pozostáva z rozhodnutia, do ktorého regiónu vektor príznakov x patrí.

Hranice medzi regiónmi rozhodovania sa nazývajú rozhodovacie hranice (decision boundaries)

Page 15: Rozpoznávanie obrazcov

Reprezentácia klasifikátora

Klasifikátor je typicky reprezentovaný množinou diskriminačných funkcií

||,,1,:)( YX igi x

Klasifikátor priradí vektor príznakov x do i-tej triedy ak )()( xx ji gg ij

Vektor príznakov

Diskriminačná funkcia

Identifikátor triedy

)(1 xg

)(2 xg

)(|| xYg

maxx y

Page 16: Rozpoznávanie obrazcov

Potom je nadplocha medzi triedami a určená rovnicou = 0. Z toho vyplýva rozhodovacie pravidlo

Lineárne diskriminačné funkcie sú najjednoduchšie a široko používané

Druhá možnosť je založená na princípe minimálnej vzdialenosti. Predpokladajme, že je definovaných R etalónov ktoré reprezentujú ideálnych reprezentantov R tried. Rozhodovacie pravidlo je potom

r

s

xx sr gg

)(max)()(R1,2,...,

r xxx ss

r ggd

nrnrrr xqxqxqg ...q )( 2211r0x

Rvvv ,...,, 21

xvxvx -min)(R1,2,...,

r ss

rd

Page 17: Rozpoznávanie obrazcov

Dá sa ukázať, že pravidlo najbližšieho suseda je špeciálnym prípadom lineárnych diskriminačných funkcií.

Ak sú triedy lineárne separabilné, možno použiť metódu lineárnych diskriminačných funkcií alebo pravidlo najbližšieho suseda

ak nie sú triedy lineárne separabilné, možno použiť Φ-kernel alebo nelineárne diskriminačné funkcie.

Page 18: Rozpoznávanie obrazcov

),d( , (q)min)( * qxq JJq

R ...,,, 21

)(...,),(),( 21 RPPP

R

rP1r

1.)(

Definujme J(q) ako stratu spojenú s použitím konkrétnehorozhodovacieho pravidla ω = d(x, q) v prípade nesprávnej klasifikácie.

Potom pravidlo ω = d(x, q*) sa nazýva optimálne rozhodovacie pravidlo, ak dáva minimálnu strednú stratu, teda platí, že

Klasický príklad štatistického rozpoznávania, ktoré dáva minimálnu strednú stratu, je Bayesovo pravidlo, ktoré pracuje s 2 apriórnymi a 1 aposteriórnou pravdepodobnosťou.Pretože pri neseparabilných triedach nevieme jednoznačne rozhodnúť o triede, pokladáme ju za náhodnú premennú s možnými hodnotami

s apriórnymi pravdepodobnosťamipre ktoré platí

Page 19: Rozpoznávanie obrazcov

kde

je hustota pravdepodobnosti rozloženia príznakového vektora v príznakovom priestore bez ohľadu na triedu.

Potom podmienená pravdepodobnosť, že vektor príznakov x patrí do triedy je daná vzťahom

)( rp x

R

R,

)(

)().()(

x

xx

p

PpP rr

r

R

1

)().()(r

rr Ppp xx

Väčšinou máme viac informácie ako iba apriórne pravdepodobnosti tried, nech máme aj podmienené pravdepodobnosti

ktoré vyjadrujú pravdepodobnosť objavenia sa príznakového vektora x za podmienky, že je známa trieda

Page 20: Rozpoznávanie obrazcov

Overfitting and underfitting

underfitting overfittinggood fit

Page 21: Rozpoznávanie obrazcov

Support vector machines (SVM)

Snaží sa pri rozdeľovaní 2 separovatelných tried maximalizovať vzdialenosť medzi nimi (margin)

Vektory, ktoré sa nachádzajú najbližsie sa nazývaju podporné vektory (support vectors)

Page 22: Rozpoznávanie obrazcov

SVM 2 triedy označené ω, kde ω {-1, 1}

Oddelujúca hyperplocha w.x + b = 0

Maximalizovať okraje (margin) 2 hyperplochy sú definované

w.x + b = -1 w.x + b = 1

ktoré prechádzajú cez podporné vektory

Aby sme zaručili, že ziadne trénovacie vektory nebudú medzi týmito hyperplochami musíme dodržať nerovnosť

ωi (w.xi + b) ≥ 1

Page 23: Rozpoznávanie obrazcov

Kernel funkcieNelineárna transformácia priestoru, v ktorom použijeme lineárnu hyperplochu na oddelenie tried zodpovedápoužitiu nelineárneho hyperpovrchu v pôvodnom priestore

Page 24: Rozpoznávanie obrazcov

Učenie bez učiteľa

Vstup: trénovacie vektory {x1,…,x} bez informácie o skrytom stave

Zhlukovanie: cieľom je nájsť zhluky dát s podobnými vlastnosťami

Classifier

Learning algorithm

θ

},,{ 1 xx },,{ 1 yy

Classifier

ΘY)(X: L

YΘX :q

Learning algorithm(supervised)

Trieda algoritmov učiacich sa bez učiteľa:

Page 25: Rozpoznávanie obrazcov

Príklad učiaceho sa algoritmu bez učiteľa

k-Means clustering:

Classifier ||||minarg)q(

,,1i

kiy mxx

Cieľ je minimalizovať

1

2)q( ||||

ii ixmx

ij

ji

iII

,||

1xm })q(:{ ij ji xI

Learning algorithm

1m

2m

3m

},,{ 1 xx

},,{ 1 kmmθ

},,{ 1 yy

Page 26: Rozpoznávanie obrazcov

Neurónové siete Viaceré neurónové prístupy sú založené na

kombinácii elementárnych procesorov (neurónov), z ktorých každý má viacero vstupov a jeden výstup.

Každému vstupu je priradená váha a výstup je sumou váhovaných výstupov.

Rozpoznávanie obrazcov je jednou z mnohých oblastí použitia neurónových sietí.

Page 27: Rozpoznávanie obrazcov

Viacúrovňová dopredná neurónová sieť

Basic structure

Structure of multilayer feedforward neural networks

Page 28: Rozpoznávanie obrazcov

Training algorithm : back propagation

Viacúrovňová dopredná neurónová sieť

Page 29: Rozpoznávanie obrazcov

1. Initialization Assigning an arbitrary set of weights

throughout the network (not equally).

2. Iterative stepa. Computing y for each node by using

training vector, then generating the error terms for output δ, z is the desired response.

b. Backward passing - appropriate error signal is passed to each node and the corresponding weight changes are made.

Viacúrovňová dopredná neurónová sieť

Page 30: Rozpoznávanie obrazcov

Neural Networks Decision surface complexity

Table2 : Decision surface complexity of multilayer feedforward neural networks[1]

Page 31: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

Input to the automata are unknown sentences

generated by the corresponding grammars

respectively. The grammar G = (N, Σ, P, S) N is a finite set of variables called

nonterminals, Σ is a finite set of constants called terminals, P is a set of rewriting rules called productions, and

S in N is called the starting symbol.

Page 32: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

An example N={A,B,S},Σ={a,b,c} P={S→ aA, A→ bA, A→ bB, B→c} S→ aA→ abA→ abbA→ …. →abbbbbc L(G)={abnc|n 1}≧

Page 33: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

The finite automata Af = (Q, Σ, δ, q0, F)

Q is a finite, nonempty set of states,Σ is a finite input alphabet,δ is a mapping from Q×Σ into the

collection of all subsets of Q,

q0 is the starting state, and

F is a set of final states.

Page 34: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

A simple automaton

Af = (Q, Σ, δ, q0, F)Q={q0,q1,q2}Σ={a, b} F=q0

δ(q0,a)={q2} δ(q0,b)={q1} δ(q1,a)={q2} δ(q1,b)={q0} δ(q2,a)={q0} δ(q2,b)={q1}Invalid input string : bababbb

Valid input string : aaabbbb

Page 35: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

Conversion between regular grammar and

corresponding automaton states. G = (N, Σ, P, S) Af = (Q, Σ, δ, q0,

F) X0 S≣ Q={q0,q1,

….,qn,qn+1} N={X0~Xn}

The mappings in δ are obtained by using the following two rules, for a in Σ ,and each i and j ,with 0 i n≦ ≦ , 0 j n≦ ≦ ,

1. If Xi→aXj is in P, then δ( qi, a) contains qj. 2. If Xi→a is in P, then δ( qi, a) contains qn+1.