![Page 1: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/1.jpg)
1
PG 520 Intelligence Service – gezielte Informationen aus dem
Internet
Seminarthema: Hidden Markov Model
Von Wei CAI09.10.2007
![Page 2: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/2.jpg)
2
Überblick
• Markov Models• Eins der Erweiterbaren Markov Models
=> Hidden Markov Model• drei klassischen Probleme • Forward und Backward-Algorithmus• Viterbi-Algorithmus• Baum-Welch-Algorithmus
![Page 3: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/3.jpg)
3
Markov Models• Prozeß bewegt von einem Zustand zu einem anderen, der eine
Reihenfolge der Zustände erzeugt• Markoveigenschaft: Wahrscheinlichkeit jedes folgenden Zustandes
hängt nur von dem vorhergehenden Zustand ab
• Um Markov Modell zu definieren, müssen die folgenden Wahrscheinlichkeiten spezifiziert werden:
die Menge der Zustände Übergangswahrscheinlichkeiten
Anfangswahrscheinlichkeiten
![Page 4: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/4.jpg)
4
Beispiel von Markov Model
• Zwei Zustände : ‘Regen’ and ‘Sonne’.• Übergangswahrscheinlichkeiten : P(‘Regen’|‘Regen’)=0.3 , P(‘Sonn
e’|‘Regen’)=0.7 , P(‘Regen’|‘Sonne’)=0.2, P(‘Sonne’|‘Sonne’)=0.8• Anfangswahrscheinlichkeiten : P(‘Regen’)=0.4 , P(‘Sonne’)=0.6 .
Regen Sonne
0.70.3
0.2 0.8
![Page 5: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/5.jpg)
5
Beispiel von Markov Model
Nehmen wir an, dass wir eine Beobachtungsfolge der Zustände in unserem Beispiel errechnen möchten, {' Sonne', ,' Sonne',' Regen', Regen'}.
P({‘Sonne’,’Sonne’,’Regen’, ’Regen’}| Wetter ) =P(‘Sonne’) P(‘Sonne’|’Sonne’) P(‘Regen’|’Sonne’)
P(‘Regen’|’Regen’) = 0.6*0.8*0.2*0.3= 0.0288
![Page 6: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/6.jpg)
6
Einführung
• Zustände Markovkette, Übergangswahrscheinlichkeiten durch stochastische Matrix beschrieben.
• Zustände selbst nicht sichtbar(d.h. „hidden“), erzeugen Beobachtungen.
Markov eigenschaft
![Page 7: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/7.jpg)
7
Einführung
EigenschaftenSolide statistische Grundlagelernen möglichModular, d.h. Gut erweiterbar, leicht zu
verknüpfenAnwendungsgebieteBioinformatik z.B. Gen-vorhersage, neurobiologie
Datamining z.B. Named Entity Recognition
Spracherkennung, Mustererkennung
![Page 8: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/8.jpg)
8
Definition
ein HMM als Fünftupel λ = (S,A,B,π,V) mit : die Menge der Zustände, die Zustandsvariable annehmen kann : das Ausgabealphabet, das die Beobachtungsfolge annehmen kann π : die Menge der anfangswahrscheinlichkeiten mit
Wahrscheinlichkeit, dass der Startzustand ist
![Page 9: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/9.jpg)
9
Definition : Zustandsübergangsmatrix, wobei die Wahrscheinlichkeit angibt, dass vom Zustand zum Zustand gewechselt wird
: die Menge der Ausgabe-wahrscheinlichkeiten
Wahrscheinlichkeit im Zustand die Beobachtung k zu machen
![Page 10: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/10.jpg)
10
Realisierung einer Beobachtungs-folgeGegeben: N, M, A, B, π ① wähle Anfangszustand entsprechend
Anfangszustandverteilung π ② Setze t = 1③ Wähle entsprechend W-keitsverteilung der
Beobachtungssymbole im Zustand , ④ Wechsle in den nächsten Zustand entsprechend
übergangswahrscheinlichkeitsverteilung für Zustand⑤ setze t = t + 1 , wiederhole Schritt 3, falls t < T, sonst endet dies
Verfahren
![Page 11: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/11.jpg)
11
Beispiel von HMM
niedrig hoch
0.70.3
0.2 0.8
0.60.4 0.4
0.6
SonneRegen
![Page 12: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/12.jpg)
12
Beispiel von HMM • Zwei Zustände : ‘niedrig’ oder ‘hoch’ Luftdruck• Zwei Beobachtungen : ‘Regen’ and ‘Sonne’• Übergangswahrscheinlichkeiten : P(‘niedrig’|‘niedri
g’)=0.3 , P(‘hoch’|‘niedrig’)=0.7 , P(‘niedrig’|‘hoch’)=0.2, P(‘hoch’|‘hoch’)=0.8
• Ausgabewahrscheinlichkeiten : P(‘Regen’|‘niedrig’)=0.6 , P(‘Sonne’|‘niedrig’)=0.4 , P(‘Regen’|‘hoch’)=0.4 , P(‘Sonne’|‘hoch’)=0.3
• anfangswahrscheinlichkeiten : P(‘niedrig’)=0.4 , P(‘hoch’)=0.6
![Page 13: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/13.jpg)
13
Beispiel von HMM Nehmen wir alle mögliche Sequenze der verstec
kten Zustände an: P({‘Sonne’,’Regen’} ) = P({‘Sonne’,’Regen’} , {‘ni
edrig’,’niedrig’}) + P({‘Sonne’,’Regen’} , {‘niedrig’,’hoch’}) + P({‘Sonne’,’Regen’} , {‘hoch’,’niedrig’}) + P({‘Sonne’,’Regen’} , {‘hoch’,’hoch’})
Im ersten TermP({‘Sonne’,’Regen’} , {‘niedrig’,’niedrig’})= P({‘Sonne’,’Regen’} | {‘niedrig’,’niedrig’}) P({‘niedrig’,’niedrig’}) = P(‘Sonne’|’niedrig’)P(‘Regen’|’niedrig’) P(‘niedrig’)P(‘niedrig’|’niedrig’)= 0.4*0.6*0.4*0.3 = 0.01152
![Page 14: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/14.jpg)
14
Problemstellungen
1. gegeben Modellλ = (A,B,π) soll die wahrschlichkeit einer speziellen Ausgabesequenz bestimmt werden.
2. gegeben Modellλ = (A,B,π) soll die wahrscheinlichste Sequenz der versteckten Zustände bestimmt werden, die eine vorgegebene Ausgabesequenz erzeugt hat.
3. gegeben eine Beobachtungsfolge sollen die Übergangs/Ausgabe-Wahrscheinlichkeiten des HMM bestimmt werden, durch die am wahrscheinlichsten die Ausgabesequenz erzeugt wird. => Named Entity Recognition
![Page 15: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/15.jpg)
15
Evaluationsproblem
nutzt Forward-Backward Algorithms für effiziente Berechnung
Die Forward-Variable , d.h. die Wahrscheinlichkeit zum Zeitpunkt t bei gegebener Beobachtung im Zustand zu sein, ist
Die Forward-Variable wird zusammen mit der Backward-Variable für den Baum-Welch-Algorithmus zur Lösung des mit HMM gegebenen Lernproblems benötigt.
![Page 16: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/16.jpg)
16
Matrix von einem HMM o1 ot ot+1 oT = Beobachtungen
t = 1 t t+1 T
s1
s2
si
sN
s1
s2
si
sN
a2j
a1j
aij
aNj
s1
s2
sj
sN
s1
s2
si
sN
![Page 17: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/17.jpg)
17
Forward Rekursion
Initialisierung
Induktion
Terminierung
![Page 18: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/18.jpg)
18
Backward Rekursion
Initialisierung
Induktion
Terminierung
![Page 19: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/19.jpg)
19
Decodierungsproblem
Gesucht: optimale Zustandsfolge an der Beobachtungsfolge anpäßt, dann Anzahl der Korrekten Zustände maximieren
Mit dem Viterbi-Algorithmus lösbar
![Page 20: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/20.jpg)
20
Viterbi-Algorithmus
s1
si
sN
sjaij
aNj
a1j
q t-1 qt
•Idee war, wenn optimalen Weg im qt= sj endet und über qt-1= si durchgegangen ist, soll die Zustandsfolge dann auch mit dem optimalen Weg im qt-1= si zum Schluss sein können.
•Induktion:
![Page 21: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/21.jpg)
21
Viterbi-Algorithmus• Initialisierung
•Induktion
•Terminierung: optimaler Weg zum Zeitpunkt T endet
• Zustandsfolge zurückverfolgen.
![Page 22: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/22.jpg)
22
Lernproblem
• Zu gegebener endlicher Beobachtungssequenz gibt es keinen optimalen Weg, die Modellparametern abzuschätzen.
• hier nutzt expectation-maximization Algorithmus(Baum-Welch-Algorithmus), dadurch local maximum von P(O | M) gefunden werden kann.
![Page 23: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/23.jpg)
23
Baum-Welch-Algorithmus
• Methode zur Bestimmung neuer Parameter eines HMM
![Page 24: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/24.jpg)
24
Baum-Welch-Algorithmus(E1)•Im Zustand si zum Zeitpunkt t und im Zustand sj zum Zeitpunk
t t+1, die Beobachtungsfolge o1, o2, ..., ot .
t(i,j)= P(qt= si , qt+1= sj | o1 o2 ... oT)
P(qt= si , qt+1= sj , o1 o2 ... oT) P(o1 o2 ... oT)
t(i,j)= =
P(qt= si , o1 o2 ... oT) aij bj (ot+1 ) P(ot+2 ... oT | qt+1= sj ) P(o1 o2 ... ok)
t(i) aij bj (ot+1 ) t+1(j)
i j t(i) aij bj (ot+1 ) t+1(j)
![Page 25: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/25.jpg)
25
Baum-Welch-Algorithmus(E2)• Definiert Variable t(i) als die W-keit im Zustand si zum Zeitp
unkt t, die Beobachtungsfolge o1 o2 ... ot .
t(i)= P(qt= si | o1, o2, ... ot)
t(i)=P(qt= si , o1 o2 ... ot) P(o1 o2 ... ot)
= t(i) t(i)
i t(i) t(i)
![Page 26: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/26.jpg)
26
Baum-Welch-Algorithmus(E3)•berechnet t(i,j) = P(qt= si , qt+1= sj | o1 o2 ... oT) und t(i)= P(qk= si | o1 o2 ... oT)
• erwarteter Wert der Übergange von Zustand si nach Zustand sj
= t t(i,j)
• erwarteter Wert der Übergänge ausserhalb des Zustands si = t t(i)
• erwarteter Wert des vm im Zustand si = t t(i) , also ot= vm
• erwartete Anfangswahrscheinlichkeit im Zustand si zum Zeitpunt t=1: 1(i) .
![Page 27: 1 PG 520 Intelligence Service – gezielte Informationen aus dem Internet Seminarthema: Hidden Markov Model Von Wei CAI 09.10.2007](https://reader036.vdocuments.pub/reader036/viewer/2022062512/55204d6649795902118bbfcd/html5/thumbnails/27.jpg)
27
Baum-Welch-Algorithmus(Max)
aij =k k(i,j)
k k(i)
bi(vm ) = k k(i,j)
k,ok= vm k(i)
i = (im Zustand si zum Zeitpunkt t=1) = 1(i).