forschungsstatistik ii prof. dr. g. meinhardt ss 2005 fachbereich sozialwissenschaften,...
TRANSCRIPT
Forschungsstatistik IIProf. Dr. G. Meinhardt
SS 2005
Fachbereich Sozialwissenschaften, Psychologisches Institut
Johannes Gutenberg Universität Mainz
KLW-23
Heute
1. Der Satz von Bayes & Hypothesenwahrscheinlichkeiten
2. Die Binomialverteilung
3. Approximation der Binomialverteilung durch die Normalverteilung
4. Anwendungen NV auf Hypothesen
Ankündigungen
1. Versuch: „Entdecken von Merkmalen in Zufallsfeldern“. Es fehlen noch 16 VPn:
Umfang 10 Stundendafür gibt es 5 VPn Stunden + 30 Euro)
Bitte Interessenten in Liste am schwarzen Brett “Experimentelle Psychologie“ eintragen
Die Binomialverteilung
Man werfe eine Münze n mal und zähle die Häufigkeit k, mit der dabei „Kopf“ oben liegt.
Diskrete Verteilung, die mit zunehmendem n normal wird
0 1 2 3 4k
0.05
0.1
0.15
0.2
0.25
0.3
0.35
p
n = 4
0 1 2 3 4 5 6 7 8k
0.05
0.1
0.15
0.2
0.25
p
0 1 2 3 4 56 7 8 91011121314151617181920212223242526272829303132k
0.02
0.04
0.06
0.08
0.1
0.12
0.14
p
n = 8 n = 32
[Mathematica-Beispiele]
Die Binomialverteilung
Man wiederhole ein Zufallsexperiment n mal und bestimme die Häufigkeit k, mit der ein bestimmtes Ereignis E eintritt.
Multiplikationssatz der WKn für unabhängige Versuche & Additionssatz auf die disjunkten Folgen anwenden!
Es sei: 1
P E p
P E p q
Bei n Wiederholungen kann das Ereignis „k-mal E“ auf genau n
k
Weisen eintreten. Da sich die einzelnen n über k Folgen gegenseitig ausschliessen, folgt mit dem Additionssatz:
k n knP k n p q
k
[Tafel-Entwicklung]
Die Verteilungsfunktion der Binomialverteilung
Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung
Die Wahrscheinlichkeit, daß höchstens k mal E auftritt, ist:
0
kj n j
j
nP j k n p q
j
Die Wahrscheinlichkeit, daß mindestens k+1 mal E auftritt, ist:
1
1
1
nj n j
j k
nP j k n p q
j
P j k n
Approximation der Binomialverteilung
Die Binomialverteilung hat ebenfalls Mittelwert und Varianz:
2
n p
n p q
Gilt 9n p q so kann die Binomialverteilung durch die Normalverteilung approximiert werden.
Dann gilt ; ;B n p N
[Beispiele]
z - Standardisierung
-15 -10 -5 0 5 10 150.00
0.05
0.10
Wa
hrs
che
inlic
hke
itsd
ich
te
xx
x
z - Standardisierung zur Überführung in Standardnormalverteilung
x xz
s
Wa
hrs
che
inlic
hke
itsd
ich
te-3z -2z -1z 0 1z 2z 3z
0.00
0.05
0.10
f (z)
xz
1z
z
f x
Wahrscheinlichkeitsbestimmung
Benutze austabellierte Standardnormalverteilung
0 0F z P z z
Verteilungsfunktion(Fläche der Dichtefunktion)
Eigenschaften
0F
1F
a b b aP z z z F z F z
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
zbza
Fehler 1. und 2. Art
In der Population gilt
Hypothesenwahrscheinlichkeiten : bedingte WKn
Correct
Rejection
Miss
(Fehler 2. Art)
False Alarm
(Fehler 1. Art)
Hit
H0 H1
H0
H1
Entscheidung für 0 0HP H
1 0HP H 1 1HP H
0 1HP H
Mittelwerteabstand aus WK
Tatsächlich gilt
Wie groß ist der Mittelwerteabstand der Likelihoodfunktionen ?
0.59 0.077
0.41 0.923
H0 H1
H0
H1
Entscheidung für
0 0HP H
1 0HP H 1 1HP H
0 1HP H
Man klassifiziere man nach „Distraktor“ (H0) und „Target“ (H1)
1 1
Mittelwerteabstand
z - Berechnung für jede einzelne Verteilung
H0 – Verteilung:
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
p = 0.59
z0 = F-1{0.59} = 0.23
Correct Rejection
H1 – Verteilung:
p = 0.59
z1 = F-1{0.077} = -1.43
Miss
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4
p = 0.077
Abstand in z- Standardisierung
Annahme: beide Likelihoodfunktionen haben dieselbe Varianz
Nun betrachte im z1 Wert den Abstand des Kriteriums k in Bezug auf 0:
Es gilt: 00
kz
Ferner: 11
kz
0 1 0 0 1 01
k kz
1 0 'z z d
0 1'd z z (standardisierter Abstand)