Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.4 Der F -Test im ALM
326 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung von Hypothesen im ALM
I Y = Xb + ε
I b sei r -dimensionaler VektorI K sei s × r Matrix
I NullhypotheseH0 : Kb = 0
I Beachte: Kb ist ein s-dimensionaler Vektor; 0 ist eins-dimensionaler Vektor (alle Eintrage 0)
327 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.10(a): Fortsetzung von Beispiel3.8(a) (Einfaktorielle Varianzanalyse)
I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat).
I Daten
X =
1 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1
T
y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T
b = (µ1, µ2, µ3)T
I Mathematisches Modell Y = Xb + ε (n1 = n2 = n3 = 10).Zeilenweise gelesen ergibt das
Yij = µi + εij j = 1, . . . , n1 ; i = 1, 2, 3
I µi Einfluss der i-ten FaktorstufeI εij Storgroßen
328 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Hypothese in Beispiel 3.8(a)
I
b =
µ1µ2µ3
I Mit
K =
(1 −1 01 0 −1
)kann die Nullhypothese
H0 : µ1 = µ2 = µ3
geschrieben werden als
H0 : Kb =
(µ1 − µ2µ1 − µ3
)=
(00
)
329 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.10(b): Fortsetzung von Beispiel3.8(a) (Einfaktorielle Varianzanalyse)
I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat)
I Daten
X =
1 1 · · · 1 1 · · · 1 1 · · · 1 11 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1
T
y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T
b = (µ, α1, α2, α3)T
I Mathematisches Modell (n1 = n2 = n3 = 10)
Yij = µ+ αi + εij j = 1, . . . , ni ; i = 1, 2, 3
I µ = (µ1 + µ2 + µ3)/3 GesamtmittelwertI αi Einfluss der i-ten FaktorstufeI εij Storgroßen
I Beachte: α1 + α2 + α3 = 0; µi = µ+ αi (i = 1, 2, 3)330 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Hypothese in Beispiel 3.8(b)I
b =
µα1α2α3
I Mit
K =
0 1 0 00 0 1 00 0 0 1
kann die Nullhypothese
H0 : αi = 0 i = 1, 2, 3
geschrieben werden als
H0 : Kb =
α1α2α3
=
000
331 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.11 Beispiel: Fortsetzung von Beispiel 3.6 (multiple lineareRegression)
Y =
Y1Y2Y3...
Yn
=
1 x11 x21 · · · xk11 x12 x22 · · · xk21 x13 x23 · · · xk3...
......
. . ....
1 x1n x2n · · · xkn
︸ ︷︷ ︸
X
·
b0b1......
bk
︸ ︷︷ ︸
b
+
ε1ε2ε3...εn
︸ ︷︷ ︸
ε
Beachte: Y = Xb + ε
I X hat n Zeilen und k + 1 SpaltenI Die i-te Zeile von Y liefert die Gleichung (der Fall i = 3 in blau)
Yi = b0 + b1x1i + b2x2i + . . .+ bkxki + εi i = 1, . . . , n
332 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Nullhypothesen in Beispiel 3.6:Testen von allen Koeffizienten
I
b =
b0...
bk
I Mit der k × (k + 1)-Matrix
K =
0 1 0 0 · · · 0 00 0 1 0 · · · 0 0...
.
.
....
.
.
.. . .
.
.
....
0 0 0 0 · · · 0 1
kann man die Nullhypothese
H0 : bj = 0 fur alle j = 1, . . . , k
schreiben als
H0 : Kb =
b1...
bk
=
0...0
333 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Nullhypothesen in Beispiel 3.6:Testen von einzelnen Koeffizienten
I
b =
b0b1...
bk
I Mit der 1× (k + 1)-Matrix [beachte: die ”1” steht an der Stelle
(1, j + 1)]K = (0, 0, . . . , 0, 1, 0, . . . , 0)
kann man die Hypothese
H0 : bj = 0
schreiben alsH0 : Kb = 0
334 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.12 F -Test fur lineare Hypothesen im ALM
I Modell: Y = Xb + ε
I Nullhypothese: H0 : Kb = 0; H1 : Kb 6= 0I Voraussetzungen (sind zu prufen): Die Komponenten des
Vektors ε (zufallige Fehler) sindI unabhangigI normalverteilt mit Erwartungswert 0 und derselben Varianzσ2 > 0
I Mathematische Statistik: Die Designmatrix X und dieHypothesenmatrix K definieren eine Statistik Fs,n−r(n: Stichprobenumfang)
I Die Nullhypothese H0 wird zu Gunsten der Alternative H1abgelehnt, falls Fs,n−r großer als das entsprechende Quantil derF -Verteilung ist bzw. der p-Wert < α ist:
335 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Die Statistik Fs,n−rI
Fs,n−r =1s (Kb)T (K (X T X )−1K T )−1(Kb)
1n−r yT (I − X (X T X )−1X T )y
I b = (X T X )−1X T Y ist der Kleinste-Quadrate-Schatzer fur bI r ist die Anzahl der Parameter im ALMI Die Nullhypothese: H0 : Kb = 0 wird verworfen, falls
Fs,n−r > Fs,n−r ,1−α
gilt (bzw. der p-Wert < α ist). Dabei ist Fs,n−r ,1−α das(1− α)-Quantil der F -Verteilung mit (s, r) Freiheitsgraden
I Beachte: Die Statistik Fs,n−r kann man aus X (Designmatrix),K (Hypothesenmatrix) und y (Datenvektor) berechnen (⇒Software wie z. B. SPSS).
s2 =1
n − r yT (I − X (X T X )−1X T )y
ist die Schatzung fur die Varianz der zufalligen Fehler im Modell.336 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Eine anschauliche Interpretation der StatistikFs,n−r
I
s2 =1
n − r yT (I − X (X T X )−1X T )y
ist die Schatzung fur die Varianz der zufalligen Fehler im ModellY = Xb + ε
I s2K sei die Schatzung fur die Varianz der zufalligen Fehler im
Modell Y = Xb + ε und der zusatzlichen Annahme, dass dieNullhypothese gilt.
I Es gilt
Fs,n−r =n − r
s
((n − r + s)s2
K − (n − r)s2
(n − r)s2
)I Beachte: Der F -Test vergleicht also die Schatzung der Varianz
unter Modellannahme des ALM mit der Schatzung der Varianzunter der Modellannahme des ALM und der Annahme, dass dieNullhypothese gilt!
337 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.13(a): Fortsetzung von Beispiel3.8(a) (F -Test in einfaktorieller Varianzanalyse)
I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat).
I Daten
X =
1 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1
T
y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T
b = (µ1, µ2, µ3)T
I Mathematisches Modell Y = Xb + ε (n1 = n2 = n3 = 10).Zeilenweise gelesen ergibt das
Yij = µi + εij j = 1, . . . , n1 ; i = 1, 2, 3
I µi Einfluss der i-ten FaktorstufeI εij Storgroßen
338 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Hypothese in Beispiel 3.8(a)
I b = (µ1, µ2, µ3)T
I H0 : µ1 = µ2 = µ3
I MitK =
(1 −1 01 0 −1
)kann die Nullhypothese geschrieben werden als
H0 : Kb =
(µ1 − µ2µ1 − µ3
)=
(00
)I Diese Designmatrix X , die Hypothesenmatrix K und der
Datenvektor y werden in die allgemeine Formel eingesetzt undman erhalt die Statistik fur den F -Test (in Softwareimplementiert).
339 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output fur die Daten aus Beispiel 3.8:Oneway ANOVA (Modell 3.8(a))
SignifikanzFMittel der Quadratedf
Quadratsumme
Zwischen den Gruppen
Innerhalb der Gruppen
Gesamt 29348,700
3,5302795,300
,00035,896126,7002253,400
ONEWAY ANOVA
Beobachtung
340 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Zerlegung der Summe der Quadrate (vgl. Beispiel1.14):
k∑i=1
ni∑j=1
(yij − y ··)2
︸ ︷︷ ︸Gesamtvarianz
=k∑
i=1
ni∑j=1
(yij − µi )2
︸ ︷︷ ︸Fehler
+k∑
i=1ni (y ·· − µi )
2
︸ ︷︷ ︸Varianz zwischen Gruppen
Beachte:
I Gesamtstichprobenumfang: n =∑k
i=1 ni
I”Gesamtmittelwert”
y ·· =1n
k∑i=1
ni∑j=1
yij
I Mittelwert der Gruppe i : µi = y i· = 1ni
∑nij=1 yij
341 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Zerlegung der Summe der Quadrate:k∑
i=1
ni (y ·· − y i·)2 = RSSH0 − RSS
mit
RSSH0 =
k∑i=1
ni∑j=1
(yij − y ··)2 (Summe der quadrierten Residuen unter H0)
RSS =
k∑i=1
ni∑j=1
(yij − y i·)2
(Summe der quadrierten Residuen im Modell der einfaktoriellenVarainzanalyse)Deutung der Statistik des F -Tests (vgl. Seite 337):
Fk−1,n−k =1
k−1∑k
i=1 ni (y ·· − y i·)2
1n−k∑k
i=1
∑nij=1(yij − y i·)
2=
n − kk − 1
RSSH0 − RSSRSS
Man vergleicht die Summe der quadrierten Residuen unter Modellannahme(RSS) mit der Summe der quadrierten Residuen unter Modellannahme undder Annahme der Nullhypothese (RSSH0 ).
342 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Statistische Tests im Modell 3.8(a) (einfaktorielleVarianzanalyse)
I H0 : µ1 = µ2 = µ3 (der Faktor ”Dosierung” hat keinen Einfluss)
Fµ =12 253.41
27 95.3=
126.73.53 = 35.89 =⇒ p-Wert ≈ 0.000
D. h. die Nullhypothese wird zum Niveau 5% verworfen
I R2µ =
227 Fµ
1+ 227 Fµ
= 0.727
c. a. 72.7% der Variation in der Variablen ”Depression” sind aufden Faktor ”Dosierung” zuruckfuhrbar.
343 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.13(b): Fortsetzung von Beispiel3.8(b) (F -Test in einfaktorieller Varianzanalyse)
I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat)
I Daten
X =
1 1 · · · 1 1 · · · 1 1 · · · 1 11 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1
T
y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T
b = (µ, α1, α2, α3)T
I Mathematisches Modell (n1 = n2 = n3 = 10)
Yij = µ+ αi + εij j = 1, . . . , ni ; i = 1, 2, 3
I µ = (µ1 + µ2 + µ3)/3 GesamtmittelwertI αi Einfluss der i-ten FaktorstufeI εij Storgroßen
I Beachte: α1 + α2 + α3 = 0; µi = µ+ αi (i = 1, 2, 3)344 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Formulierung der Hypothese in Beispiel 3.8(b)I b = (µ, α1, α2, α3)T
I H0 : αi = 0 i = 1, 2, 3I Mit
K =
0 1 0 00 0 1 00 0 0 1
kann die Nullhypothese geschrieben werden als
H0 : Kb =
α1α2α3
=
000
I Weitere Hypothese H0 : µ = 0 ⇒ verwende die
HypothesenmatrixK = (1, 0, 0, 0),
dann erhalt man: H0 : Kb = µ = 0
345 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output fur die Daten aus Beispiel 3.8:Allgemeines lineares Modell, univariat (Modell3.8(b))
SignifikanzFMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
A
Fehler
Gesamt
KorrigierteGesamtvariation 29348,700
308917,000
3,5302795,300
,00035,896126,7002253,400
,0002427,5358568,30018568,300
,00035,896126,7002253,400a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Beobachtung
a. R-Quadrat = ,727 (korrigiertes R-Quadrat = ,706)
346 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Zerlegung der Summe der quadriertenBeobachtungen in Beispiel 3.8(b):
k∑i=1
ni∑j=1
y 2ij︸ ︷︷ ︸
Gesamt
=k∑
i=1
ni∑j=1
(yij − y ··)2
︸ ︷︷ ︸korrigierte Gesamtvarianz
+ (n y ··)2︸ ︷︷ ︸konstanterTerm
=k∑
i=1
ni∑j=1
(yij − µ− αi )2
︸ ︷︷ ︸Fehler
+k∑
i=1ni (y ·· − µ− αi )
2
︸ ︷︷ ︸Varianz zwischen Gruppen
+ (n y ··)2︸ ︷︷ ︸konstanterTerm
Beachte: µ = y ··, µ+ αi = µi
347 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Statistische Tests im Modell 3.8(b) (einfaktorielleVarianzanalyse)
I H0 : µ = 0 (Gesamtmittelwert = 0)
Fµ =11 8568.3
127 95.3
=8568.3
3.53 = 2427.535 =⇒ p-Wert ≈ 0.000
D. h. die Hypothese wird zum Niveau 5% verworfen.I H0 : αi = 0 (i = 1, 2, 3) (der Faktor ”Dosierung” hat keinen
Einfluss)
Fα =12 253.41
27 95.3=
126.73.53 = 35.89 =⇒ p-Wert ≈ 0.000
D. h. die Nullhypothese wird zum Niveau 5% verworfen
I R2α =
227 Fα
1+ 227 Fα
= 0.727
c. a. 72.7% der Variation in der Variablen ”Depression” sind aufden Faktor ”Dosierung” zuruckfuhrbar.
348 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.5 Zweifaktorielle Varianzanalyse
349 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.14 Beispiel Fortsetzung von Beispiel 3.8I Arzneimittelstudie zur Behandlung einer depressiven Erkrankung
mit Unterscheidung des GeschlechtsI Drei Behandlungsformen der Depression (Placebo, einfache
Dosis, doppelte Dosis)I Je 5 weibliche und je 5 mannliche Patienten werden mit der
jeweiligen Dosierung behandelt (insgesamt 30 Probanden)I Es gibt zwei (kontrollierbare) Faktoren, die einen Einfluß auf
das Ergebnis der Therapie haben. Faktor A: Behandlungsform;Faktor: B Geschlecht
Faktor AFaktor B Placebo einfache Dosis doppelte Dosis
(1) (2) (3)mannlich 22 16 13(1) 25 16 12
22 16 1221 15 1322 15 12
weiblich 18 19 16(2) 19 20 14
17 17 1621 16 1319 16 14
350 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.15 Modell der zweifaktoriellen VarianzanalyseI Untersuche den Einfluß von zwei Faktoren (z.B. “Dosierung” und
“Geschlecht”) auf die abhangige Variable (z.B. “Depression”)I Mathematisches Modell
Yij` = µ+ αi + βj + (αβ)ij + εij`
(i = 1, . . . , kα; j = 1, . . . , kβ , ` = 1, . . . , nij)
I µ: GesamtmittelwertI αi : Einfluß der i-ten Stufe des Faktors A (Haupteffekt)I βj : Einfluß der j-ten Stufe des Faktors B (Haupteffekt)I (αβ)ij : Wechselwirkung oder Interaktion der i-ten Stufe des
Faktors A mit der j-ten Stufe des Faktors BI εij`: Storgroße (fur den `-ten Probanden und der i-ten Stufe des
Faktors A und der j-ten Stufe des Faktors B). Modellannahmen:Unabhangigkeit, Normalverteilung mit derselben Varianz
I Beachte: In Beispiel 3.14 ist kα = 3 (Behandlungsform), kβ = 2(Geschlecht) and nij = 5 (je 5 Patienten pro Faktorkombination)
351 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Kodierungsmatrix fur zweifaktorielle Varianzana-lyse am Beispiel der depressiven Erkrankung
Xb =
1 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 0 1 0 0 0 0 0 11 0 0 1 0 1 0 0 0 0 0 11 0 0 1 0 1 0 0 0 0 0 11 0 0 1 1 0 0 0 0 0 1 01 0 0 1 0 1 0 0 0 0 0 1
µα1α2α3β1β2
(αβ)11(αβ)12(αβ)21(αβ)22(αβ)31(αβ)32
352 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Mittelwerte fur die verschiedenen Faktorstufen inBeispiel 3.14 (Methode der kleinsten Quadrate)
a1 a2 a3b1 22.4 15.6 12.4 16.8b2 18.8 17.6 14.6 17.0
20.6 16.6 13.5 16.9
Beispiele:I 22.4 ist der Mittelwert der Beobachtungen unter Stufe 1 des
Faktors A und Stufe 1 des Faktors B (Schatzung furµ+ α1 + β1 + (αβ)11)
I 14.6 ist der Mittelwert der Beobachtungen unter Stufe 3 desFaktors A und Stufe 2 des Faktors B (Schatzung furµ+ α3 + β2 + (αβ)23)
I 17.0 ist der Mittelwert der Beobachtungen unter Stufe 2 desFaktors B (Schatzung fur µ+ β2)
I 16.6 ist der Mittelwert der Beobachtungen unter Stufe 2 desFaktors A (Schatzung fur µ+ α2)
I 16.9 ist der Mittelwert aller Beobachtungen (Schatzung fur µ)353 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.16(a): Hypothesenmatrix fur Test aufWechselwirkungen in der zweifaktoriellenVarianzanalyse
I Vektor der Parameterb = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T
I Mit der Matrix
Kαβ =
0 0 0 0 0 0 1 0 0 0 0 00 0 0 0 0 0 0 1 0 0 0 00 0 0 0 0 0 0 0 1 0 0 00 0 0 0 0 0 0 0 0 1 0 00 0 0 0 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 1
kann man die HypotheseH0 : (αβ)ij = 0; i = 1, 2, 3; j = 1, 2 schreiben als
H0 : Kαβb =
(αβ)11(αβ)12(αβ)21(αβ)22(αβ)31(αβ)32
= 0
354 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.16(a): Hypothesenmatrix fur Test desFaktors A in der zweifaktoriellen Varianzanalyse
I Vektor der Parameter
b = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T
I Mit der Matrix
Kα =
(0 1 0 0 0 0 0 0 0 0 0 00 0 1 0 0 0 0 0 0 0 0 00 0 0 1 0 0 0 0 0 0 0 0
)
kann man die Hypothese H0 : αi = 0; i = 1, 2, 3 schreiben als
H0 : Kαb =
(α1α2α3
)= 0
355 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.16(b): Hypothesenmatrix fur Test desFaktors B in der zweifaktoriellen Varianzanalyse
I Vektor der Parameter
b = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T
I Mit der Matrix
Kβ =
(0 0 0 0 1 0 0 0 0 0 0 00 0 0 0 0 1 0 0 0 0 0 0
)kann man die Hypothese H0 : βj = 0; j = 1, 2 schreiben als
H0 : Kβb =
(β1β2
)= 0
356 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: Zweifaktorielle Varianzanalyse furdie Daten aus Beispiel 3.14
SignifikanzFMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
A
B
A * B
Fehler
Gesamt
KorrigierteGesamtvariation 29348,700
308917,000
1,7002440,800
,00015,94127,100254,200
,678,176,3001,300
,00074,529126,7002253,400
,0005040,1768568,30018568,300
,00036,22461,5805307,900a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Beobachtung
a. R-Quadrat = ,883 (korrigiertes R-Quadrat = ,859)
357 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: Vergleich von Ein - undZweifaktorielle Varianzanalyse
SignifikanzFMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
A
B
A * B
Fehler
Gesamt
KorrigierteGesamtvariation 29348,700
308917,000
1,7002440,800
,00015,94127,100254,200
,678,176,3001,300
,00074,529126,7002253,400
,0005040,1768568,30018568,300
,00036,22461,5805307,900a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Beobachtung
a. R-Quadrat = ,883 (korrigiertes R-Quadrat = ,859)
SignifikanzFMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
A
Fehler
Gesamt
KorrigierteGesamtvariation 29348,700
308917,000
3,5302795,300
,00035,896126,7002253,400
,0002427,5358568,30018568,300
,00035,896126,7002253,400a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Beobachtung
a. R-Quadrat = ,727 (korrigiertes R-Quadrat = ,706)
358 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.17: Hypothesentests fur das Beispielder Depressiven Erkrankung
I H0 : αi = 0 (i = 1, 2, 3) (“der Faktor Dosierung hat keinenEinfluß”)
Fα = 74.53 =⇒ p-Wert ≈ 0.000D.h. die Nullhypothese wird zum Niveau 5% verworfen (72.7%der Variation der Variablen “Depression” konnen durch dieVariable “Behandlungsform” erklart werden)
I H0 : βj = 0 (i = 1, 2) (der Faktor “Geschlecht” hat keinenEinfluß)
Fβ = 0.176 =⇒ p-Wert ≈ 0.678D.h. die Nullhypothese kann zum Niveau 5% nicht verworfenwerden (der Faktor “Geschlecht” erklart nur 0.09% derVariation).
I H0 : (αβ)ij = 0 (i = 1, 2, 3; j = 1, 2)
Fαβ = 15.94 =⇒ p-Wert ≈ 0.000
D.h. die Nullhypothese wird zum Niveau 5% verworfen (15, 5%der Variation konnen durch die Wechselwirkung erklart werden)
359 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.18: Erklarung der Varianz durch dieFaktoren und Interaktion fur das Beispiel derDepressiven ErkrankungBilde den Quotienten aus der Quadratsumme des Faktors (bzw.Interaktion) mit der korrigierten Gesamtvariation
I Faktor A:253.4348.7 = 0.727
d.h. 72.7% der Variation der Variablen “Depression” konnendurch die Variable “Behandlungsform” erklart werden
I Faktor B:0.30
348.7 = 0.0009
der Faktor “Geschlecht” erklart nur 0.09% der Variation.I Interaktion AB:
54.2348.7 = 0.155
d.h. 15.5% der Variation konnen durch die Wechselwirkungerklart werden
360 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Die Zerlegung der Quadratsumme im Beispiel
8917.0︸ ︷︷ ︸gesamt
= 8568.3︸ ︷︷ ︸konstanterTerm
+ 348.7︸ ︷︷ ︸korrigiert
348.7︸ ︷︷ ︸korrigiert
= 253.4︸ ︷︷ ︸Faktor A
+ 0.3︸︷︷︸Faktor B
+ 54.2︸︷︷︸Interaktion
+ 40.8︸︷︷︸Fehler
361 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Die Zerlegung der Quadratsumme (fur Experten)kα∑i=1
kβ∑j=1
nij∑=1
Y 2ij`︸ ︷︷ ︸
gesamt
=kα∑i=1
kβ∑j=1
nij∑=1
(yij`−y ···)2︸ ︷︷ ︸
korrigierteGesamtvariation
+ n y2···︸︷︷︸
konst. Term
=kα∑i=1
kβ∑j=1
nij∑=1
(yij`−y ij·−y ·j·+y ···)2︸ ︷︷ ︸
Fehler
+ n y2···︸︷︷︸
konst. Term
+kα∑i=1
ni·(y i··−y ···)2︸ ︷︷ ︸
Faktor A
+kβ∑j=1
n·j (y ·j·−y ···)2︸ ︷︷ ︸
Faktor B
+kα∑i=1
kβ∑j=1
nij∑=1
nij (yij`−y i··−y ·j·+y ···)2︸ ︷︷ ︸
WechselwirkungBezeichnungen:
y ··· = 1n
kα∑i=1
kβ∑j=1
nij∑=1
yij`; y i·· = 1ni·
kβ∑j=1
nij∑=1
yij`; y ·j· = 1n·j
kα∑i=1
nij∑=1
yij`
y ij· = 1nij
∑nij`=1
yij`; ni· =kβ∑j=1
nij ; n·j=kα∑i=1
nij ; n=kα∑i=1
kβ∑j=1
nij
362 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Zur Interpretation der Wechselwirkung
I Die Wechselwirkung (αβ)ij beschreibt einen Effekt, der nurauftritt, wenn die Faktorstufenkombination (i , j) vorliegt
I Interaktionsdiagramm (graphisches Hilfsmittel zurInterpretation)
I Auf der Abzisse wird der Faktor mit der großeren Stufenzahlabgetragen
I Die Ordinate bezeichnet die abhangige Variable (Mittelwerte derjeweiligen Stufenkombinationen)
363 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
I Bei signifikanten Interaktionen ist die Interpretation derHaupteffekte zu relativierenBeispiel (Depressive Erkrankung)
I Richtige Interpretation: es existiert kein Unterschied zwischenmannlichen und weiblichen Patienten (Faktor B nichtsignifikant)
I Aber: Signifikante Interaktion erfordert hier eine weitergehendeInterpretation
I Placebo-Behandlung ist bei weiblichen Patienten starkerdepressionsreduzierend als bei mannlichen
I Behandlung mit einfacher und doppelter Dosis wirkt beimannlichen Patienten starker
364 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Klassifikation von Interaktionen
I Ziel: Identifikation der interpretierbaren HaupteffekteI Ordinale Interaktion (die Rangfolge der Mittelwerte der
A-Stufen ist fur b1 und b2 identisch, und die Rangfolge derMittelwerte B-Stufen ist fur a1 und a2 identisch)
a1 a2
b1
b2
b1 b2
a2
a1
In diesem Fall sind beide Haupteffekte eindeutig interpretierbar
365 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
I Hybride Interaktion (die Rangfolge der Mittelwerte derB-Stufen gilt fur beide Stufen von A; aber die Rangfolge derMittelwerte der A-Stufen gilt nicht fur beide Stufen von B)
a1 a2
b1
b2
b1 b2
a1
a2
In diesem Fall ist nur der Faktor B eindeutig interpretierbar
366 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
I Disordinale Interaktion (die Rangfolge der Mittelwerte derB-Stufen gilt nicht fur beide Stufen von A; und die Rangfolgeder Mittelwerte der A-Stufen gilt nicht fur beide Stufen von B)
a1 a2
b1
b2
b1 b2
a1
a2
I In diesem Fall sind die Haupteffekte nicht interpretierbarI Unterschiede zwischen a1 und a2 sind nur in Verbindung mit den
Stufen von B und Unterschiede zwischen den Stufen b1 und b2sind nur in Verbindung mit den Stufen von A interpretierbar
367 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Interpretation der Haupteffekte im Beispiel der“Depression”
a1 a2 a3
b1
b2
22.4
18.8
17.6
15.6
14.6
12.4 12
14
16
18
20
22
I Die Rangfolge der Mittelwerte der A-Stufen andert sich nicht.(sowohl fur b1 als auch fur b2 gilt a1 > a2 > a3; hier:18.8 > 17.6 > 14.6 und 22.4 > 15.6 > 12.4)=⇒ Faktor A ist eindeutig interpretierbar
368 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Interpretation der Haupteffekte im Beispiel der“Depression”
b1 b2
12
14
16
18
20
22
a1
a2
a3
12.4
15.6
22.7
18.8
17.6
14.6
I Die Rangfolge der Mittelwerte der B-Stufen andert sich.(fur a1 gilt b1 > b2, aber fur a2 und a3 gilt b1 < b2)=⇒ Faktor B ware – auch wenn er signifikant ware – nichtinterpretierbar
369 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.6 Kovarianzanalyse
370 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel 3.19: Therapieerfolg bei Verhaltens-storungen
I Wie wirkt sich eine psychotherapeutische Behandlung aufverschiedene Verhaltensstorungen aus
I Es werden 3 Gruppen untersucht
I Konzentrationsstorung (5 Patienten)I Schlafstorung (5 Patienten)I Hysterische Verhaltensstorung (5 Patienten)
I Gemessen wird der Therapieerfolg y (durch Expertenteameingestuft)
371 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
DatenI K: KonzentrationsstorungI S: SchlafstorungI H: Hysterische Verhaltensstorung
n K S H1 5 5 22 6 4 13 6 2 14 4 1 15 5 3 2
Beachte: Es liegt hier das Modell der einfaktoriellen Varianzanalysevor (vgl. Methodenlehre II, Beispiel 3.8(a)). Es gibt zweiDarstellungen des Modells
Yij = µi + εij
= µ+ αi + εij i = 1, 2, 3; j = 1, 2, . . . , 5
372 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output (einfaktorielle Varianzanalyse furBeispiel 3.18 ohne Berucksichtigung vonKovariablen)
Sig.FMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
GRUPPE
Fehler
Gesamt
KorrigierteGesamtvariation
1450,400
15204,000
1,1671214,000
,00015,60018,200236,400
,000131,657153,6001153,600
,00015,60018,200236,400a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Therapieerfolg
a. R-Quadrat = ,722 (korrigiertes R-Quadrat = ,676)
Man beachte:I Die drei behandelten Gruppen unterscheiden sich signifikantI Die Ergebnisse lassen vermuten, dass die Therapie bei
Konzentrationsstorungen zum großten Erfolg fuhrt(y 1· = 5.2; y 2· = 3; y 3· = 1.4)
373 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Vermutung: Therapieerfolg hangt auch von der Verbalisationsfahig-keit (verbale Intelligenz x) der Patienten ab. Diese Eigenschaft wirdaus diesem Grund mit gemessen
K S Hn x y x y x y1 7 5 11 5 12 22 9 6 12 4 10 13 8 6 8 2 9 14 5 4 7 1 10 14 5 5 9 3 13 2
Frage: Andert sich das Ergebnis der Varianzanalyse, falls die verbaleIntelligenz in die Untersuchungen mit einbezogen wird?
374 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Streudiagramm und lineare Regressionsgeraden
Verbale Intelligenz
14,0012,0010,008,006,004,00
Th
erap
ieer
folg
6,00
5,00
4,00
3,00
2,00
1,00
Anpassungslinie für Gesamtsumme
Hysterische VerhaltsstörungSchlafstörungKonzentrationsstörung
Verhaltensstörung
R2 Linear = 0,078
Konzentrationsstörung: R 2 Linear = 0,754
Schlafstörung: R 2 Linear = 0,837Hysterische Verhaltsstörung: R 2
Linear = 0,892
Beachte: Die Korrelation in der Gesamtgruppe ist negativ, aber inden einzelnen Gruppen positiv!
375 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.20 Das Modell der einfaktoriellen Kovarianz-analyse
I Wie bei der einfaktoriellen Varianzanalyse gibt es zweiDarstellungen:
Yij = µ+ αi + γxij + εij
= µi + γxij + εij i = 1, . . . , k ; j = 1, . . . , ni
(µi = µ+ αi , α1 + . . .+ αk = 0)I yij : Testergebnis des j-ten Patienten in der i-ten Gruppe (im
Beispiel ist k = 3; n1 = n2 = n3 = 5)
I µi : Einfluss der Verhaltensstorung auf Therapieerfolg
I xij : Kovariable (Verbalisationsfahigkeit) des j-ten Patienten derGruppe i . γxij ist dann der Einfluss der Kovariablen (Verbali-sationsfahigkeit) des Patienten j in Gruppe i auf den Therapie-erfolg
376 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.20 Das Modell der einfaktoriellen Kovarianz-analyse
I Zwei Darstellungen:
Yij = µ+ αi + γxij + εij
= µi + γxij + εij i = 1, . . . , k ; j = 1, . . . , ni
(µi = µ+ αi , α1 + . . .+ αk = 0)
I Der Parameter γ bemisst den Einfluss der Kovariablen(Verbalisationsfahigkeit) auf den Therapieerfolg.
I γ = 0 bedeutet: die Kovariable (Verbalisationsfahigkeit) hatkeinen Einfluss auf den Therapieerfolg.
I Beachte: der Faktor γ ist fur jede Gruppe derselbe (d.h. erhangt nicht von dem Index ”i” ab!)
377 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beachte: Dieses Modell ist ein Spezialfall des ALMY = Xb + ε
Wobei
b =
(µ1µ2µ3γ
)ε =
ε11
...
...ε35
X =
1 0 0 71 0 0 91 0 0 81 0 0 51 0 0 50 1 0 110 1 0 120 1 0 80 1 0 70 1 0 90 0 1 120 0 1 100 0 1 90 0 1 100 0 1 13
Y =
566455421321112
378 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.21 Das Modell der einfaktoriellen Kovarianz-analyse im ALM Y = Xb + ε
I Daten- und Fehlervektor
Y =
y11...
y1n1...
yk1...
yknk
; ε =
ε11...
ε1n1...εk1
.
.
.εknk
I Parametervektor und Designmatrix
b =
µ1...µkγ
X =
1 0 0 · · · 0 x11...
.
.
....
. . ....
.
.
.1 0 0 · · · 0 x1n10 1 0 · · · 0 x21...
.
.
....
. . ....
.
.
.0 1 0 · · · 0 x2n2...
.
.
....
. . ....
.
.
.0 0 0 · · · 1 xk1...
.
.
....
. . ....
.
.
.0 0 0 · · · 1 xknk
379 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.22(A) Schatzer fur γ (Methode der kleinstenQuadrate)
I
γ =
∑ki=1∑ni
j=1(yij − y i·)(xij − x i·)∑ki=1∑ni
j=1(xij − x i·)2
I Beachte: γ ist ein gewichtetes Mittel der Schatzer fur dieSteigungen der Regressionsgeraden in den einzelen Gruppen.D.h.
I Schatzer fur die Steigung in Gruppe i (vgl. 2.11):
γi =
∑nij=1(yij − y i·)(xij − x i·)∑ni
j=1(xij − x i·)2
I Anteil der Varianz der Kovariablen in Gruppe i an derGesamtvarianz
αi =
∑nij=1(xij − x i·)
2∑ki=1
∑nij=1(xij − x i·)2
I Es gilt (α1 + . . .+ αk = 1):
γ =
k∑i=0
αi γi380 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.22(B) Schatzer fur µi (Methode der kleinstenQuadrate)
I Beachte: als Schatzer fur die Parameter µi verwendet man dieGruppenmittelwerte, wobei die Daten vorher um den Einfluss derKovariablen korrigiert werden
µi = 1ni
∑nij=1 (yij − γxij) = y i· − γx i·
I Schatzer fur die Varianz der zufalligen Fehler (Residualvarianz)
s2y |x =
1n − k − 1
k∑i=1
ni∑j=1
(yij − µi − γxij)2
(dabei bezeichnet n = n1 + · · ·+ nk den Gesamtstichproben-umfang)
381 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Mathematische Formulierung der Hypothesen(im Beispiel 3.19): kein Einfluss der Kovariable
I Die Kovariable hat keinen Einfluss auf den Therapieerfolg:
H0 : γ = 0
Mit der Matrix K = (0, 0, 0, 1) und dem Parametervektorb = (µ1, µ2, µ3, γ)T kann man diese Nullhypothese schreiben als
H0 : Kb = (0, 0, 0, 1) ·
µ1µ2µ3γ
= γ = 0
382 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Mathematische Formulierung der Hypothesen(im Beispiel 3.19): kein Unterschied zwischenden Gruppen
I Zwischen den verschiedenen Verhaltensstorungen besteht keinUnterschied hinsichtlich des Therapieerfolgs:
H0 : µ1 = µ2 = µ3
Mit der Matrix
K =
(1 −1 0 00 1 −1 0
)und dem Parametervektor b = (µ1, µ2, µ3, γ)T kann man dieseHypothese schreiben als
H0 : Kb =
(1 −1 0 00 1 −1 0
)µ1µ2µ3γ
=
(µ1 − µ2µ2 − µ3
)=
(00
)
383 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.23(A) F -Test auf Signifikanz des Regressions-koeffizientenMan beachte: Alle Hypothesen konnen mit dem F -Test im ALM(vgl. 3.12) getestet werden. Die Anwendung der allgemeinen Theorieliefert:
I Die Hypothese H0 : γ = 0 (Kovariable hat keinen Einfluss) wirdzum Niveau α abgelehnt, falls
Fγ =11 γ
2 ns2xx
s2y |x
> F1,n−k−1,1−α
gilt (oder der p-Wert < α ist). Dabei ist F1,n−k−1,1−α das(1− α)-Quantil der F -Verteilung und
s2xx =
1n
k∑i=1
ni∑j=1
(xij − x ··)2
die Summe der quadrierten Abweichungen der Kovariablen vonihrem Mittelwert
384 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Alternative Interpretation der Teststatistik aus3.23(A): Differenz von Summen aus quadriertenResiduen
I Trifft die Hypothese H0 : γ = 0 (die Kovariable hat keinenEinfluss auf den Therapieerfolg) zu, so liegt das Modell dereinfaktoriellen Varianzanalyse vor:
yij = µi + εij ; i = 1, . . . , k; j = 1, . . . , ni
Bezeichnet
y i· =1n
ni∑j=1
yij i = 1, . . . , k
den Mittelwert in Gruppe i (nicht bzgl. der Kovariablenkorrigiert), dann ist
s2H0
=1
n − k
k∑i=1
ni∑j=1
(yij − y i·)2
die Residualvarianz der einfaktoriellen Varianzanalyse (Varianzunter der Nullhypothese)
385 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Allgemeines Prinzip: Differenz von Summenaus quadrierten Residuen
I Nach 3.22(B) ist
s2y |x =
1n − k − 1
k∑i=1
ni∑j=1
(yij − µi − γxij)2
die Residualvarianz im Modell der einfaktoriellenKovarianzanalyse (Varianz unter der Alternative)
I Die Statistik des F -Tests hat die Darstellung
Fγ =(n − k) s2
H0− (n − k − 1) s2
y |x
s2y |x
Man vergleicht also die Summen der quadrierten Residuen indem Modell der einfaktoriellen Varianzanalyse [(n − k)s2
H0] und
unter der Einbeziehung der Kovariablen [(n − k − 1)s2y |x ]
I Kurz: Differenz der Summe der quadrierten Residuen unterNullhypothese und Alternative dividiert durch die Summe derquadrierten Residuen unter Alternative
386 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel: Test auf Einfluss der Kovariablen fur die Daten aus Beispiel3.19
I RSSγH0= (n − k) s2
H0= 14.0
I RSS = (n − k − 1) s2y |x = 3.6
I Fγ = 14.0−3.61
11 3.6 = 10.40.327 = 31.78
Fur α = 5% ist F1,11,0.95 = 4.844, also wird die Nullhypothese
H0 : γ = 0
(kein Einfluss der Kovariablen) zum Niveau 5% verworfen (p-Wert:0.0001)
387 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.23(B) F -Test auf Unterschiede zwischen denGruppen
I Die HypotheseH0 : µ1 = · · · = µk
wird zum Niveau α abgelehnt, falls
Fµ =1
k−1∑k
i=1 ni (y∗i· − y∗··)2
1n−k−1
∑ki=1∑ni
j=1 (y∗ij − y∗i·)2> Fk−1,n−k−1,1−α
gilt. Dabei istI Fk−1,n−k−1,1−α das (1− α)-Quantil der F -Verteilung mit
(k − 1, n − k − 1) FreiheitsgradenI y∗ij = yij − γxij (die um den Einfluss der Kovariablen bereinigten
Daten)I y∗i· = 1
ni
∑nij=1 y∗ij der Gruppenmittelwert in Gruppe i
I y∗·· = 1n∑k
i=1
∑n1j=1 y∗ij der Gesamtmittelwert
I Beachte: es wird eine einfaktorielle Varianzanalyse mit den“korrigierten” Daten y∗ij = yij − γxij durchgefuhrt
388 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Alternative Interpretation der Teststatistik aus3.23(A): Differenz von Summen aus quadriertenResiduen
Fµ =1
k−1 (RSSµH0− RSS)
1n−k−1 RSS
I Residuensumme unter der Nullhypothese H0 : µ1 = · · · = µk
RSSµH0=
k∑i=1
ni∑j=1
(y∗ij − y∗··)2
I Residensumme im Modell der Kovarianzanalyse(µi = 1
ni
∑nij=1(yij − γxij) = y∗i· beachten!)
RSS =k∑
i=1
ni∑j=1
(yij − µi−γxij)2 =
k∑i=1
ni∑j=1
(y∗ij − y∗i·)2
389 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel: Test auf Gruppenunterschiede fur die Daten aus Beispiel3.19
I RSSµH0= 46.45
I RSS = 3.6
I Fµ =12 (46.45−3.6)
111 3.6 =
12 42.85
111 3.6 = 65.48
Fur α = 5% ist F2,11,0.95 = 3.982, also wird die Nullhypothese (keineGruppenunterschiede)
H0 : µ1 = µ2 = µ3
zum Niveau 5% verworfen (p-Wert: 0.000001)
390 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: einfaktorielle Kovarianzanalyse
Sig.FMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
GRUPPE
VERBALE_INTELLIGENZ
Fehler
Gesamt
KorrigierteGesamtvariation
1450,400
15204,000
,327113,599
,00031,78910,401110,401
,00065,48321,425242,850
,1292,691,8801,880
,00047,68115,600346,801a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Therapieerfolg
a. R-Quadrat = ,929 (korrigiertes R-Quadrat = ,909)
Man Beachte: Durch Einbeziehung der Kovarariablen verkleinertsich die Summe der quadrierten Residuen von 14.00 (im Modell derein-faktoriellen Varianzanalyse) auf 3.6 (im Modell der einfaktoriellenKovarianzanalyse).D.h. statt 72.22% werden 92.86% der Varianz erklart!
391 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.24 Voraussetzungen fur die Kovarianzanalyse
I Modell der einfaktoriellen Kovarianzanalyse
yij = µi + γxij + εij
= µ+ αi + γxij + εij i = 1, . . . , k; j = 1, . . . , ni
I µi reprasentiert den Einfluss der Gruppe i auf die abhangigeVariable yij
I γxij reprasentiert den Einfluss der Kovariablen xij auf dieabhangige Variable yij
I Die zufalligen Fehler εij sind unabhangig und normalverteilt mitErwartungswert 0 und Varianz σ2
I Der Faktor γ is unabhangig von der Gruppe (d.h. hangt nichtvon i ab): Homogenitat der Regressionskoeffizienten
392 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.25 Uberprufung der Annahme der Homogenitatder Regressionskoeffizienten
I Modell
yij = µi + γi xij + εij ; i = 1, . . . , k; j = 1, . . . , ni
I Nullhypothese: Der Einfluss der Kovariablen andert sich nichtmit der Gruppenzugehorigkeit
H0 : γ1 = γ2 = · · · = γk
I Beachte:- Das Modell hat 2k Parameter µ1, . . . , µk , γ1, . . . , γk (imBeispiel 6)- Das Modell der einfaktoriellen Kovarianzanalyse hat k + 1Parameter µ1, . . . , µk , γ (im Beispiel 4)
393 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Design- und Hypothesenmatrix fur Beispiel 3.19
b =
µ1µ2µ3γ1γ2γ3
X =
1 0 0 7 0 01 0 0 9 0 01 0 0 8 0 01 0 0 5 0 01 0 0 5 0 00 1 0 0 11 00 1 0 0 12 00 1 0 0 8 00 1 0 0 7 00 1 0 0 9 00 0 1 0 0 120 0 1 0 0 100 0 1 0 0 90 0 1 0 0 100 0 1 0 0 13
K =
(0 0 0 1 −1 00 0 0 0 1 −1
)Kb =
(γ1 − γ2γ2 − γ3
)
394 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.26 F -Test fur die Hypothese der Homogenitatder Regressionskoeffizienten
I Die HypotheseH0 : γ1 = · · · = γk
wird zum Niveau α abgelehnt, falls
F γ =1
k−1 (RSSH0− RSS)
1n−2k RSS
> Fk−1,n−2k,1−α
Dabei sindI RSSH0
=∑k
i=1
∑nij=1(yij − µi − γxij )
2 die Summe derquadrierten Residuen unter der Nullyhpothese
I µi , γ die kleinsten Quadrate Schatzer unter der Annahme derHomogenitat der Regressionskoeffizienten (vgl. Bemerkung 3.22)
I RSS =∑k
i=1
∑nij=1(yij − µi − γixij )
2 die Summe der quadriertenResiduen in der einfaktoriellen Kovarianzanalyse
I (µi , γi ) die kleinsten Quadrate Schatzungen, unter der Annahme,dass keine Homogenitat der Regressionskoeffizienten vorliegt
395 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Beispiel: F -Test fur die Hypothese der Homogenitat derRegressionskoeffizienten fur die Daten aus Beispiel 3.19
I RSSH0= 3.6
I RSS = 2.445
I F γ =12 (3.6−2.445)
115−6 2.445 = 0.5775
0.2717 = 2.125
Fur α = 5% ist F2,9,0.95 = 4.256, also wird die Nullhypothese derHomogenitat der Regressionskoeffizienten
H0 : γ1 = γ2 = γ3
zum Niveau 5% nicht verworfen
396 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS Output: Uberprufung der Annahme derHomogenitat in der einfaktoriellenKovarianzanalyse
Sig.FMittel der Quadratedf
Quadratsummevom Typ III
Korrigiertes Modell
Konstanter Term
GRUPPE
VERBALE_INTELLIGENZ
GRUPPE * VERBALE_INTELLIGENZ
Fehler
Gesamt
KorrigierteGesamtvariation
1450,400
15204,000
,27292,445
,1762,124,57721,154
,00032,3748,79518,795
,0117,7542,10724,213
,2151,779,4831,483
,00035,3049,591547,955a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:Therapieerfolg
a. R-Quadrat = ,951 (korrigiertes R-Quadrat = ,925)
397 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.27 Bemerkungen zur Kovarianzanalyse
I Mit der Kovarianzanalyse uberpruft man, wie “bedeutsam” derEinfluss der Kovariablen ist
I Der Einfluss der Kovariablen wird durch die Kovarianzanalyseneutralisiert
I Durch die Beachtung der Kovariablen wird im Modell derVarianzanalyse die Residualvarianz reduziert.
I Beachte: liegt keine Homogenitat der Regessionskoeffizientenvor, so ist eine Durchfuhrung der Kovarianzanalyse wie in3.23(A) und 3.23(B) beschrieben nicht sinnvoll.
398 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.27 Bemerkungen zur Kovarianzanalyse
I Eine Kovarianzanalyse ist eine Varianzanalyse “bereinigt” umden Einfluss der Kovariablen. D.h. Eine Kovarianzanalyse ist eineVarianzanalyse der Regressionsresiduen y∗ij = yij − γxij
I Das Modell der Kovarianzanalyse kann in verschiedeneRichtungen erweitert werden:
I Mehrere Faktoren. Z.B. Zweifaktorielle Kovarianzanalyse
yijk = µ+ αi + βj + αβij + γxijk + εijk
I Modelle mit Messwiederholungen (vgl. Kapitel 3.7)I Mehrdimensionale Kovariablen
399 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.7 Modelle mit Messwiederholungen
400 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.28 Beispiel: Tagesschwankungen desHautwiderstands
I Bei 10 Versuchspersonen wird morgens, mittags und abends derHautwiderstand (physiologischer Indikator der psychischenAktivierung) gemessen
I Es soll uberpruft werden, ob der HautwiderstandTagesschwankungen unterliegt (α = 0.01) oder zu den dreiZeiten im Mittel gleich ist
I Idee: Einfaktorielle Varianzanalyse, Faktor: Tageszeit
yij = µi + εij j = 1, . . . , 10 i = 1, 2, 3
I Problem: Die Annahme der Unabhangigkeit von yij und ykj istnicht gerechtfertig (Beobachtungen gehoren zu derselbenPerson)!
401 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.28 Beispiel: Tagesschwankungen desHautwiderstands
I Losung: Modelliere einen personenindividuellen Mittelwerteexplizit (zweifaktorielle Varianzanalyse)
yij` = µi + pj + (µp)ij + εij` i = 1, 2, 3 j = 1, . . . , 10 ` = 1
I Neues Problem: 3 + 10 + 30 = 43 zu schatzende Parameter, bei30 Beobachtungen Das geht nicht!
I Pragmatische Losung: Es wird angenommen, dass keineWechselwirkungen vorliegen (d.h.(µp)ij = 0, i = 1, 2, 3 j = 1, . . . , 10)
I Unter dieser Annahme kann der allgemeine F -Test durchgefuhrtwerden!
I Die zu prufende Hypothese lautet:
H0 :
{µ1 = µ2µ2 = µ3
K =
(1 −1 0 0 · · · 00 1 −1 0 · · · 0
)402 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.28 Beispiel: Datensatz Hautwiderstand
Vpn morgens mittags abends1 7 7 62 5 6 83 8 9 54 6 8 65 7 7 56 7 9 77 5 10 68 6 7 49 7 8 6
10 5 7 5
403 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: Varianzanalyse fur die Daten ausBsp. 3.28
Sig.FMittel der Quadratedf
Quadratsummevom Typ III
Modell
VPN
TAGESZEIT
Fehler
Gesamt 301377,000
1,3151823,667
,0038,23910,833221,667
,486,9831,293911,633
,00085,775112,778121353,333a
QuelleQuelle
Tests der Zwischensubjekteffekte
Abhängige Variable:HAUTWIDERSTAND
a. R-Quadrat = ,983 (korrigiertes R-Quadrat = ,971)
Der Hautwiderstand schwankt im Tagesverlauf signifikant (α = 0.01)(8.239 > 6.012 = F2,18,0.99)
404 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Die Zirkularitatsannahme: Valide F -Tests beiAutokorrelation zwischen den Messzeitpunkten
I Haufig sind die Fehler auch im Modell mit personenindividuellenMittelwerten noch abhangig
I Dann ist die Theorie des ALM nicht anwendbar!I Die bei der Varianzanalyse verwendete Teststatistik besitzt
genau dann F3−1,(3−1)(10−1)=F2,18–Verteilung, wenn fur dieVarianz-Kovarianz-Matrix Σ der Beobachtungen y1j , y2j , y3j zuden 3 Messzeitpunkten gilt:
Σ = a · at + λ · I3 a = (a1, a2, a3)t , λ > 0
Diese Bedingung wird als Zirkularitatsannahme (ZA) bezeichnet.I Die ZA ist genau dann erfullt, wenn
Var(y1j−y2j) = Var(y2j−y3j) = Var(y1j−y3j), fur j = 1, . . . , 10.
I Die ZA ist auch im Fall homogener Varianzen und Kovarianzenerfullt, insbesondere also auch bei unkorrelierten Merkmalen. Indiesem Fall wird von Spharizitat gesprochen.
405 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
3.29 Modell der einfaktoriellen Varianzanalysemit Messwiederholungen
I Untersuche den Einfluss eines Faktors (z.B. “Tageszeit”) auf dieabhangige Variable (z.B. “Hautwiderstand”) in dem Fall, wenndie abhangige Variable fur jeweils alle k Faktorstufen andenselben p Untersuchungsobjekten beobachtet werden
I Mathematisches Modell (im Beispiel ist k = 3 und p = 10)
Yij = µi + pj + εij i = 1, . . . , k j = 1, . . . , p
mitI µi : Mittelwert der i-ten FaktorstufeI pj : individuelle Abweichung von Person jI εij : Storgroße (fur die Messung von Faktorstufe i bei Person j).
I ModellannahmenI Storgroßen normalverteiltI keine Wechselwirkungen zwischen dem Faktor and der PersonenI die Zirkularitatsannahme ist erfullt
406 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Die Zerlegung der Quadratsumme in zwei Stufen
p∑j=1
k∑i=1
(yij − y ..)2
︸ ︷︷ ︸QStot
= kp∑
j=1(y .j − y ..)2
︸ ︷︷ ︸QSzwVpn
+
p∑j=1
k∑i=1
(yij − y .j)2
︸ ︷︷ ︸QSinVpn
p∑j=1
k∑i=1
(yij − y .j)2
︸ ︷︷ ︸QSinVpn
= pk∑
i=1(y i. − y ..)2
︸ ︷︷ ︸QStreat
+
p∑j=1
k∑i=1
(yij − y .j − y i. + y ..)2
︸ ︷︷ ︸QSres
407 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Schematische Darstellung der zweistufigenZerlegung der Quadratsumme
Total(QStot)
Zwischen den Vpn(QSzw Vpn)
Innerhalb der Vpn(QSin Vpn)
Zwischen den Faktorstufen
(QStreat)
Residual(QSres)
408 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
Verletzung der Zirkularitatsannahme: Korrekturder Freiheitsgrade der F -Verteilung
I Auch bei verletzter Zirkularitatsannahme ist die Teststatistiknaherungsweise F -verteilt.
I Verletzung der ZA fuhren zu progressiven Tests (H1 wirdhaufiger begunstigt, als α dies vorsieht)
I Korrektur der Freiheitsgrade verhindert progressives TestenI Die korrigierte F-Verteilung hat (k − 1)ε und (p − 1)(k − 1)ε
Freiheitsgrade, wobei 1k−1 ≤ ε ≤ 1
I ε = f (Σ) ist Funktion der Varianz-Kovarianz-Matrix und lasstsich aus der empirischen Varianz-Kovarianz-Matrix Σ schatzen
I Unterschiedliche Darstellungen der Funktion f liefernunterschiedliche Schatzverfahren.
I In SPSS implementiert: Greenhouse/Geisser, Huynh/Feldt unddie Untergrenze von 1
k−1
409 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: Prufung der Zirkularitatsannahme
Sig.dfApproximiertes
Chi-QuadratMauchly-W UntergrenzeHuynh-FeldtGreenhouse-
Geisser
Epsilonaa
Tageszeit ,5001,000,954,8222,392,952InnersubjekteffektInnersubjekteffekt
Mauchly-Test auf Sphärizitätb
Prüft die Nullhypothese, daß sich die Fehlerkovarianz-Matrix der orthonormalisierten transformierten abhängigen Variablen proportional zur Einheitsmatrix verhält.
a. Kann zum Korrigieren der Freiheitsgrade für die gemittelten Signifikanztests verwendet werden. In der Tabelle mit den Tests der Effekte innerhalb der Subjekte werden korrigierte Tests angezeigt.
b. Design: Konstanter Term Innersubjektdesign: Tageszeit
Maß:MASS_1
I Die Hypothese, dass Spharizitat vorliegt, kann nicht verworfenwerden.
I Die beiden Schatzungen von ε liegen nahe bei 1 Die Rechnung von Folie 367 liefert ein valides Ergebnis
410 / 411
Methodenlehre II,SoSe 2015
Holger Dette
1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests
2. Korrelation, LineareRegression undmultiple Regression
3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung
3.2 Addition undMultiplikation von Matrizen
3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate
3.4 Der F -Test im ALM
3.5 ZweifaktorielleVarianzanalyse
3.6 Kovarianzanalyse
3.7 Modelle mitMesswiederholungen
SPSS-Output: Analyse der Varianz innerhalb derVpn
Sig.FMittel der Quadratedf
Quadratsummevom Typ III
Sphärizität angenommen
Greenhouse-Geisser
Huynh-Feldt
Untergrenze
Sphärizität angenommen
Greenhouse-Geisser
Huynh-Feldt
Untergrenze
Tageszeit
Fehler(Tageszeit)
2,6309,00023,667
1,31518,00023,667
1,37817,17923,667
1,3151823,667
,0188,23921,6671,00021,667
,0038,23910,8332,00021,667
,0038,23911,3511,90921,667
,0038,23910,833221,667QuelleQuelle
Tests der Innersubjekteffekte
Maß:MASS_1
I Die ermittelten p-Werte weichen praktisch nicht voneinander ab.
411 / 411