Strukturgleichungsmodelle
Eine Einführung
Kausalität und Korrelation
• X1 ist korreliert mit X2. X1 ist Ursache für X2.
X2 ist Ursache für X1.
X1 und X2 beeinflussen sich gegenseitig.
X1 und X2 werden von X3 beeinflußt.
• X1 , X2 und X3 sind miteinander korreliert. X1 und X2 sind kausal für X3.
X4 verursacht die Korrelation zwischen X1 und X2.
X1 und X2 sind kausal für X3. X1 ist kausal für X2.
X1 ist kausal für X2, X2 ist kausal für X3.
....
X1 X2
X1 X2
X1 X2
X3 X2X1
X1 X2
Ein Strukturgleichungsmodell
zurück
Syntax, Terminologie
X manifeste Variable (gemessen)
X latente Variable (Konstrukt), auch: Fehler
Korrelation (deskriptiv)
Regression („kausale Beziehung“)(mit fixiertem Gewicht)
1
endogene (abhängige) Variablen: mindestens ein gerichteter Pfeil zeigt auf sie
exogene (unabhängige) Variablen: kein gerichteter Pfeil zeigt auf sie.Exogene Variablen sind immer korrelativ verknüpft. Kein Pfeil: r=0.
Messmodelle und Strukturmodell• Messmodell: Verknüpfung zwischen latenter Variable und
ihren (manifesten) Indikatoren
• Strukturmodell: Verknüpfung zwischen latenten Variablen
Aptitude
Verbal
Analytic
Quantitative
r3
r4
r5
Performance in Grad School
Knowledge Grades Skills
r10 r11 r12
SocialSupportFamily
Friends
r1
r2
Happiness
Smiling 2
Laughing 2
Contentment 2
Satisfaction 2
r13
r14
r15
r16
Aptitude
Performance in Grad School
Happiness
SocialSupport Previous
Happiness
Modellparameter
• Diejenigen Größen, die durch das Modell festgelegt werden sollen:
Alle exogenen Variablen (inkl. Fehler, Residuen)(endogene Variablen werden ja „erklärt“...)
Alle (nicht fixierten) Pfade:• Regressionen (sofern kein fixiertes Gewicht dransteht)
• Korrelationen (die man einzeichnet, der Rest ist auf 0 fixiert)
Happiness
Daten
• Alle Varianzen von manifesten Variablen (Anzahl p)
Happiness
• Alle Kovarianzen zwischen manifesten Variablen(Anzahl p · (p – 1) / 2)
• zusammen: p · (p + 1) / 2
• Alle Tripelvarianzen (Anzahl p · (p – 1) · (p – 2) / 6)
Identifizierbarkeit
• Anzahl Daten < Anzahl Modellparameter:unteridentifiziertModell nicht lösbar. X + Y = 1.
• Anzahl Daten = Anzahl Modellparameter:exakt identifiziertModell lösbar, aber nicht prüfbar. X = 1.
• Anzahl Daten > Anzahl Modellparameter:überidentifiziert
Modell lösbar und prüfbar. X = 1 X = 2.
Definitionsgleichungen• Jede endogene Variable wird
per Regression erklärt:
PGS = b1·A + b2·SS + b3·PH + d2
Aptitude
Performance in Grad School
SocialSupport Previous
Happiness
d2
• Die Korrelation zwischen jedem denkbaren Paar exogener Variablen wird festgelegt:
rr6,r16 = R1, rr7,r15 = R1, rr8,r14 = R3, rr9,f13 = R4,
rr6,r7 = rr6,r8 = rr6,r9 = ... = 0.
r13
r14
r15
r16
r9r8r7r6
Happiness
Strukturgleichungen
• Definitionsgleichungen für (p) manifeste Variablen auflösen, bis rechts nur noch exogene Variablen stehen.
• Alle (p · (p+1) / 2) Varianzen und Kovarianzen mit Hilfe der Definitionsgleichungen „erklären“: Z = aX + bY: VZZ = a²VXX + b²VYY + 2abVXY.
W = cU + dV: VZW = acVXU + adVXV + bcVYU + bdVYV.
zurück
Lineare Abhängigkeiten
• Manchmal reichen viele Gleichungen nicht, um viele unbekannte Größen zu bestimmen: X + Y = 10. 2X + 2Y = 20. 3X + 3Y = 30. ...
• Wenn alle fortführenden Pfade einer latenten Variable frei (nicht fixiert) sind, können Gewichte und Varianz gegeneinander ausgespielt werden. Previous
Happiness
Smiling 1 Laughing 1 Contentment 1 Satisfaction 1
Happiness
Friendsr2
zurück
Ein einfaches Meßmodell
• Definitionsgleichungen: M1 = 1 · K + F1
M2 = a · K + F2
M3 = b · K + F3
cor(F1,F2) = cor(F1,K) = cor(F1,F3) = cor(F2,K) = cor(F2,F3) = cor(F3,K) = 0
Konstrukt
1 Fehler 1
Fehler 2
Fehler 3
1
1
1
Messung 1
Messung 2
Messung 3
• Strukturgleichungen
• Identifizierbarkeit:
was fehlt?
exakt. 6 Modellparameter, 6 (Ko-)Varianzen.
VM1M1 = 1²·VKK + VF1F1
+ 2·VKF1
VM2M2 = a²·VKK + VF2F2
VM3M3 = b²·VKK + VF3F3
VM1M2 = 1·a·VKK
VM1M3 = 1·b·VKK
VM2M3 = a·b·VKK
Weitere einfache Meßmodelle
Konstrukt
1 Fehler 1
Fehler 2
1
1
Messung 1
Messung 2
1
Konstrukt
Fehler 1
Fehler 2
Fehler 3
1
1
1
Messung 1
Messung 2
Messung 3
Fehler 41
Messung 4
1
Identifikationsgleichungen
Konstrukt
1 Fehler 1
Fehler 2
Fehler 3
1
1
1
Messung 1
Messung 2
Messung 3
• Strukturgleichungen VM1M2
= 1·a·VKK
VM1M3 = 1·b·VKK
VM2M3 = a·b·VKK
VM1M1 = 1²·VKK + VF1F1
VM2M2 = a²·VKK + VF2F2
VM3M3 = b²·VKK + VF3F3
• Identifikationsgleichungen VKK = VM1M2
VM1M3 / VM2M3
a = VM2M3 / VM1M3
b = VM2M3 / VM1M2
VF1F1 = VM1M1
– VM1M2VM1M3
/ VM2M3
VF2F2 = VM2M2
– VM2M3VM1M2
/ VM1M3
VF3F3 = VM3M3
– VM2M3VM1M3
/ VM1M2
• lokal identifizierbar: Jede einzelne Unbekannte ist identifizierbar.
umformen
zurück
Identifikationsgleichungen
• nicht lokal identifizierbar: VKK ist nicht identifizierbar.
Konstrukt
Fehler 1
Fehler 2
Fehler 3
1
1
1
Messung 1
Messung 2
Messung 3
Fehler 41
Messung 4
• 9 Unbekannte, 10 Ko/Varianzen, ... aber
Identifikationsgleichungen
• dienen der Diagnostik (Identifizierbarkeit)
• Die unbekannten Parameter werden anders bestimmt!
• wäre ja auch zu peinlich, wenn für überbestimmte Variablen mehrere verschiedene Werte herauskommen
Kovarianzmatrizen
• Stichprobenkovarianzmatrix Vxy = <xy> – <x> <y> = (x–<x>)·(y–<y>) / n
• geschätzte Populationskovarianzmatrix(„beobachtete Kovarianzmatrix“) Sxy = (x–<x>)·(y–<y>) / (n–1) = Vxy · n / (n–1)
• implizierte Kovarianzmatrix xy() ist eine Funktion des Vektors
der unbekannten ParameterS-Gl. / I-Gl.
V11
V21 V22
V31 V32 V33
Kovarianzmatrizen
• geschätzte Populationskovarianzmatrix Sxy
• implizierte Kovarianzmatrix xy()
11
21 22
31 32 33
S11
S21 S22
S31 S32 S33
• Diskrepanzfunktion F[S, ()] F[S,T] 0 F[S,T] = 0 S = T F[S,T] + F[T,U] F[S,U]
• Iterativ verändern, so daß F kleiner wird.
• Wenn F minimiert wurde, gilt als geschätzt.
Diskrepanzfunktionen
• unweighted least squares:FULS[S, ()] = Sum [Sxy – xy()]² skaliert mit Wertebereich der manifesten Variablen
S-Gl. / I-Gl.
• generalized least squares:FGLS[S, ()] = Sum [Sxy – xy()]² / ||S||²
ist für große Stichproben df²-verteilt,mit df = m – p · (p+1) / 2 Freiheitsgraden.
Hypothesenprüfung
• Nullhypothese H0: S = ()
– diesmal nicht theoriefreie Verneinung von H1, sondern theoriekonforme Vorhersage. Grund: Verteilung bekannt, testbar.
• Alternativhypothese H1: S ()
– theoriefreie Verneinung von H0.
-Fehler-Niveau festlegen, z. B. p = 0.05
• wenn p(²|H0) p: Modell verwerfen
• wenn p(²|H0) > p: ???
• X1 ist korreliert mit X2.
X1 ist Ursache für X2.
X2 ist Ursache für X1.
X1 und X2 beeinflussen sich gegenseitig.
X1 und X2 werden von X3 beeinflußt.
Kausalität und Korrelation
X1 X2
X1 X2
X1 X2
X1 X2 e2
e1
1
1
X2X1 e2
1e1
1
X3
1 1
SGM für eine einfache Korrelation
• X ist korreliert mit Y.
X ist Ursache für Y.
X Y
X Y e1
• Definitionsgleichungen: y = a + b · x + e cor(x,e) = 0
• Strukturgleichungen Vxx = Vxx
Vyy = b²·Vxx + Vee + 2·Vxe
Vxy = b·Vxx + Vxe
• Identifikationsgleichungen Vxx = Vxx
b = Vxy/Vxx = rxy · (Vyy/Vxx)
Vee = Vyy – b²·Vxx = Vyy · (1 – rxy²)