psicometria 2-mob b sulle assunzioni del …...lezione 7 prof.ssa l. di blas 1 sulle assunzioni del...
TRANSCRIPT
S U L L E A S S U N Z I O N I D E L MO D E L LO G E N E R A L E L I N E A R E
Psicometria 2-mob B
Lezione 7
prof.ssa L. Di Blas
1
SULLE ASSUNZIONI DEL MODELLO GENERALE LINEARE
La verifica delle seguenti assunzioni assicura una stima valida, non distorta, del modello testato statisticamente
▪ sulla distribuzione delle variabili osservate o misurate
▪ sull’affidabilità delle misurazioni psicologiche
▪ sulla non-collinearità tra variabili indipendenti
▪ sugli errori o punteggi residui
▪ sulla forma della relazione tra le VI e VD
▪ sulla completezza o specificazione del modello
▪ ancora sui casi outlier: gli outlier multivariati
2
applicheremo le verifiche statistiche al data file già usato per la Lez 6
ma comunque indicato come Lezione 7
SULLA DISTRIBUZIONE (NORMALE) DELLE VARIABILI MISURATE
Le statistiche possono essere applicate solo se idonee al set di dati
Per l’ARM (così come poi per le tecniche di riduzione del dati quali EFA o PCA) la VD
▪ quantitativa
▪ distribuzione normale → verifica▪ rappresentazione grafica
▪ asimmetria e curtosi
▪ Test Shapiro-Wilk
▪ Q-Q plot
▪ controllo outlier → verifica ▪ Frequenze
▪ punti z
le VI possono essere categoriche (es. dummy) ma se quantitative devono rispettare le stesse assunzioni
3
SUI NOSTRI DATI IN JAMOVI
4
SUI NOSTRI DATI IN JAMOVI
5
Descriptives
InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto
N 85 85 85
Mean 2.30 1.79 1.93
Minimum 1.08 1.07 1.02
Maximum 3.62 3.37 2.78
Skewness 0.0880 0.765 -0.217
Std. error skewness 0.261 0.261 0.261
Kurtosis -0.0190 0.522 -0.913
Std. error kurtosis 0.517 0.517 0.517
Shapiro-Wilk p 0.611 0.002 0.018
SUI NOSTRI DATI IN JAMOVI
6
Descriptives
InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto
N 85 85 85
Mean 2.30 1.79 1.93
Minimum 1.08 1.07 1.02
Maximum 3.62 3.37 2.78
Skewness 0.0880 0.765 -0.217
Std. error skewness 0.261 0.261 0.261
Kurtosis -0.0190 0.522 -0.913
Std. error kurtosis 0.517 0.517 0.517
Shapiro-Wilk p 0.611 0.002 0.018
SUI NOSTRI DATI IN JAMOVI
7
Descriptives
InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto
N 85 85 85
Mean 2.30 1.79 1.93
Minimum 1.08 1.07 1.02
Maximum 3.62 3.37 2.78
Skewness 0.0880 0.765 -0.217
Std. error skewness 0.261 0.261 0.261
Kurtosis -0.0190 0.522 -0.913
Std. error kurtosis 0.517 0.517 0.517
Shapiro-Wilk p 0.611 0.002 0.018
SUI NOSTRI DATI IN JAMOVI
8
SUI NOSTRI DATI IN JAMOVI: CORREGGIAMO UMORE NEGATIVOtogliendo prima outlier caso 80 (test S-W p = 0.01) e poi caso 27
NB verificati quali sono gli outlier, procederemo con le prossime verifiche delle assunzioni mantenendo anche questi 2 casi
9
Descriptives
UmoreNegativo UmNeg_zscore
N 83 83
Missing 5 5
Mean 1.76 -0.0664
Standard deviation 0.445 0.895
Minimum 1.07 -1.45
Maximum 2.80 2.03
Skewness 0.408 0.408
Std. error skewness 0.264 0.264
Kurtosis -0.511 -0.511
Std. error kurtosis 0.523 0.523
Shapiro-Wilk p 0.013 0.013
SULL’AFFIDABILITÀ DELLE MISURAZIONI PSICOLOGICHE(data set lezione 7_affidabilità)
10
Alpha di Cronbach:
la variabilità inter-individuale
deve essere maggiore di
quella intra-individuale
Omega di McDonald:
deriva da struttura fattoriale
degli stimoli, ipotizzando
1 fattore comune sotteso
SULL’AFFIDABILITÀ DELLE MISURAZIONI PSICOLOGICHE
11
ttBttA
AB
rr
rr =
( )ttBttAAB rrrr =
Correzione per attenuazione:
Le formule mostrano come
la correlazione tra due variabili riflette
la correlazione tra i costrutti che rappresentano
dipendentemente dal grado di affidabilità
delle misurazioni stesse
SULLA NON-COLLINEARITÀ TRA VARIABILI INDIPENDENTI(CFR LEZIONE 6)
1212
𝑆𝐸𝑏𝑋𝑖 =𝑠𝑌𝑠𝑋𝑖
1
1 − 𝑅𝑋𝑖2
1 − 𝑅𝑌2
𝑁 − 𝑘 − 1
Per tutte queste ragioni così illustrate
il numero di stimatori e la numerosità del campione vanno pensati e scelti accuratamente,
Insieme al livello p critico, così come gli stimatori, per spiegare quanta più VAR possibile,
col modello più parsimonioso possibile, contenendo la multicollinearità,
per poter esaminare statisticamente un modello valido con adeguata potenza del test
𝑆𝐸𝛽𝑋𝑖 =1
1 − 𝑅𝑋𝑖2
1 − 𝑅𝑌2
𝑁 − 𝑘 − 1
Multicollinearità
SUGLI ERRORI O PUNTEGGI RESIDUI
La verifica delle assunzioni del MGL ci permettono di far sì che modello osservato e modello generatore dei dati possano corrispondere ovvero si possa
stimare in modo valido il modello generatore dei dati a partire dalle osservazioni empiriche, riducendo l’impatto delle fonti di errore.
Questo vale anche per la verifica delle assunzioni sui punteggi residui
Premessa: Che cosa rappresentano i residui o errore di stima?
Nel modello generatore dei dati, l’errore (i) rappresenta lo scostamento del valore Y osservato dal atteso Y’ i e attribuibile a caratteristiche distintive dell’individuo non osservate e incluse nel modello stesso; gli scostamenti generano una variabilità intorno al valore atteso
𝑌𝑖 = 𝜇 + 𝑒𝑖
𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖+ 𝑒𝑖
(dove l’ipotesi nulla è che = 0)
13
SUGLI ERRORI O PUNTEGGI RESIDUI
Rispetto agli errori o punteggi residui, 3 classi di assunzioni da rispettare:
▪ indipendenza degli errori i
▪ distribuzione omoschedastica degli errori intorno al valore atteso
▪ normalità dei residui
14
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA
Indipendenza?
▪ il punteggio residuo ei calcolato per ciascun caso o individuo i-esimo non dipende ossia non si associa a nessun altro residuo osservato per i restanti casi
▪ vale a dire, i residui non sono «raggruppabili», in base a una variabile che non stiamo tenendo sotto controllo
Esempi: oltre ai disegni di ricerca con misure ripetute, gli individui sono «raggruppabili» o «nidificabili» in base a nucleo famigliare, classe, scuola, cultura, azienda, settore aziendale, …
Esempio.
Prestazione Scolastica = a + b QI + ei
i residui potrebbero essere raggruppabili sulla base della «classe» frequentata (i residui dei bambini di una data classe potrebbero essere correlati tra loro) che spiegherebbe qualcosa che va oltre il QI e che non controlliamo
15
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA
Indipendenza?
Se l’assunzione non viene rispettata dal punteggio residuo di Prestazione Scolastico di un caso i-esimo posso prevedere il punteggio residuo di un altro caso (appartenente alla stessa classe, variabile che però non ho controllato)
CONSEGUENZE
▪ stima della varianza residua (SQerr/gl) è sovra- o sotto-stimata rispetto al modello generatore dei dati
▪ e conseguentemente è distorta la varianza legata alla regressione (SQregress/gl) e i test inferenziali che da essa dipendono
16
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA
Indipendenza?
VERIFICA: considerazioni sul disegno di ricerca
(Durbin-Watson per testare l’autocorrelazione in caso di misure ripetute)
RIMEDI
▪ inserire nel modello la variabile che permette di raggruppare i partecipanti
▪ applicare le tecniche di analisi statistica idonee come i modelli misti o MLM
▪ calcolare il coefficiente di correlazione intra-classe per stimare quanta varianza dipende dalla classificazione (cut off convenzionale 5 %)
17
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À
▪ Omoschedasticità: la varianza dei punteggi residui ei intorno ai valori attesi (o media condizionata) o previsti in base al modello è uguale
18
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À
▪ CONSEGUENZE
Distorsione degli stimatori e dei loro livelli di significatività statistica (p)
▪ VERIFICA
▪ Scatterplot, dove X = valori previsti e Y = punteggi residui, i residui dovrebbero disperdersi entro una banda di ampiezza costante se l’assunzione è rispettata
▪ test di Levene (ANOVA) o di Brensch-Pagan: ipotesi nulla testata è che sia rispettata la distribuzione omoschedastica
▪ RIMEDI
▪Trasformazione della VD
▪ Punteggi standardizzati e normalizzati
▪ in base a funzioni matematiche (es. logaritmica)
▪ applicazione di test non parametrici
19
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À
Dal nostro data set Jamovi 7_assunzione_errori (tolti i casi 80 e 27 UN), inserendo come VD = CFP e VI = UN e IC
20
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À
Dal nostro data set Jamovi 7_assunzione_errori (tolti i casi 80 e 27 UN)
Inserendo come VD = CFP e VI = UN e IC
21
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ
22
▪ CONSEGUENZE
Distorsione degli stimatori e dei loro livelli di significatività statistica (p)
seppure il MGL è robusto rispetto a questa assunzione
▪ VERIFICA
▪Rappresentazione grafica
▪Test di Kolmogorov-Smirnov o K-S (ipotesi nulla: distribuzione normale)
▪ Q-Q plot
▪ RIMEDI
▪Trasformazione della VD
▪ Punteggi standardizzati e normalizzati
▪ in base a funzioni matematiche (es. logaritmica)
▪ applicazione di test non parametrici
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ
23
Per ca
lcola
re p
unte
ggi a
ttesi e
resid
ui di C
FP
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ
24
SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ
25
SULLA FORMA DELLA RELAZIONE TRA LE VI E VD
26
2
1211
' XbXbaYi ++=
Forma quadratica? NO
SULLA FORMA DELLA RELAZIONE TRA LE VI E VDse lasciamo gli outlier casi 27 e 80 umore negativo
27
Forma quadratica? SI
Forma di altra relazione?
SUGLI ERRORI DI SPECIFICAZIONE DEL MODELLO
28
▪ inclusione VI irrilaventi e/o omissione VI rilevanti
▪ non linearità della relazione tra VI e VD
▪ non additività della relazione tra VD e VI
i.e., interazione tra VI2132211
' XXbXbXbaYi +++=
SUGLI OUTLIER
▪ influenzano tutti i risultati del modello
▪ outlier per la VD / per la VI/ per entrambe le variabili
RIMEDI
▪ eliminare gli outlier se > 5%
▪ verificare i modelli con e senza outlier
▪ indicatori quantitativi
▪ Test di Malhanobis che quantifica la distanza ponderata dal centroide per ogni caso
i casi critici si identificano se hanno un valore ≥ al Chi quadro critico corrispondente
a p ≤ .001 per GL = numero di VI
29
30
Chi quadro critico
per 2 gl e p ≤ .001
è 10.6
31
VD
X
Z
RICORDIAMO DA DOVE SIAMO PARTITI …
Focus sulla variabile dipendente
X
Z
Y
X Z Y
Focus sulla relazione tra VD e VI