1
Dominique Muller
Laboratoire Inter-universitaire de Psychologie
Bureau : 238Tel : 04 76 82 58 90
Email : [email protected]
2
Modèle contraint (MC)
Modèle augmenté (MA)
Comparaison de modèles : test de b1 pour un modèle à un facteur continu
Prc∑ =59.89
Prc∑i =b0 +b1BEPCi
Prc∑ =b0
Prc∑i =39.30 +1.83BEPCi
3
Modèles à un facteur continu : régression simple
Prc∑i =39.30 +1.83BEPCi
b1 = 1.83, l’augmentation de 1.83 du pourcentage de bonnes réponses pour chaque augmentation d’un point de BEPC est significative
Connaître la note au BEPC permet de prédire le pourcentage de bonnes rép.
Prci=β0 +β1BEPCi + ε i
4
Formalisation (1)
0 1 1 2 2β β β εi i i iY X X
Y : le critère, la mesure ou VD
Yi : valeur observée pour l’observation i sur la variable Y
X1 et X2 : premier et second prédicteurs ou VIs (peuvent être manipulés ou mesurés)
Xi1 et Xi2 : valeurs de X1 et X2 pour l’observation i
: paramètres DANS LA POPULATION permettant de réduire les erreurs de prédiction lorsque les prédicteurs X1 et X2 sont utilisés (sous une forme donnée)
iε : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisées comme prédicteurs et si les VRAIS paramètres étaient connus
VARIABLES :
PARAMETRES et ERREUR (ne pourront être qu’estimés) :
0 1 2, etβ β β
5
ei : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisés
comme prédicteurs et que b0, b1 et b2 sont utilisés comme estimateurs
Formalisation (2)
Yi, Xi1 et Xi2 : leurs sens restent inchangés
b0, b1 et b2 : estimations respectives de sur la base de ces données 0 1 2, etβ β β
Yib0 b1X i1 b2X i2
iY : prédiction pour l’observation i sur la base de b0, b1 et b2 et des valeurs de X1 et X2
0 εi iY B B0 : valeur fixée A PRIORI (ni valeur dans la population, ni estimée sur la base des données)
Yib0 b1X i1 b2X i2 ei
6
Formalisation (3) : résumé
Lettres grecques : valeurs dans la population (à moins de pouvoir mesurer l’ensemble de la population, nous ne pourrons que les estimer)
Lettres minuscules : estimations des valeurs que l’on observerait dans la population
Lettres majuscules : variables (ex : Y, X1) ou valeurs fixées a priori (ex : B0)
7
Mesure (Y ou VD) : pourcentage de bonnes réponses à un test de connaissance (50 questions de math en vrai/faux)
Prédicteur (X ou VI) : Présence d’Autrui (1) vs Seul (2) ; participants assignés aléatoirement au sein des deux conditions
Variables catégorielles (k = 2) :
test t échantillons indépendants / ANOVA à un facteur
Commençons par le modèle simple (même prédiction pour toutes les observations)
Là encore la valeur b0 correspondra à la moyenne de Prc (Y)
Prci=β0 + ε i Prc∑ =39
8
Faire mieux avec un modèle plus complexe ?
Prci=β0 +β1PAi1 + ε i
MPA
MSeul
Peut-on améliorer notre modèle en ajustant nos prédictions selon les valeurs de X (Présence d’Autrui) ?
Ajouter PA dans la partie modèle de l’équation nous permet d’ajuster la prédiction en fonction des conditions (i.e., permettre à la pente d’être différente de 0)
Pour le savoir, ajout de PA dans notre modèle :
Prc∑i =30 + 6PAi
9
Interprétation des coefficients de régression
Interprétation du b0 : ordonné à l’origine, c’est-à-dire la prédiction pour une valeur de PA = 0
Dans notre exemple, b0 = 30 donc pour les gens ayant un score de 0 sur la variable PA le modèle prédit un pourcentage d’erreurs de 30
Interprétation du b1 : il s’agit de la pente => de combien change la prédiction sur Prc lorsque l’on change d’une unité sur PA
Prc∑i =b0 +b1PAi
ici :
Prédiction pour PA = 1 =>
Prédiction pour PA = 2 =>
Prc∑i =30 + 6PAi
Ainsi, avec une seule unité de différence entre les deux conditions (PA=1 et Seul=2), b1 = différence de moyennes
Or, 36 et 42 sont en effet les moyennes des deux conditions
10
Comparaison de modèles : test d’un modèle à un facteur catégoriel
Modèle contraint (MC)
Prc∑ =39
Modèle augmenté (MA)
Prc∑i =30 + 6PAi
Tester cette comp. de modèles revient donc à tester
H
0:β1 =0 ⇔ MPA =MSeul
(⇔ Prci =β0 + 0PAi1 + ε i )
Prci=β0 + ε i
Prci=β0 +β1PAi1 + ε i
11
ANOVA un facteur : calcul des SCE
12
Modèles ANOVA à un facteur (k =2)
Prci=β0 +β1PAi1 + ε i Prc∑
i =30 + 6PAi
Lorsque l’on passe de la condition de présence d’autrui (1) à la condition seul (2) le taux de bonnes réponses augmente de 6 points :
Nous observons donc un effet d’inhibition sociale mais il est non-significatif
13
PAc
Prci=β0 +β1PAci + ε i
Code de contrastes
0kk
Code de contrastes, règle 1 :
Avec k le code attribué à
chaque groupe
Et k, les k groupes
-1 / 1 est donc un code de contraste (mais aussi - 0.5 / 0.5…)
Prc∑i =39 + 3PAci
14
PAc
Prci=β0 +β1PAci + ε i
Code de contrastes
Divise simplement la pente par deux, car il y a maintenant deux unités de différence entre PA (-1) et Seul (1)
Afin d’obtenir directement la différence de moyennes, on préférera un codage -0.5 / 0.5
Prc∑i =39 + 3PAci
15
Prci=β0 +β1PAdi + ε i
Dummy coding
Prc∑i =36 + 6PAdi
PAd
b0 est toujours la prédiction pour PA = 0
Or, avec ce nouveau codage, cette prédiction correspond à la condition PA
Le test de b0 sera donc le test de la moyenne de PA contre 0
Prci=β0 +β1PAdi + ε i Prc
i=0 + β1PAdi + ε i
MC : MA :vs.
16
Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées
Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les
Ces résidus doivent être :
distribués normalement
avoir une variance constante
être indépendants les uns des autres
*
*
***
Règles d’application de la méthode des moindres carrés
iε
17
Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées
Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les
Ces résidus doivent être :
distribués normalement
avoir une variance constante
être indépendants les uns des autres
*
*
***
Règles d’application de la méthode des moindres carrés
iε
18
Distribution des résidus
Performance en fonction de la taille
0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e
19
Distribution des résidus
« Histogramme » des résidus
0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e
20
Distribution des résidus
0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e
« Histogramme » des résidus
Bonne nouvelle :
=> Toutes les violations de la normalité ne sont pas graves
21
Ce qui est important par rapport à la normalité
La distribution uniforme,un problème ?
Moins un problème ?
22
Tous les votes ne naissent pas égaux
23
Ce qui est important par rapport à la normalité
La distribution uniforme,un problème ?
Moins un problème ?
Les violations par rapport à la normalité ne sont problématiques que pour les extrémités
Comment savoir si c’est le cas ?
24
Diagramme des quantiles - quantiles
0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e
Les observations sur la droite suivent la loi normale
Problème (ici) si les observations extrêmes aplatissent la droite :
• En dessous de la droite en haut
• En dessus de la droite en bas
25
Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées
Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les iε
Ces résidus doivent être :
distribués normalement
avoir une variance constante
être indépendants les uns des autres
*
*
***
Règles d’application de la méthode des moindres carrés
26
Performance en fonction de la taille
0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e
Variance constante des résidus
27
Variance constante des résidus
28
Variance constante des résidus
Distribution problématique : en entonnoir
29
Variance constante des résidus : autre représentation
Il nous suffit maintenant de regarder s’il existe une relation entre les deux variables
30
Règles d’application de la méthode des moindres carrés
Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées
Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les iε
Ces résidus doivent être :
distribués normalement
avoir une variance constante
être indépendants les uns des autres
*
*
***
31
Effet de l’habitat sur la satisfaction dans le couple :présentation des résidus (ei)
Satisfactioni=β0 + β1Condci + ε i
On voit clairement ici que les résidus ne sont pas indépendants à l’intérieur des couples
32
Remèdes
Si les résidus ne sont pas (ou n’ont pas) :
distribués normalement
une variance constante
indépendants les uns des autres
=> Transformations
=> Transformations
=> Tests non-paramètriques (dernier recours)
=> Tests non-paramètriques
=> Jouer sur le nombre
d’observations
=> Tests paramètriques type Welch
33
Type d’erreurs
Erreur de Type I : rejeter H0 à tord (nous disons qu’un effet existe alors qu’il n’existe pas)
Erreur de Type II : ne pas rejeter H0 à tord (un effet existe mais nous ne le voyons pas)
34
Hétérogénéité des variances et nombre de sujets par condition (Tomarken & Serlin, 1986)
Nombre de sujets par condition et variance sont liés positivement => augmentation des erreurs de Type II
Nombre de sujets par condition et variance sont liés négativement => augmentation des erreurs de Type I
Nombre de sujets par condition et variance sont indépendants (même nombre de sujets par condition) => très faible augmentation des erreurs de Type I
Se ramener au même nombre de sujets par condition permet de diminuer les risques
35
Remèdes
Si les résidus ne sont pas (ou n’ont pas) :
distribués normalement
une variance constante
indépendants les uns des autres
=> Transformations
=> Transformations
=> Tests non-paramètriques (dernier recours)
=> Tests non-paramètriques
=> Jouer sur le nombre
d’observations
=> Autres types de tests
=> Tests paramètriques type Welch
36
Types de problèmes et types de transformations
Transformer les données pour atteindre la normalité
– Pour les distributions « plates » : inverse (1/Y)– Pour les distributions « asymétriques + » : log ou inverse– Pour les distributions « asymétriques - » : racine carré
Transformer les données pour atteindre une variance constante des résidus (homoscédasticité)
– Cône des résidus ouvert à droite : inverse– Cône des résidus ouvert à gauche : racine carré