analyse de données

54
Mesure ,validité et Fiabilité

Upload: majdi

Post on 04-Dec-2015

25 views

Category:

Documents


0 download

DESCRIPTION

fread

TRANSCRIPT

Page 1: analyse de données

Mesure ,validité et Fiabilité

Page 2: analyse de données

• 1: Le processus de Mesure• 2 : Qualité des instruments de mesure • 3: Le processus de construction des échelles

de mesure .

Page 3: analyse de données

Le processus de mesure

Qu’est ce que mesurer ?

    La mesure est une relation de correspondance entre l’objet étudié  et un symbole le représentant .

• L’objet étudié doit être pris dans le sens le plus large, il peut s’agir de produits , d’individus , d’événement ,….

• La mesure  c’est  également ..« Les règles d’attribution de nombres a des caractéristiques des objets   »    

Objet

Les caractéristiques de L’objet

Page 4: analyse de données

Que mesure t on ?

Les phénomènes directement observables:Les comportements sont conceptuellement  observables  (exemple  ,Faire du sport, aller au cinéma,  regarder  la télévision …)

Les phénomènes non observables :  il  s’agit  de processus mentaux, par exemple  les opinions  (  image de marque d’une société),  les  attitudes  à  l’égard  des loisirs, satisfaction …. Confiance , Engagement  etc 

Ces  phénomènes  n’ont  pas  de  manifestation  physique, mais  ils  peuvent  être  appréhendés  par  leurs verbalisations . 

Page 5: analyse de données

Le processus de mesure

La mesure établi une correspondance entre un niveau théorique  (  identification  conceptuelle  du  phénomène  étudié  )  et  un niveau empirique  ( définition des  indicateurs  représentant ce phénomène et sur  les quelle portent  les opérations concrètes de mesure )

?

Benavent Christophe

Page 6: analyse de données

Théorie de la mesure

Page 7: analyse de données

Qualité des instruments de Mesure

Un instrument de mesure doit satisfaire aux critères suivants: 

1. La validité  :un  instrument  de  mesure  choisi  doit  permettre  de d’appréhender  le mieux le phénomène que l’on cherche à mesurer. 

1. La fiabilité ( Fidélité).  Si  on  mesure  un  phénomène  plusieurs  fois avec le même instrument on doit obtenir  le même résultat.

3. La sensibilité : L’instrument de mesure doit être capable d’enregistrer les variations  assez fine du phénomène mesuré( attitude , opinion ).

Les  deux  premiers  critères  sont  les  plus  généralement    retenus  pour juger de la qualité d’une mesure et sont  intégrés dans le modèle dit de  la vraie valeur qui  constitue  le  Fondement de la théorie de la mesure

Page 8: analyse de données

Le modèle de la vraie Valeur

La vraie Valeur représente la valeur idéale c’est-à-dire qui correspond parfaitement au phénomène étudié .

1.L’erreur systématique ( Biais ) : ce type d’erreur provient du fait que l’instrument de mesure peut avoir un écart systématique avec le phénomène étudié. ( par exemple une balance qui affiche 975 g au lieu de 1 Kg ( erreur de méthode) . 2.L’erreur aléatoire : le phénomène mesuré par un même instrument peut être sujet à des aléas tels que les circonstances , L’humeur des personnes interrogés .Notre travail va donc consister à réduire les erreurs de mesure (l’erreur systématique et l’erreur aléatoire) autant que possible

Page 9: analyse de données

Erreur systématique et erreur aléatoire

1. Le problème de la fiabilité est concerné par l’erreur aléatoire . En effet un instrument est fiable si son utilisation répétitive donne les mêmes résultats .

2. Le problème de la validité dépend de l’ensemble des termes d’erreurs c’est-à-dire l’écart entre la mesure obtenue et la mesure idéale.

Page 10: analyse de données

Fiabilité des échelles de mesure .

La fiabilité consiste a réduire l’erreur aléatoire de la mesure .

Trois techniques pour réduire l’erreur aléatoire :

1. La technique du Test /retest : on pose la même question au même sujet mais a des moments différents ( délai d’une semaine ) . Ce qui permet de voir si des différences apparaissent en fonction des circonstances , des humeurs ou des changements d’opinions.

Page 11: analyse de données

1. La technique de split half( ou des deux moitiés ). On utilise le même instrument au même moment, mais a des sujets différents . On scinde l’échantillon en deux et on compare les résultats des deux moitiés . ( se pose le problème de la sélection ( les deux échantillons sont ils appariés ?).

2. La technique des formes alternatives (échelles multiples ) on interroge les mêmes sujets, mais avec des instruments différents , au même moment .

On introduit dans le questionnaire plusieurs questions visant à mesurer le même phénomène , mais avec des formulations différentes, ces questions peuvent être dispersées dans le questionnaire .

Fiabilité des échelles de mesure .

Page 12: analyse de données

Résumé des trois techniques d’amélioration de la fiabilité

Echelle de mesure Sujets Moment

Test retest Même Même Différent

Split Half Même différent Même

Formes alternatives

différente Même Même

La techniques des formes alternatives est actuellement largement prédominante dans les pratiques de recherche . En effet il est moins couteux d’augmenter la durée du questionnement que d’augmenter le nombre de questionnaires ( taille d’échantillon )

Page 13: analyse de données

exemple d’application Technique des formes alternatives

Dans la technique des formes alternatives , les chercheurs utilisent plusieurs items pour mesurer un construit théorique .

SG1: Mes expériences passées avec cette compagnie ont été satisfaisantes.

SG2 : Globalement , je suis satisfait de mes expériences avec cette compagnie.

SG3: En Général, je suis satisfait de mes expériences avec cette compagnieSG

On décide de mesurer le concept Satisfaction Globale noté SG en utilisant trois items (SG1, SG2 et SG3) et on administrant le questionnaire a plusieurs sujets.

Exemple :

SG1= SG + erreur1SG2= SG + erreur2SG3= SG + erreur3

Le modèle de la vraie valeur s’écrit

Page 14: analyse de données

Représentation du construit théorique ( Satisfaction )

SG1= SG + erreur1SG2= SG + erreur2SG3= SG + erreur3

Page 15: analyse de données
Page 16: analyse de données

Distribution des items (SG1, SG2 et SG3

Page 17: analyse de données

Matrice de corrélation inter items

Page 18: analyse de données

18

Fiabilité de l’instrument de mesure: L’Alpha de Cronbach

Question :

Comment mesurer globalement la fiabilité de l’instrument de mesure ? C’est à dire le niveau d’homogénéité d’un bloc de variables xi positivement corrélées entre elles ?

Réponse :

Utilisation du Alpha de Cronbach

Page 19: analyse de données

19

Le modèle

, 1,...,i ix e i p

où : vraie mesure item n° iix

erreur de mesureie

avec les ei et    indépendants.

Page 20: analyse de données

20

Définition du de Cronbach

1

Score p

ii

H x

2 de Cronbach = ( , )Cor H

( , ) ( ) 1

1 ( ) 1 ( )

i j ii j i

Cov x x Var xp p

p Var H p Var H

Formule de calcul du de Cronbach

   1, et  = 1 lorsque toutes les corrélations entre les xi sont égales à 1et toutes les variances des xi sont égales.

Page 21: analyse de données

21

de Cronbach pour items centrées-réduites

Un bloc est considéré comme homogène si :

- 0.6 pour des recherches exploratoires - 0.7 pour des recherches confirmatoires

1( , )

( 1) j kj k

r Cor x xp p

Page 22: analyse de données

Statistique de L’alpha de Cronbach

Page 23: analyse de données

Validité des mesures

Les instruments de mesure choisis doivent permettre d’appréhender le mieux possible le phénomène que l’on cherche à mesurer.

La validité est concernée par la réponse à la question « mesure-t-on ce qu’on cherche à mesurer ? ».

1. La validité « faciale » (ou validité de consensus) : elle est fondée sur le jugement du chercheur (des experts), appuyé par les pairs de sa communauté scientifique au sein de laquelle l’instrument utilisé fait l’objet d’un consensus.La validité de trait (ou validité de construit) : ce type de validité nous intéresse plus particulièrement ; il s’agit de savoir si les indicateurs construits sont une bonne représentation du phénomène à étudier

Page 24: analyse de données

Validité convergente et validité discriminante

La validité de construit (convergente)

Plusieurs instruments de mesures différents du même concept arrivent– ils bien aux mêmes résultats (forte corrélation) ?

La validité de construit (discriminante)Deux mesures conçues pour des construits différents ne peuvent pas avoir de forte corrélation entre elles. (ex : amour/amitié)

Deux formes permettent d’en vérifier la pertinence : il s’agit de la validité convergente et de la validité discriminante.

Page 25: analyse de données

Processus de construction des échelles de mesure.

Le développent des échelles de mesure multi items a fait l’objet de nombreuses recherches en sciences sociales particulièrement en psychologie et en Marketing (comportement du consommateur). Le modèle prédominant dans la construction des échelles de mesure est le paradigme de Churchill  

Page 26: analyse de données

Paradigme de Churchill

1

2

3

Définition du domaine du conceptuel

Phase exploratoire(Purification )

Phase confirmatoireValidation sur de nouvelles données

-Génération d’un ensemble d’items-Purification de la mesure (alpha de Cronbach ,AFE)

Page 27: analyse de données
Page 28: analyse de données

Purification des échelles de mesures.

On utilise l’analyse factorielle pour purifier les échelles de mesure d’un questionnaire. C’est à dire on élimine les items qui nuisent à la validité de trait ou de construit .

L’analyse Factorielle permet de s’assurer que l’échelle évalue plus précisément et exclusivement le construit qu’elle est censée mesurer . Lorsque le construit est unidimensionnel , L’AFE fera ressortir un seul facteur , plusieurs pour les construits multidimensionnels

L’AFE permet donc de vérifier la dimensionnalité des concepts

Page 29: analyse de données

29

Uni-dimensionabilité d’un bloc de variables (items)

Question :

Un bloc de variables Xj est-il essentiellement unidimensionnel ?

Réponse :1) La première valeur propre 1 de l’analyse en composante

principale du bloc est supérieure à 1, les autres sont inférieures à 1.

2) Chaque variable est plus corrélée à la première composante principale qu’aux autres composantes principales.

3) Chaque variable Xj a une corrélation supérieure à 0.5, en

valeur absolue, avec la première composante.

Page 30: analyse de données

Analyse factorielle versus ACP

Analyse en composante principale versus Analyse factorielle

description •solution unique •explique la variance •orienté individus

modèle •indétermination •explique les corrélations •orienté variables

Résultats très proches si les variances spécifiques sont égales, ou si les p-k dernières valeurs propres de l’ACP sont presque nulles

ACPAFE

Page 31: analyse de données

L'analyse en composantes principales (Principal components analysis) cherche une solution qui (a) maximise la variance expliquée et (b) avec des composantes orthogonales (c'est-à-dire indépendantes entre elles). L'analyse factorielle (Factor analysis) présume que chaque variable possède une variance en commun avec au moins une autre variable ainsi qu’une variance unique représentant son propre apport. Elle tente d'expliquer la variance qui est commune à au moins deux variables (facteur

Analyse Factorielle

Page 32: analyse de données

32

Les objectifs de l’analyse factorielle(option composantes principales)

Décrire un tableau (individus)(variables) :- Résumer un tableau de données à l’aide d’un petit nombre

de facteurs.- Visualiser le positionnement des individus les uns par

rapport aux autres ( ressemblance ) ( Notion de distance entre individus )

- Visualiser les corrélations entre les variables ( Notion de corrélation entre variables ) rechercher des groupes de variables étroitement liées entre elles (Peut on simplifier les variables

- Donner une interprétation aux facteurs.

Page 33: analyse de données

33

Visualisation des données

X1 … Xp F1F21

i x1i … xpi F1iF2i…

n

*

Tableaudes données

Facteurs centrés-réduits résumant les données

(non corrélés entre eux)

i

0 F1(i)

F2(i)

Le plan factoriel

Xj

0 Cor(Xj,F1)

Cor(Xj,F2)

La carte des variables

p

1j jhjh XuF

Page 34: analyse de données

3434

Inertie totale = p Inertie expliquée par U Inertie résiduelle= +

Maximiser Minimiser

n

iii

n

ii

n

i

HMdn

Hdn

Midn 1

2

1

2

1

2 ),(1

)0,(1

)0,(1

Décomposition de la variance du nuage en ACP

Page 35: analyse de données

Analyse ACP

Page 36: analyse de données

« Factor analysis » ou analyse en facteurs communs et spécifiques Charles Spearman (1904) : modèle unifactoriel iY facteur commun, ei facteur spécifique, λi saturation ou « factor loading »

L’analyse factorielle en Facteurs commun et spécifique

Page 37: analyse de données

Modèle Factoriel

La prise en compte des erreurs de mesure

Page 38: analyse de données

38

Analyse Factorielle en Facteurs communs et spécifique

Le modèle X1 = 11Y1 + … + 1mYm + e1...Xi = i1Y1 + … + imYm + ei...Xp = p1Y1 + … + pmYm + ep

où : Hypothèses : xi centrés (réduits) , Yj centrés réduits indépendants entre eux�ei centrés indépendants entre eux V(ei)= ψi�ei indépendant des Yj�

Thurstone: modèle plurifactoriel , m facteurs

Modèle de régression multiple multilinéaire sur variables inobservables

Page 39: analyse de données

39

X1 = 11Y1 + … + 1mYm + e1...Xi = i1Y1 + … + imYm + ei...Xp = p1Y1 + … + pmYm + ep

Le modèle

s’écrit aussi

1 11 1 1 1

1

Λ eYX

m

p p pm m m

X Y e

X Y e

X = ΛY + e

Page 40: analyse de données

La variance d'une variable originale peut être décomposée en une part commune aux autres variables, expliquée par les facteurs, nommée communauté de la variable (communality), et en une part spécifique, nommée variance spécifique (specific variance).

Décomposition de la variance d’une variable

Calcul des spécificités i

m2

i ij ij 1

Var(X ) 1

hi2 =

communautéVar(ei) = spécificité

Xi = i1Y1 + … + imYm + ei

Page 41: analyse de données

41

Formule générale

1 2 1 p

2 p

11 12 1m 11 21 p1 1

21 22 2m 12 22 p2 2

p1 p2 pm 1m 2m pm p

1 Cor(X ,X ) Cor(X ,X )

1 Cor(X ,X )

1

0 0 0

0 0 0

0 0

R

'

R = +

Page 42: analyse de données

42

Les objectifs de l’AF orthogonale

L’analyse factorielle orthogonale consiste à rechercherune décomposition de la matrice des corrélations R de la forme :

R = + Les ij sont les saturations et les i les spécificités.

Méthodes usuelles d’extraction des saturations :

- Analyse en composantes principales- Méthodes des facteurs principaux - Méthodes des moindres carrés - Méthodes des moindres carrés pondérés - Maximum de vraisemblance

Page 43: analyse de données

43

Analyse Factorielle (Option analyse en composantes principales)

p variables X1,…, Xp centrées-réduites.

Estimation des facteurs Y1, …, Ym

Les données

Les m premières composantes principales réduites.

Choix de m

Nombre de valeurs propres supérieures à 1.

Page 44: analyse de données

Exemple

Page 45: analyse de données

Ambiance musicale

Réponses cognitives

Réactions comportementales

Réponses émotionnelles :

Plaisir Stimulation

•Evaluation de l’atmosphère du

magasin.

•Montant dépensé•Temps passé•Achats impulsifsVitesse de circulation

•Type•Volume•Tempo

Page 46: analyse de données

Avec ces conditions musicales (style classique, volume faible et rythme lent), je me sens...

Malheureux 1 2 3 4 5 heureux

contrarie 1 2 3 4 5 content

insatisfait 1 2 3 4 5 satisfait

Triste 1 2 3 4 5 Gai

Désespéré 1 2 3 4 5 optimiste

Echelle de mesure du Plaisir

Page 47: analyse de données

Une seule composante dont la valeur propre >1

Page 48: analyse de données

2ih

Calcul des communautés (communalities) hi2

m m2 2 2 2i i 1 m i j ij

j 1 j 1

h R (X ;Y ,...,Y ) cor (X ,Y )

Page 49: analyse de données

ij

Les loadings ij sont les coefficients de régression des Yj dans la

régression de Xi sur les facteurs Y1,…, Ym.

Les facteurs étant orthogonaux (= non corrélés) on a :

ij = Cor(Xi, Yj)

Calcul des saturations ( Loading )

Page 50: analyse de données

50

Qualité de la décomposition

p2 2

i i1 im ii 1 i i i

Var(X ) p ...

Varianceexpliquée par Y1 ( = 1)

Varianceexpliquée par Ym ( = m)

VariancerésiduelleVariance

totale

Décomposition de la variance totale

Page 51: analyse de données

plaisir stimulation

Heureux / Malheureux Plein d’énergie / Sans énergie

Content / Contrarie Eveillé / Endormi

Satisfait / Insatisfait Stimulé / Non stimulé

Gaie / Triste

Optimiste / Désespéré

Exemple 2

Page 52: analyse de données

Mesure de stimulation Composante

Qualité de représentatio

n

Alpha de Cronbach en cas de suppression

de l'élément1

sans énergie - plein d'énergie ,855,731 ,734

endormi - éveillé ,872 ,760 ,703

non stimulé - stimulé ,828 ,685 ,773

Valeur propre 2,176

% de variance expliquée 72,535

Alpha du facteur 0,81

Page 53: analyse de données

Pas du tout

d’accord

Pas d’accord Moyennent d’accord d’accord Tout à fait d’accord

Avec ces conditions musicales(style classique, volume faible et rythme lent), l’atmosphère du supermarché sera …

Plaisante 1 2 3 4 5

stimulante 1 2 3 4 5

désagréable 1 2 3 4 5

endormante 1 2 3 4 5

agressive 1 2 3 4 5

relaxante 1 2 3 4 5

sympathique 1 2 3 4 5

dynamisante 1 2 3 4 5

Veuillez indiquer votre degré d'accord avec les affirmations suivantes :

Exemple 3

Page 54: analyse de données

Matrice des composantes après rotationa

Composante Qualité de représentation

1 2

atmosphère plaisante ,336 ,767 ,701

atmosphère stimulante ,157 ,797 ,660

atmosphère non agressive (calmante) ,821 -,129 ,691

atmosphère relaxante ,786 ,152 ,642

atmosphère sympathique ,681 ,371,602

atmosphère dynamisante -,015 ,761 ,580

atmosphère non désagréable (agréable) ,606 ,260,435

% de la variance (61,5%) 32,31 29,24

Alpha de Cronbach ,736 ,711

Résultats final