sommaire - sorbonne-universite.fr
TRANSCRIPT
M3E 2020 1/64
Probabilité et Statistiques
I â Introduction
Richard Wilson
LATMOS/IPSLSorbonne Université
13 octobre 2020
M3E 2020 2/64
Sommaire
1 Introduction
2 La statistique descriptive
3 La statistique inférentielle
4 Rappels de probabilitĂ©sĂvĂšnements alĂ©atoiresFonction de rĂ©partition et densitĂ© de probabilitĂ©Moments dâune variable alĂ©atoireFonctions dâune variable alĂ©atoireLois de probabilitĂ©
5 Lois de probabilité de v.a. continuesSomme de variables aléatoires
Introduction
M3E 2020 4/64
DĂ©finitions
⹠Le mot statistique dérive du latin status qui signifie «état».
⹠Le mot «statistique» est employé à double sens :
â LA ou LES statistique(s) recouvre un ensemble de mĂ©thodesdestinĂ©es Ă lâanalyse, Ă lâinterprĂ©tation et Ă la prĂ©sentation dedonnĂ©es.
â UNE statistique est un nombre calculĂ© Ă partir dâobservations.Par exemple :â
la moyenne ou la frĂ©quence dâoccurrence dâun Ă©vĂšnement sontdes statistiques.âOn parle frĂ©quemment des statistiques du chĂŽmage
⹠La statistique est pour les uns un domaine des mathématiques, pourles autres (en particulier les anglo-saxons) une discipline à partentiÚre hors des mathématiques.
âą De plus en plus, elle fait partie de ce que lâon appelle la science desdonnĂ©es (Data Science)
M3E 2020 5/64
Historique I
âą Introduit au dix-huitiĂšme siĂšcle (vers 1785) par lâĂ©conomisteallemand Gottfried Achenwall, le mot «Statistik» est dĂ©rivĂ© delâitalien «statista» (« homme dâĂtat »),
âą la statistique reprĂ©sentait pour cet auteur lâensemble desconnaissances que doit possĂ©der un homme dâĂ©tat (ressources,Ă©volution des prix, dĂ©mographie).
âą Si le mot est rĂ©cent, la pratique est aussi ancienne que les sociĂ©tĂ©shumaines.â
Les premiers textes Ă©crits retrouvĂ©s (SumĂ©riens) Ă©taient desrecensements du bĂ©tail et des informations sur les prix encours, bref des listes dâobjets et des nombres.âOn a ainsi trace de recensements des rĂ©coltes en Chine auXXIIIe siĂšcle av. J.C. (empereur Yao), et de la population enĂgypte au XVIIIe siĂšcle av. J.C. (pharaon Amasis)(http://www.statistix.fr/IMG/pdf/Une_approche_historique_de_la_statistique_v3.pdf)
M3E 2020 6/64
Historique II
⹠La statistique mathématique moderne, basée sur le calcul desprobabilités, est née au XIXe siÚcle suite aux travaux de Laplace,Gauss et Moivre.
âą La statistique connaĂźt un dĂ©veloppement fulgurant au tournant duvingtiĂšme siĂšcle en Angleterre sous lâimpulsion dĂ©cisive de FrancisGalton, Karl et Egon Pearson (le pĂšre et le fils), Ronald Fisher etWilliam Gosset.
William Sealy Gosset (13 juin 1876 â16 octobre 1937) connu sous le pseu-donyme Student est un statisticien an-glais. EmbauchĂ© par la brasserie Guin-ness pour stabiliser le goĂ»t de la biĂšre,il a le premier dĂ©crit la distributiondite de Student. Le test dâhypothĂšsede Student, construit sur cette distribu-tion, est aujourdâhui utilisĂ© de maniĂšrestandard pour mettre en Ă©vidence uneĂ©ventuelle diffĂ©rence entre deux Ă©chan-tillons.
M3E 2020 7/64
Historique III
âą Au vingtiĂšme siĂšcle, les techniques et mĂ©thodes statistiques se sontpropagĂ©es et imposĂ©es dans tous les domaines scientifiques :â
sciences «dures» (physique, astronomie, gĂ©ophysique),âsciences du vivant (biologie, agronomie, mĂ©decine),âsciences Ă©conomiques et sociales (sociologie, psychologie,histoire, Ă©conomĂ©trie),
âą et bien au delĂ des sciencesâpublicitĂ©, marketing ;âproduction : sĂ©curitĂ© (pannes, risques), contrĂŽle de qualitĂ© ;âpolitique.
âą Les mĂ©thodes statistiques sont devenues des outils dâaide Ă ladĂ©cision (investissement financier, prĂ©vention des risques,...) voiredes moyens opĂ©rationnels de gestion (files dâattente, circulationautomobile, distribution dâĂ©lectricitĂ©,...).
âą Les progrĂšs rĂ©cents de lâinformatique ont permis le dĂ©veloppementde mĂ©thodes statistiques nouvelles, permettant la manipulation detrĂšs grandes quantitĂ©s de donnĂ©es (exploration/fouille de donnĂ©es,data mining).
M3E 2020 8/64
Les deux branches de la statistique
Il y a deux grandes branches de lâanalyse statistique :
1 la statistique descriptive consistant au traitement, Ă laclassification et Ă mise en forme des donnĂ©es. Un Ă©chantillon serarĂ©sumĂ© en quelques statistiques, un nuage de points sera projetĂ© surun systĂšme dâaxes mettant en Ă©vidence des sous-groupes, etc...
2 la statistique infĂ©rentielle dont lâobjet est la caractĂ©risation despropriĂ©tĂ©s dâune population Ă partir dâĂ©chantillons de celle-ci.
Les méthodes de la statistique inférentielle reposent sur la théorie desprobabilités, pas celles de la statistique descriptive.
La statistique descriptive
M3E 2020 10/64
La statistique descriptive
Le but de la statistique descriptive (ou exploratoire) est de structurerles donnĂ©es issues de lâĂ©chantillonnage afin dâen extraire des informationspertinentes.Câest lâanalyse des donnĂ©es dont les principales mĂ©thodes sont :â
Analyse univariée
â Lâobjectif sera de dĂ©crire la distribution des valeurs prises parune variable caractĂ©risant un Ă©chantillon (un sondage, desmesures physiques, des caractĂšres qualitatifs).
â Une telle description repose sur lâestimation des quelquesstatistiques rĂ©sumant les donnĂ©es, tendance centrale (moyenne, mĂ©diane, mode) variabilitĂ© (dĂ©viation standard, Ă©tendue, asymĂ©trie (skewness)
aplatissement (kurtosis)) distribution des valeurs (quantiles, Ă©tendue).
â et sur des reprĂ©sentations graphiques (histogrammes).
M3E 2020 11/64
La statistique descriptive
Si les individus dâun Ă©chantillon sont caractĂ©risĂ©s par plus dâune variable,la statistique descriptive sâattache Ă dĂ©crire les relations entre variables.â
Analyse multivariée
â Les tableaux de contingence ;â Les graphiques de dispersion (scatter plots) visant Ă synthĂ©tiser
les propriĂ©tĂ©s dâun Ă©chantillon ou dâune population :â La mesure quantitative dâun lien de dĂ©pendance entre variables
(corrĂ©lation, axe principal)â Les mĂ©thodes factorielles ayant pour but de rĂ©duire le nombre
de variables Ă lâaide dâun petit nombre de facteurs, comme parexemple lâanalyse en composantes principales.
Le calcul des probabilité ne joue ici aucun rÎle.
La statistique inférentielle
M3E 2020 13/64
La statistique inférentielle
Le propos de la statistique infĂ©rentielle est de dĂ©duire les propriĂ©tĂ©sdâun ensemble, on dira (pour des raisons historiques) dâune population, Ă partir de la connaissance dâĂ©chantillons de cet ensemble.
LâĂ©chantillon peut rĂ©sulter dâune sĂ©rie de mesures, dâun prĂ©lĂšvementalĂ©atoire, dâun sondage.
âą sĂ©rie temporelle de mesures mĂ©tĂ©orologiques au parc Montsouris(1872â)
⹠prélÚvement aléatoire de piÚces manufacturées (contrÎle de qualité)
âą sondage dâopinion.
Les outils de base sont ici les mĂ©thodes dâestimation et les testsdâhypothĂšse.
La théorie des probabilités joue ici un rÎle central.
Voici quelques exemples :
M3E 2020 14/64
Exemple 1 : Estimation dâune grandeur Ă partir dâunesĂ©rie de mesures
âą Une grandeur physique Ο est mesurĂ©e n fois. Ă cause desimprĂ©cisions de mesure ou Ă cause de la variabilitĂ© de facteurs ayantune influence sur la quantitĂ© mesurĂ©e, on recueille une suite derĂ©sultats x1, x2, . . . , xn, Ă priori diffĂ©rents.
âą La mesure est une variable alĂ©atoire (v.a.), X . Lâobjectif estdâestimer une valeur pertinente de la grandeur mesurĂ©e Ο Ă partirdes x1, . . . , xn.
La v.a. X suit une loi de probabilitĂ© dĂ©pendant de paramĂštres que lâoncherche Ă estimer.
La question centrale de lâestimation est dâestimer des paramĂštres de la loisuivie par la v.a. X Ă partir de la connaissance dâun Ă©chantillon issu dâunprocessus alĂ©atoire (mesures, tirage).
On sâattache donc Ă dĂ©crire les propriĂ©tĂ©s de la v.a. (tendance centrale,variabilitĂ©,...) Ă partir dâestimateurs dĂ©duits de lâĂ©chantillon.
M3E 2020 15/64
Exemple 1
⹠Une estimation intuitive xi est la moyenne arithmétique X des X ,i.e. x = 1
n
âni=1 xi . La moyenne arithmĂ©tique est un estimateur de
”X .
⹠Chaque mesure constitue une réalisation du processus de mesure.Une autre série de mesure donnera, à priori, une autre moyenneempirique x , c.à .d. une autre estimation.
âą Lâestimateur X est donc une variable alĂ©atoire dont on cherchera Ă prĂ©ciser les propriĂ©tĂ©s.
âą En particulier on cherchera un intervalle de confiance pour ”X :[X ââX ;X + âX ] avec un risque dâerreur que lâon quantifiera.
M3E 2020 16/64
Exemple 2 : Test dâhypothĂšse
âą Il sâagit ici de confirmer ou dâinfirmer une hypothĂšse Ă partir delâobservation dâun Ă©chantillon constituĂ© de v.a..
âą ConsidĂ©rons par exemple un processus dĂ©pendant du temps (unesĂ©rie de mesure de tempĂ©rature par exemple). On cherche Ă savoir sile processus est stationnaire, câest Ă dire si sa valeur moyenne et savariance dĂ©pendent ou non de lâintervalle de temps considĂ©rĂ©.
âą Une mĂ©thode consiste Ă estimer des moyennes et des variances surdes intervalles de temps consĂ©cutifs. On Ă©valuera la pertinence delâhypothĂšse de stationnaritĂ© en comparant les distributions desmoyennes/variances obtenues.
âą Le test dâhypothĂšse consiste Ă confronter deux hypothĂšses,
â une hypothĂšse dite nulle, lâhypothĂšse H0, sous laquelle les propriĂ©tĂ©sde lâĂ©chantillon sont connues, ici lâhypothĂšse stationnaire ;
â lâhypothĂšse alternative non-H0, notĂ©e H1.
âą Un test dâhypothĂšse permettra de prendre une dĂ©cision relative Ă H0, i.e. rejeter ou non H0, avec un risque quantifiĂ© de se tromper.
M3E 2020 17/64
Exemple 2
Principe du test dâhypothĂšse
Quelques rappels de probabilités
M3E 2020 19/64
Probabilité : définition
On définit successivement :
âą Une expĂ©rience ou un processus alĂ©atoire : une expĂ©rience, unprocessus dont lâissue est imprĂ©visible (mesure, tirage, marchealĂ©atoire).
âą Lâunivers des possibles : lâensemble Ω contient tous les rĂ©sultats Ïpossibles dâune expĂ©rience alĂ©atoire.
⹠Un évÚnement, ou une réalisation, A est un sous-ensemble de Ω
âą Une probabilitĂ© est une application associant un scalaire â [0, 1] Ă tout Ă©vĂšnement A. La probabilitĂ© de lâĂ©vĂšnement A est notĂ©e Pr[A].
âą exemple : Le jet dâun dĂ© Ă six faces. Lâunivers des possibles estΩ = 1, 2, 3, 4, 5, 6. Un Ă©vĂšnement est, par exemple,A = Le rĂ©sultat dâun jet de dĂ© est pair, soit A = 2, 4, 6.
M3E 2020 20/64
Probabilité : propriétés élémentaires
⹠Pr[Ω] = 1
âą Pr[â ] = 0
âą Soient A et B â Ω : Pr[A âȘ B] = Pr[A] + Pr[B]â Pr[A â© B]
âą Si A â B : Pr[A] 6 Pr[B]
DĂ©finition : systĂšme complet dâĂ©vĂšnements
Un ensemble Ai (i â N) dâĂ©vĂšnements constitue un systĂšme complet siles Ai sont deux Ă deux disjoints et si leur rĂ©union est Ω.
1 Ai â© Aj = â si i 6= j
2â
iâNAi = Ω
M3E 2020 21/64
ProbabilitĂ©s conditionnellesOn dit que la probabilitĂ© de lâĂ©vĂšnement A est conditionnĂ©e Ă lâĂ©vĂšnementB si la probabilitĂ© de A est modifiĂ©e selon que lâĂ©vĂšnement B est ou nonrĂ©alisĂ©. La probabilitĂ© de A conditionnĂ© Ă B est notĂ©e Pr[A|B].
ConsidĂ©rons par exemple deux Ă©vĂšnementsA et B issus dâune expĂ©rience alĂ©atoire,chacun des Ă©vĂšnements et son complĂ©-mentaire formant un systĂšme complet. OnconsidĂšre les rĂ©sultats du couple (A, B). LesprobabilitĂ©s de chaque occurrence (Ai ,Bj)sont indiquĂ©es sur le tableau.
B B
A p11 p12
A p21 p22
Les quatre Ă©vĂšnements deprobabilitĂ© pij forment unsystĂšme complet dâĂ©vĂšne-ments.
Il vient :
Pr[A ⩠B] ⥠Pr[AB] ⥠Pr[A&B] = p11
Pr[A] = Pr[A&B] + Pr[A&B] = p11 + p12
Pr[A|B] =Pr[A&B]
Pr[B]=
p11
p11 + p21
â Pr[A&B] = Pr[A|B]Ă Pr[B] = Pr[B|A]Ă Pr[A]M3E 2020 22/64
ThéorÚme de Bayes
En conséquence :
Pr[A|B] =Pr[B|A] Pr[A]
Pr[B]=
Pr[B|A] Pr[A]
Pr[B|A] Pr[A] + Pr[B|A] Pr[A]
Ce rĂ©sultat se gĂ©nĂ©ralise Ă un ensemble complet dâĂ©vĂšnements Ai .
ThéorÚme de Bayes
Soit Ai , i = (1, . . . , n) un systĂšme complet de Ω tel que âi ,Pr[Ai ] 6= 0.Alors, pour tout B â Ω :
Pr[Ai |B] =Pr[B|Ai ] Pr[Ai ]
Pr[B]=
Pr[B|Ai ] Pr[Ai ]âni=1 Pr[B|Ai ] Pr[Ai ]
M3E 2020 23/64
Exemple : Test de dépistage
Un test servant Ă dĂ©pister une maladie vient dâĂȘtre mis au point. Ses rĂ©sultats,annonce le fabriquant, sont trĂšs fiables :
âą si le sujet est malade, le test est positif dans 95% des cas ;
âą si le sujet nâest pas malade, le test donne un rĂ©sultat nĂ©gatif dans 9 cas sur 10.
Sachant que la maladie en question ne frappe que 1% de la population, quelle est laprobabilitĂ© pour un patient dont le test est positif dâĂȘtre effectivement atteint ?Posons :
âą T : le test est positif,
âą M : le sujet est malade.
On connaĂźt Pr[M] = 0, 01 et on sait que Pr[T |M] = 0.95 et Pr[T |M] = 0, 9.
On cherche Pr[M|T ] : Pr[M|T ] =Pr[T |M] Pr[M]
Pr[T ]
Or : Pr[T ] = Pr[T |M] Pr[M] + Pr[T |M] Pr[M] , oĂč Pr[T |M] = (1âPr[T |M])
Finalement : Pr[M|T ] =Pr[T |M] Pr[M]
Pr[T |M] Pr[M] + (1â Pr[T |M]) Pr[M]= 0, 088
La probabilitĂ© dâĂȘtre malade sachant le test positif est moins de 9% ! !
M3E 2020 24/64
ĂvĂšnements indĂ©pendantsDeux Ă©vĂšnements A et B sont indĂ©pendants si la probabilitĂ© dâoccurrencede A ne dĂ©pend pas de celle de B :
Pr[A|B] = Pr[A], =â Pr[A â© B] = Pr[A|B] Pr[B] = Pr[A] Pr[B]
De mĂȘme, la probabilitĂ© de B ne dĂ©pend pas de A ;
Pr[B|A] = Pr[B], =â Pr[A â© B] = Pr[A] Pr[B]
En résumé, deux évÚnements sont indépendants si et seulement si :
Pr[A â© B] = Pr[A] Pr[B]
Cette notion dâindĂ©pendance se gĂ©nĂ©ralise Ă un nombre quelconquedâĂ©vĂšnements.
ThĂ©orĂšme : IndĂ©pendance dâĂ©vĂšnements alĂ©atoires
Soit A1, . . . ,AN une suite de N évÚnements aléatoires. Les Ai sontindépendants si et seulement si :
Pr
[Nâ
i=1
Ai
]=
Nâ
i=1
Pr[Ai ] (1)
M3E 2020 25/64
Variable aléatoire
On considÚre ici des variables aléatoires (v.a.) quantitatives.
âą Notations â Par convention, on note en majuscule une variablealĂ©atoire, et en minuscule une valeur prise par cette variable.Ainsi, la notation : Pr[X = x ] = α signifie : la probabilitĂ© que lavariable alĂ©atoire X prenne la valeur particuliĂšre x est α.
âą Une v.a. peut ĂȘtre discrĂšte (lâensemble des valeurs prise par X estdĂ©nombrable) ou continue.
âą Les propriĂ©tĂ©s dâune v.a. sont dĂ©crites par sa Fonction de rĂ©partition
La fonction de rĂ©partition dâune v.a. X , notĂ©e FX est une fonctionRâ [0, 1] ayant pour valeur en x â R la probabilitĂ© que X 6 x .
FX (x)def= Pr[X 6 x ]
M3E 2020 26/64
Fonction de répartition
0.0
1.0
a
F (a) = X < aX
Pr[ ]
F (a)X
â +
Fonctions de répartition, v.a. continue
0.2
0.4
0.6
1.0
F(x
)
0.0
â
0.8
+
Fonction de répartition, v.a. discrÚte
x
M3E 2020 27/64
DensitĂ© de probabilitĂ©La densitĂ© de probabilitĂ© (ddp ou pdf pour probability density function)dâune variable alĂ©atoire X dĂ©crit la probabilitĂ© pour la v.a. dâĂȘtre dans unintervalle donnĂ© (v.a. continue) ou de prendre une valeur particuliĂšre (v.a.discrĂštes).La ddp sâobtient en dĂ©rivant la fonction de rĂ©partition FX .Il convient de distinguer les cas ou la v.a. est continue ou discrĂšte.
⹠densité de probabilité v.a. continueLa densité de probabilité est une fonction, notée fX , définie par :
Pr[X 6 x ] = FX (x) =
â« x
ââfX (t) dt
Autrement dit, la fonction fX est (presque partout) égale à ladérivée de FX :
fX (x)dx = dFX ââ fX (x) =dFX
dx
M3E 2020 28/64
Densité de probabilité
0.0
1.0
0.0
f(x)
b
F (a)
F (b)
a
X
X
a
b
f (x)dxX
Densité de probabilitéFonction de répartition
a b
M3E 2020 29/64
Densité de probabilité
Si la v.a. X est discrĂšte, la fonction de rĂ©partition FX est en escalier : elleest donc constante presque partout sauf aux points de discontinuitĂ©. Unetelle fonction nâest pas dĂ©rivable au sens usuel des fonctions.NĂ©anmoins, on dĂ©finit une densitĂ© de probabilitĂ© Ă lâaide de ladistribution (ou impulsion) de Dirac.
âą densitĂ© de probabilitĂ© v.a. discrĂštesLa densitĂ© de probabilitĂ© fX dâune v.a. discrĂšte est nulle presquepartout sauf aux points xi , discontinuitĂ©s de f : formellement, onĂ©crit une telle densitĂ© de probabilitĂ© Ă lâaide dâun ensembledâimpulsions de Dirac ÎŽ(x â xi )iâN :
fX (xi ) = piÎŽ(x â xi ) =â fX (x) =Nâ
i=1
piÎŽ(x â xi ) (2)
M3E 2020 30/64
DensitĂ© de probabilitĂ© dâune v.a. discrĂšte
La fonction de rĂ©parti-tion (Ă gauche) ainsi quela densitĂ© de probabilitĂ©(Ă droite) de la v.a. dis-crĂšte associĂ©e Ă un jet dedĂ© non-pipĂ© (chaque rĂ©-sultat est Ă©quiprobable).X = (1, 2, · · · , 6) etPr[X = xi ] = 1/6.Les impulsions de Dirac(Ă1/6) sont reprĂ©sentĂ©espar des bĂątons de hauteur1/6.
0 1 2 3 4 5 6 7
0.0
0.2
0.4
0.6
0.8
1.0
1.2
x
0 1 2 3 4 5 6 7
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.16
0.18
0.20
0.22
x
F(x
)
f(x)
x x
Fonction de répartition Densité de probabilité
M3E 2020 31/64
Condition de normalisation
â«
Ω
fX (x)dx = 1
v.a. continue
Nâ
i=1
pi = 1 (1 6 i 6 N)
v.a. discrĂšte
M3E 2020 32/64
Moments dâune variable alĂ©atoire
La fonction de rĂ©partition et la densitĂ© de probabilitĂ© dĂ©crivent ladistribution des probabilitĂ©s de la variable alĂ©atoire X sur lâensemble desvaleurs que celle-ci peut atteindre.
On peut aussi rĂ©sumer les propriĂ©tĂ©s dâune v.a. Ă lâaide de quelquesstatistiques : les moments dont les plus importants sont le premier et lesecond moments.
Le premier moment décrit la moyenne statistique de X , le secondmoment (centré) caractérisant la dispersion autour de cette moyenne.
⹠EspéranceLe premier moment, appelé espérance mathématique de X , ou plussimplement espérance de X , caractérise la moyenne statistique :
E [X ] ⥠m1def=â«xfX (x)dx E [X ] =
âNi=1 xipi
M3E 2020 33/64
Moments dâune variable alĂ©atoireDâune façon gĂ©nĂ©rale, le moment dâordre n (n â Nâ) est dĂ©fini par :
E [X n]def= mn =
â«xnfX (x)dx
Le moment dâordre n (n â„ 1) nâest pas toujours dĂ©fini,(lâintĂ©grale ci-dessus ne convergeant pas nĂ©cessairement)
⹠Moments centrésOn définit les moments centrés par :
”ndef= E [(X â E [X ])n] =
â«(x âm1)nfX (x)dx
âą La varianceLa variance de la v.a. X , notĂ©e Var [X ] ou Ï2
X , est le moment centrĂ©dâordre 2 :
Var [X ] ⥠”2def= E [(X â E [X ])2] =
â«(x âm1)2fX (x)dx
M3E 2020 34/64
Ăcart type, v.a. centrĂ©es rĂ©duites
âą Ăcart typeLa dispersion des valeurs dâune v.a. autour de lâespĂ©rance est Ă©valuĂ©epar lâĂ©cart type, ÏX , dĂ©fini comme la racine carrĂ©e de la variance :
ÏX =â
Var [X ]
âą Variables centrĂ©es rĂ©duitesOn est frĂ©quemment conduit Ă utiliser des variables centrĂ©esrĂ©duites.Une variable alĂ©atoire rĂ©duite est une v.a. dâespĂ©rance nulle etdâĂ©cart type 1.
âą Ainsi, si X est une v.a. de moyenne m et de variance Ï2X , on dĂ©finit
la v.a. centrée-réduite Y par :
Y =X âm
ÏX
M3E 2020 35/64
Inégalité de Bienaymé-Chebychev
Les amis Bienaymé et Chebychev (ils entretenaient une correspondance)nous ont légué un important résultat.
LâinĂ©galitĂ© de BienaymĂ©-Chebychev permet de quantifier la probabilitĂ©quâa une v.a. de sâĂ©carter de lâespĂ©rance de plus dâune quantitĂ© donnĂ©e.
ConsidĂ©rons une v.a. X demoyenne ” et dâĂ©cart type Ï.On distingue 3 intervalles :
I : X < ”â aÏ
II : |X â ”| 6 aÏ
III : X > ”+ aÏ
Intervalle I Intervalle II Intervalle III
” â Ïa ” + Ïa”
oĂč a â Râ+. Notons que dans les rĂ©gions I et III, |X â ”| â„ aÏ.
M3E 2020 36/64
Inégalité de Bienaymé-Chebychev
Par définition de la variance :
V [X ] =
â«
x<”âaÏ
(x â ”)2fX (x)dxïžž ïž·ïž· ïžž
RĂ©gion I
+
â«
|xâ”|6aÏ
(x â ”)2fX (x)dxïžž ïž·ïž· ïžž
RĂ©gion II
+
â«
x>”+aÏ
(x â ”)2fX (x)dxïžž ïž·ïž· ïžž
RĂ©gion III
Donc :
V [X ] >
â«
x<”âaÏ
(x â ”)2fX (x)dx +
â«
x>”+aÏ
(x â ”)2fX (x)dx
Comme |x â ”| > aÏ dans les rĂ©gions I et III :
V [X ] >
â«
x<”âaÏ
a2Ï2fX (x)dx +
â«
x>”+aÏ
a2Ï2fX (x)dx = a2Ï2â«
|xâ”|>aÏ
fX (x)dx
La derniĂšre intĂ©grale est la probabilitĂ© que X soit dans les rĂ©gions I ou III,c.-Ă -d. Pr[|X â ”| > aÏ].
M3E 2020 37/64
Inégalité de Bienaymé-Chebychev
Il vient : Ï2 > a2Ï2 Pr[|X â ”| > aÏ] On en dĂ©duit :
ThéorÚme : Inégalité de Bienaymé-Chebychev
Pr[|X â ”| > aÏ] <1a2
On peut Ă©crire lâinĂ©galitĂ© de BienaymĂ©-Chebychev sous une formelĂ©gĂšrement diffĂ©rente. Posons ÎČ = aÏ. Il vient :
Pr[|X â ”| > ÎČ] <Ï2
ÎČ2
M3E 2020 38/64
Fonction dâune variable alĂ©atoire
âą Ătant donnĂ©e une v.a. X de densitĂ© fX , on est souvent amenĂ© Ă considĂ©rer la v.a. Y liĂ©e Ă X par une fonction connue, g :
Y = g(X )
Comment exprimer la densité de probabilité (d.d.p.) de Yconnaissant celle de X ?
âą Si g est une fonction monotone (croissante par exemple) :
Pr[Y 6 y1] = Pr[X 6 x1] soit : FY (y1) = FX (x1)
oĂč y1 = g(x1), FY et FX sont les fonctions derĂ©partition de Y et de X .
x x
y1
y2
1 2
Y = g(X)
â1X = g (Y)
On déduit :(dFY
dy
)
y=y1
dy =
(dFX
dx
)
x=x1
dx soit : fY (y1)dy = fX (x1)dx
M3E 2020 39/64
Fonction dâune variable alĂ©atoire
âą Par consĂ©quent, la d.d.p. de la v.a. Y = g(X ), g Ă©tant une fonctionmonotone, sâĂ©crit :
fY (y) = fX (x)
âŁâŁâŁâŁdxdy
âŁâŁâŁâŁ
âą EspĂ©rance dâune fonction dâune variable alĂ©atoireComme fY (y)dy = fX (x)dx , E [Y ] sâĂ©crit :
E [Y ] =
â«yfY (y)dy =
â«g(x)fX (x)dx
Ce rĂ©sultat est important car il permet de calculer lâespĂ©rance deE [Y ] = E [g(X )] sans avoir Ă Ă©valuer la d.d.p. de Y .
M3E 2020 40/64
Lois de probabilitĂ©Introduisons maintenant les lois de probabilitĂ© les plus courammentrencontrĂ©es. Câest une vĂ©ritable mĂ©nagerie ! Nous ne dĂ©crirons que lesplus importantes dâentre elles.âą Une loi de probabilitĂ© dĂ©crit la probabilitĂ© quâune v.a. se trouve dans
un intervalle donné (v.a. continue) ou prenne une valeur particuliÚre(v.a. discrÚte).
âą Elle est dĂ©crite par une fonction dĂ©finie pour lâensemble des valeursquâune variable alĂ©atoire peut atteindre, soit
â la fonction de rĂ©partitionâ la densitĂ© de probabilitĂ©, dĂ©rivĂ©e de la fonction de rĂ©partition.
Cette fonction (distribution) dĂ©pend dâun ou plusieurs paramĂštresde forme.
âą NotationsSoit X une v.a. suivant une loi L, cette loi dĂ©pendant desparamĂštres α et ÎČ . . . . On notera :
X ⌠L(α, ÎČ, . . . )
M3E 2020 41/64
Loi de Bernoulli
âą Loi de BernoulliLa loi de Bernoulli correspond Ă un Ă©vĂšnement alĂ©atoire dont lâissueest binaire, par exemple un lancer de pile ou face, ou plusgĂ©nĂ©ralement toute expĂ©rience alĂ©atoire se concluant par un succĂšsou un Ă©chec.
âą La v.a. X prend la valeur 1 en cas de succĂšs, 0 en cas dâĂ©chec.
âą Si une v.a. suit une loi de Bernoulli, on note X ⌠B(1, p). La loi deBernoulli dĂ©pend du seul paramĂštre p, probabilitĂ© de succĂšs.
Pr[X = 1] = p si succĂšs
Pr[X = 0] = (1â p) = q si Ă©chec.
X ⌠B(1, p) ââ fX (x) = pÎŽ(x â 1) + (1â p)ÎŽ(x)
âą MomentsE [X ] = p
Var [X ] = p(1â p) = pq
M3E 2020 42/64
Loi binomiale
⹠Loi binomialeLa v.a. X décrivant le nombre de succÚs aprÚs n épreuves deBernoulli suit une loi binomiale : X est la somme de n v.a. binaires(0/1) indépendantes.
âą La loi binomiale dĂ©pend de deux paramĂštres : n, le nombredâĂ©preuves binaires, et p, la probabilitĂ© de succĂšs lors dâune Ă©preuve.
âą On note X ⌠B(n, p)
La loi binomiale est décrite par :
Pr[X = k] = Ckn p
k(1â p)nâk âk â 0, 1, . . . , n
âą La densitĂ© de probabilitĂ© dâune v.a suivant une loi binomiale deparamĂštre (n, p) sâĂ©crit :
X ⌠B(n, p) ââ fX (x) =nâ
k=0
Ckn p
k(1â p)nâkÎŽ(x â k)
Rappelons que : C kn =
n!
k!(n â k)!
M3E 2020 43/64
Loi binomiale
0 2 4 6 8 10 12 14 16 18 20
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.16
0.18
0.20
n
f(x)
p = 0.3
0 2 4 6 8 10 12 14 16 18 20
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
n
F(x
)
Densités de probabilité Fonctions de répartition
p = 0.7
p = 0.7p = 0.3
0 5 10 15 20 25 30
0.00
0.05
0.10
0.15
0.20
0.25
0.30
n
f(x)
0 5 10 15 20 25 30
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
n
F(x
)
Densités de probabilité
n = 10n = 30
Fonctions de répartition
n = 10n = 30
La d.d.p. dâune v.a. X ⌠B(n, p).
En haut : n = 20, et deux valeursde p, p = 0,3 et p = 0,7.
En bas : p = 0,6 et deux valeurs den : n = 10 et n = 30.
Moments
E [X ] = np
Var [X ] = np(1â p) = npq oĂč q = 1â p
M3E 2020 44/64
Loi uniforme
⹠Une variable aléatoire discrÚte X comportant n issues xi , touteséquiprobables suit une loi uniforme.
Pr[X = xi ] =1n
On note X ⌠U(n).
âą DensitĂ© de probabilitĂ© X ⌠U(n) =â fX (x) =nâ
i=1
1nÎŽ(x â xi )
âą Moments
E [X ] = 1n
âni=1 xi ⥠m
Var [X ] = E [X 2]â E [X ]2 = 1n
âni=1 x
2i âm2
m est la moyenne arithmétique des xi .
M3E 2020 45/64
Loi de Poisson
âą La loi de Poisson est associĂ©e Ă des Ă©vĂšnements «rares». Elle dĂ©critla probabilitĂ© pour quâun nombre donnĂ© dâĂ©vĂšnements se produisentpendant un intervalle de temps ou dans une rĂ©gion de lâespacelimitĂ©e.
âą Une des premiĂšres applications de la loi de Poisson a permisdâestimer la probabilitĂ© du nombre de soldats tuĂ©s par ruade decheval dans la cavalerie Prussienne entre 1875 et 1894 !
âą La loi suivie par la v.a. X dĂ©pend dâun paramĂštre λ, rĂ©el sans unitĂ© :
Pr[X = k] =λk
k!exp(âλ) k â N, λ â Râ+
⹠On dit que la v.a. X suit une loi de Poisson de paramÚtre λ, et onnote :
X ⌠P(λ)
M3E 2020 46/64
Loi de Poisson
0 5 10 15 20 25
0.00
0.05
0.10
0.15
0.20
0.25
n
f(x)
0 5 10 15 20 25
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
n
F(x)
λ = 15
λ = 3
Densité de probabilité Fonctions de répartition
λ = 15
λ = 3
La loi de Poisson pour λ = 3 et λ = 15
moments :
E [X ] = λ
Var [X ] = λ
M3E 2020 47/64
Loi uniforme
⹠Une variable aléatoire X suit une loi uniforme si la densité deprobabilité est constante sur un intervalle de largeur donné.
Pr[x 6 X 6 x + dx ] = Cdx oĂč C = Constante
âą Une variable de loi uniforme est dĂ©finie sur un intervalle bornĂ©, câestĂ dire :
X â [a, b]
⹠La loi uniforme dépend alors de deux paramÚtres a et b, qui sont laplus petite et la plus grande valeur que la variable aléatoire peutprendre.
⹠Cette loi est notée U(a, b).
M3E 2020 48/64
Loi uniforme (continue)
⹠Densité de probabilité
X ⌠U(a, b) ââ fX (x) =
1b â a
si a 6 x 6 b
0 si x /â [a, b]
⹠Fonction de répartition
F (x) =
0 si x < ax â a
b â asi a 6 x 6 b
1 si x > b
âą Moments
E [X ] =(a + b)
2Var [X ] =
(b â a)2
12
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
0.0
0.2
0.4
0.6
0.8
1.0
F (
x)
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
0.0
0.1
0.2
0.3
0.4
0.5
0.6
f (x
)
Fonction de répartition, loi uniforme
Densité de probabilité, loi uniforme
x
U(1,3)
x
U(1,3)
Fonction de rĂ©partition (haut) et densitĂ© deprobabilitĂ© (bas) dâune v.a. X ⌠U(1, 3).
M3E 2020 49/64
Loi normale (Laplace-Gauss)
⹠La loi normale (ou loi de Laplace-Gauss, ou encore loi de Gauss) estsans doute la plus importante de toutes car de nombreuses variablesaléatoires suivent (au moins approximativement) une loi normale(théorÚme de la limite centrale)
âą Elle dĂ©pend de deux paramĂštres, lâespĂ©rance ” et lâĂ©cart type Ï.
âą Une v.a. suivant une loi normale de moyenne ” et dâĂ©cart type Ï estnotĂ©e X ⌠N (”, Ï2).
⹠Densité de probabilité
X ⌠N (”, Ï2) ââ fX (x) =1â2ÏÏ
exp
(â (x â ”)2
2Ï2
)
⹠Fonction de répartition
FX (x) =12
(1 + erf
(x â ”â
2Ï
))
M3E 2020 50/64
Loi normale (Laplace-Gauss)
â4 â3 â2 â1 0 1 2 3 4
0.0
0.2
0.4
0.6
0.8
1.0
x
F(x)
Ï = 0.5
Ï = 1
Ï = 2
â4 â3 â2 â1 0 1 2 3 4
0.0
0.2
0.4
0.6
0.8
x
f(x)
Ï = 0.5
Ï = 1
Ï = 2
Fonctions de répartition, lois normales Densités de probabilité, lois normales
Les fonctions de rĂ©partition et les densitĂ©s de probabilitĂ© de v.a. X ⌠N (0, Ï2) pourtrois valeurs de lâĂ©cart type Ï.
M3E 2020 51/64
Loi normale (Laplace-Gauss)
⹠Moments E [X ] = ”
Var [X ] = Ï2
âą Les moments centrĂ©s dâordre supĂ©rieur sont aisĂ©s Ă calculer pourune loi normale.
â Les moments centrĂ©s dâordre impair sont tous nuls.
”2k+1 = 0 âk â N
âą Les moments centrĂ©s pairs sâexpriment tous en fonction de lavariance ”2 :
”2k =(2k)!
2kk!”k
2
cette derniĂšre relation sâobtenant par rĂ©currence.Le fait que les moments centrĂ©s impairs soient tous nuls est vĂ©rifiĂ© pour toutes les loissymĂ©triques par rapport Ă la moyenne, câest Ă dire les lois telles que :
Pr [X 6 m1 â x] = Pr[X â„ m1 + x]
les densités de probabilité des variables centrées sont alors des fonctions paires.M3E 2020 52/64
Loi normale centrée-réduite
âą Une forme particuliĂšrement utile de la loi normale est celle dâunev.a. centrĂ©e rĂ©duite.
âą Soit X ⌠N (”, Ï2).
Alors la variable centrĂ©e rĂ©duite X =X â ”Ï
suit une loi N (0, 1).
X ⌠N (”, Ï2) =â X =X â ”Ï
⌠N (0, 1)
⹠Table de la loi normaleLes probabilités de la loi normale pour une v.a. centré-réduite sonttabulées. La table ci-dessous contient les valeurs de la fonction derépartition, à savoir les valeurs de :
FX (x) =
â« x
ââfX (u)du
oĂč fX est la d.d.p. dâune v.a. centrĂ©e rĂ©duite :
fX (u) =1â2Ï
eâu22
M3E 2020 53/64
Loi normale centrée-réduite
âą Il est aisĂ© de dĂ©duire de cette table les probabilitĂ©s pour nâimportequelle v.a. normalement distribuĂ©e. ConsidĂ©rons une v.a.Y ⌠N (m, Ï2).
⹠La probabilité Pr [Y 6 y ] =
â« y
ââ
1â2ÏÏ
eâ(uâm)2
2Ï2 du
sâobtient en effectuant le changement de variable X =Y âm
ÏEn effet,
Pr [Y 6 y ] = Pr[X 6 x ] =
â« x
ââ
1â2Ï
eât22 dt
oĂč x = (y âm)/Ï
M3E 2020 54/64
Loi normale centrée-réduite
exemple : Soit Y ⌠N (5, 4). Quelle est la probabilitĂ© Pr[Y 6 6,5] ? Ilsuffit de rechercher la probabilitĂ© de la v.a. X centrĂ©e-rĂ©duite :
Pr[Y 6 6, 5] = Pr
[X 6 6, 5â 5
2
]= Pr[X 6 0, 75] = 0, 7734
La table ci-dessous donne les valeurs de la fonction de répartition de la loi normale
dâune v.a. centrĂ©e-rĂ©duite, Ă savoir les valeurs de : FX (x) =
â« x
ââfX (x âČ)dx âČ
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.090.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.53590.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.57530.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.61410.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.65170.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.68790.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.72240.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.75490.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734 0.7764 0.7793 0.7823 0.78520.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
M3E 2020 55/64
Loi exponentielle
âą Soit T une variable alĂ©atoire dĂ©crivant la durĂ©e de vie dâunphĂ©nomĂšne (ampoule Ă©lectrique ou noyau radioactif). ParconsĂ©quent, T â„ 0.
âą Certains phĂ©nomĂšnes possĂšdent la caractĂ©ristique remarquable de nepas vieillir, câest le cas par exemple dâun noyau radioactif.
âą Le phĂ©nomĂšne est sans vieillissement si la durĂ©e de vie au-delĂ delâinstant t est indĂ©pendante de lâinstant t, c-Ă -d :
â(s, t) â R+Ă R+, Pr[T > s + t |T > t ] = Pr[T > s ]
âą Dans ce cas, la v.a. T suit une loi exponentielle. Elle dĂ©pend dâunseul paramĂštre α.
âą La loi exponentielle est notĂ©e T ⌠E(α) .
M3E 2020 56/64
Loi exponentielle
⹠Fonction de répartition
FT (t) = 1â eâαt (t>0)
⹠Densité de probabilité
T ⌠E(α) ââ fT (t) = αeâαt
Moments
E [T ] = 1/α
Var [T ] = 1/α2
0 5 10 15 20
0.0
0.5
1.0
1.5
2.0
2.5
3.0
f (
t)
0 5 10 15 20
0.0
0.2
0.4
0.6
0.8
1.0
t
F (t
)
λ = 3
t
T T
Fonction de répartitionDensité de probabilité
M3E 2020 57/64
Loi du Ï2
⹠Soit X1, . . . ,Xk k variables aléatoires indépendantes de loi normale,centrées et réduites.
⹠Définissons une nouvelle variable Z définie par :
Z =kâ
i=1
X 2i
La v.a. Z suit une loi du Ï2 Ă k degrĂ©s de libertĂ©.
âą La loi du Ï2 est notĂ©e Z ⌠Ï2(k).
M3E 2020 58/64
Loi du Ï2
Densité de probabilité
Z ⌠Ï2(k) ââ fZ (x) =1
2k2 Î( k
2 )x
k2â1eâ
x2
oĂč Î est la fonction gamma.
0 5 10 15 20 25 30 35 40 45 50
0.00
0.05
0.10
0.15
0.20
0.25
x
f_X
(x)
k = 3
k = 5
k = 10
k = 30
DensitĂ© de probabilitĂ© X 2 Ï (Îș)
DensitĂ© de probabilitĂ© de v.a. X ⌠Ï2(k)(k = 3, 5, 10, 30).
Moments
E [Z ] = k
Var [Z ] = 2k
Lorsque k est «grand» (k > 30), la loi du Ï2 peut ĂȘtre approchĂ©e par une loi normaledâespĂ©rance k et de variance 2k.
M3E 2020 59/64
Loi de Student
âą La loi de Student est construite Ă partir de deux v.a., lâune suivantune loi normale centrĂ©e-rĂ©duite, lâautre une loi du Ï2.
âą Soient X ⌠N (0, 1) et K ⌠Ï2n, X et K Ă©tant indĂ©pendants.
⹠Alors la v.a. Tn définie par :
Tn =XâK/n
suit une loi de Student à n degrés de liberté.
âą La loi de Student est notĂ©e T ⌠St(n).
⹠La loi de Student est tabulée.
âą Pour n grand (n â„ 30) la loi de Student peut ĂȘtre approchĂ©e parune loi normale.
M3E 2020 60/64
Loi de Fisher
âą La loi de Fisher est construite Ă partir de deux v.a., suivant des loisdu Ï2.
âą Soient K1 et K2 deux v.a. de lois Ï2n et Ï2
p.
⹠Alors la v.a. Xn,p définie par
Xn,p =K1/n
K2/p
suit une loi de Fisher à n et p degrés de liberté.
âą La loi de Fisher est notĂ©e X ⌠F(n, p).
⹠La loi de Fisher est tabulée.
M3E 2020 61/64
Somme de variables aléatoires
La loi des grands nombres affirme que, si le nombre dâĂ©preuves est trĂšsgrand, la frĂ©quence dâoccurrence dâune Ă©ventualitĂ© sâĂ©carte «peu» de laprobabilitĂ© de cette Ă©ventualitĂ©.
ThéorÚme : Loi faible des grands nombres
Soit (Xi ) (1 6 i 6 n) une suite de n variables alĂ©atoires indĂ©pendanteset de mĂȘme loi. Posons :
Yn =X1 + · · ·+ Xn
n
Alors la v.a. Yn converge en probabilitĂ© vers lâespĂ©rance des Xi . Endâautres termes :
Pr[|Yn â ”| ℠Δ] âââânââ
0
On dĂ©montre ce thĂ©orĂšme Ă partir de lâinĂ©galitĂ© de BienaymĂ©-Chebychev.
M3E 2020 62/64
Somme de variables aléatoires discrÚtes
Dans un premier temps, considĂ©rons la somme de deux variablesalĂ©atoires indĂ©pendantes X et Y de densitĂ©s fX et fY . Quelle est ladensitĂ© de la somme Z = X + Y ?Soient X et Y deux variables alĂ©atoires discrĂštes. La probabilitĂ© dâavoirZ = X + Y = z est :
Pr[Z = z ] =â
x
Pr[X = x & Y = z â x ] =â
y
Pr[X = z â y & Y = y ]
Si les variables sont indépendantes :
Pr[Z = z ] =â
x
Pr[X = x ] Pr[Y = z â x ] =â
y
Pr[X = z â y ] Pr[Y = y ]
M3E 2020 63/64
Somme de variables aléatoires continues
Si X et Y sont continues, alors Z est continue et :
Pr[Z 6 z ] =
â«Pr[X 6 z â y |y 6 Y 6 y + dy ]dFY [y ]
soit :
FZ (z) =
â« â
ââ
(â« zây
ââfX |Y (x , y)dx
)fY (y)dy
soit en dérivant par rapport à z
fZ (z) =
â« â
ââfX |Y (z â y , y)fY (y)dy
oĂč FX |Y et fX |Y sont les fonctions de rĂ©partition et densitĂ© de probabilitĂ©conditionnelles.Si les variables X et Y sont indĂ©pendantes :
fX |Y (z â y , y) = fX (z â y)
M3E 2020 64/64
Somme de variables aléatoires continues
En conséquence :
fZ (z) =
â« â
ââfX (z â y)fY (y)dy =
â« â
ââfX (x)fY (z â x)dx
On déduit le théorÚme fondamental :
ThéorÚme : Somme de variables aléatoires indépendantesLa densité de probabilité fZ de la v.a. Z = X + Y est égale au produitde convolution des densités fX et fY des deux variables X et Y si celles-cisont indépendantes.
fZ (z) =
â«fX (t)fY (z â t) dt = (fX â fY )(z)
Cette derniÚre intégrale définit le produit de convolution des densités fXet fY .