m314 : initiation à la statistique (chapitres d'introduction)

Upload: clement-boulonne

Post on 10-Apr-2018

219 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    1/25

    Universit des Sciences et Technologies de LilleU.F.R. de Mathmatiques Pures et Appliques

    M314 : Initiation la statistique

    Chapitres dintroduction

    Notes de cours par Clment Boulonne

    L3 Mathmatiques 2008 - 2009

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    2/25

    Table des matires

    1 Thormes limites 41.1 Convergence de suites de variables alatoires . . . . . . . . . . . . . . . . . . . . 4

    1.1.1 Convergence presque sre ou en probabilit . . . . . . . . . . . . . . . . . 41.1.2 Convergence en moyenne dordre p . . . . . . . . . . . . . . . . . . . . . 9

    1.2 Loi faible des grands nombres [IPE 2008-2009] . . . . . . . . . . . . . . . . . . . 121.3 Loi forte des grands nombres [IPE 2008-2009] . . . . . . . . . . . . . . . . . . . 131.4 Aiguille de Buffon [IPE 2008-2009] . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2 Approximation gausienne de la loi binomiale [ICP 2007-2008] 172.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Courbe en cloche de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.3 Etude graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.4 Thorme de De Moivre-Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    2

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    3/25

    Rfrences

    Certaines parties du cours ont t recopies des polycopis de cours suivant :

    1) Ch. Suquet, Introduction au Calcul des Probabilits, 2007-2008

    2) Ch. Suquet, Intgration et Probabilits Elmentaires, 2008-2009

    3) Ch. Suquet, Initiation la Statistique, 2008-2009

    Les cours sont tlchargeables sur le site IPEIS (Intgration, Probabilits Elmentaires etInitiation la Statistique) de lUniversit Lille 1.

    3

    http://math.univ-lille1.fr/~ipeishttp://math.univ-lille1.fr/~ipeis
  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    4/25

    Chapitre 1

    Thormes limites

    On sinteresse ltude de la suite (Mn)nN suivante :

    Mn =1

    n

    n

    i=1Xi

    Cest une moyenne arithmtique.

    1.1 Convergence de suites de variables alatoires

    1.1.1 Convergence presque sre ou en probabilit

    Soient (, F, P) un espace probabilis et (Yn)n1 suite de variables alatoires sur cet espace.Quand est-ce que Yn

    n Y ?

    1re ide Convergence simple en :

    , Yn() n+ Y()

    Mais on montre que cette notion nest pas suffisante pour la convergence de la suite (Mn)donne.

    Exemple 1.1. Considrons le modle probabiliste infini le plus simple simple possible, savoirle jeu de pile ou face infini. On peut prendre ici = {f, p}N et est une suite infinie = (ui)i1,avec ui {f, p} pour tout i. En prenant pour Xi lindicatrice de lvnement obtention de pileau ime lancer, Mn est la frquence dapparition de pile au cours des n premiers lancers. Si lapice est quilibre, on sattend ce que Mn converge vers 1/2. Or il est clair quil y a uneinfinit dvnements lmentaires pour lesquels Mn() ne converge pas vers 1/2. On peutmme construire une infinit de pour lesquels Mn() na aucune limite.

    Conclusion. La convergence simple nest pas pertinente en thorie des probabilits.

    2me ide Yn() n+ Y() :

    , Fet P() = 1

    4

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    5/25

    Chapitre 1. Thormes limites 5

    Dfinition 1.2 (Convergence presque sre). On dit que la suite de variables alatoires (Yn)nNconverge presque srement - on notera :

    Ynp.s Y (Y variable alatoire)

    si P({ , Yn() n+ Y()}

    ) = 1.

    Question. = F?Yn et Y sont des variables alatoires donc |Yn Y| = Zn aussi {Zn < } F :

    > 0, j = j(, ) N, k j, |Yk() Y()| < > 0, j = j(, ) N, k j, {Zk < }

    On dfinit ainsi :

    = { , > 0, j = j(, ) N, k j, {Zk < }}

    = , > 0, j = j(, ), kj

    {Zk < }=

    , > 0,

    jN

    kj

    {Zk < }

    =

    ,

    >0

    jN

    kj

    {Zk < }

    =

    R+

    jN

    kj

    {Zk < }

    =Z1

    k(],[)F

    car Zk variable alatoire donc mesurable.

    =

    R+

    jN

    kj

    {Zk < }

    F

    car intersection dnombrable. =

    R+

    jN

    kj

    {Zk < }

    Fcar stabilit par union dnombrable. On pose :

    T :=jN

    kj

    {Zk < }

    Mais on ne peut pas tout de suite dire que Fcar T est non dnombrable. Mais on peutcontourner le problme en discrtisant le . On pose1 :

    i 0, i +(par exemple, i = 2

    i).

    i

    N,

    j(, i)

    N,

    k

    j, Zk() <

    1 : convrege en dcroissant vers

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    6/25

    6 Chapitre 1. Thormes limites

    =iN

    jN

    kj

    {Zk , F (1.1)

    Ynp.s

    n+ Y P(iN

    jN

    kj

    {Zk < i}

    Bi

    ) = 1 (1.2)

    Lemme 1.3. Si Bi est une suite dvnements :

    P(iN

    Bi) = 1 i N, P(Bi) = 1

    Dmonstration. () vident car iN Bi Bj, j :1 = P(

    Bi) P(Bj) 1

    () Hypothse : i N, P(Bi) = 1 P(BCi ) = 0

    0

    P(iNB

    Ci )

    iNP(BCi )

    =0, i

    = 0

    Donc : P(iN

    BCi ) = 0 et :

    P((iN

    BCi )C) = P(

    iN

    Bi) = 1

    Grce au lemme 1.3 :

    (1.2) i N, P(jN

    kj

    {Zk < i}) = 1

    Proposition 1.4 (Condition ncessaire et suffisante de convergence presque sre). Ynp.s

    n Ysi et seulement si lune des conditions quivalentes est vrifie :

    (i) > 0, P(

    jN

    kj

    {|Yk Y| < }) = 1 (1.3)

    (ii)

    > 0, P(jN

    kj{|Yk Y| }) = 0 (1.4)

    Dmonstration. On note (1.5) lgalit suivante :

    i N, P(jN

    kj

    {|Yk Y| < i}) = 1 (1.5)

    Lquivalence entre (1.3) et (1.4) est vidente par passage au complmentaire. Vrifions lqui-valence entre (1.3) et la condition ncessiare et suffisante (1.5) de convergence presque sre. Ilest clair que (1.3) implique (1.5). Pour la rciproque il suffit de remarquer que la fonction :

    t P(jN

    kj

    {Yk Y| < t})

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    7/25

    Chapitre 1. Thormes limites 7

    est croissante. En effet, si s < t, linclusion dvnements {|Yk Y| < s} {|Yk Y| < t}se propage lintersection sur k j et lunion sur j. Supposons (1.5) vraie et fixons > 0quelconque. Comme la suite (i)i1 tend vers 0, on peut trouver un i0 tel que i0 < et alors :

    1 = P(jN

    kj

    {|Yk Y| < i0) P(jN

    kj

    {|Yk Y| < }) 1

    do (1.3).Soit (Ak)kN une suite dvnements. On sintresse lvnement :

    A :=jN

    kj

    Ak

    = { , j N, k j, Ak}= {ralisation dun infinit de Ak}

    Lemme 1.5 (Borel-Cantelli I). Si (An)nN est une suite dvnements telle que :

    nNP(An) < +alors P(A) = 0.

    A = {ralisation dune infinit de Ak}=

    jN

    kj

    Ak

    Dmonstration. Soit :Cj :=

    kj

    Ak

    Cj A (Cj+1 Cj, j) car :A =

    jN

    Cj

    Par continuit dcroissante de P :

    P(Cj) P(A) (j +)On a ainsi :

    P(Cj) = P(kj

    Ak) kj

    P(Ak) =: rj

    rj est le reste dordre j de la srie convergente

    k=0 P(Ak) donc rj j 0.

    0 P(Cj) rj j+

    0

    do P(Cj) j

    0 donc P(A) = 0.

    Lemme 1.6 (Borel-Cantelli II). Si(An)nN est une suite dvnements indpendants tels que :nN

    P(An) = +

    alors P({realisation dune infinit de Ak}) = 1

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    8/25

    8 Chapitre 1. Thormes limites

    Proposition 1.7 (Condition suffisante de convergence presque sre). (Yn)nN, Y variablesalatoires sur (, F, P) telles que :

    > 0,+n=0

    P(|Yn Y| < ) < + (1.6)

    alors : Yn

    p.s

    nY

    Remarque 1.8. Si (Yn) vrifie (1.6) , on dit quelle converge presque-compltement vers Y.

    Dmonstration. Il suffit de vrifier (1.7) :

    > 0, P(jN

    kj

    {|Yk Y| }) = 0 (1.7)

    ou encore : > 0, P(ralisation dune infinit de {|Yk Y| > }) = 0

    On applique alors le lemme 1.5 (dit de Borel-Cantelli I) avec An = {|Yn Y| }.Dfinition 1.9 (Convergence en probabilit). Soit (Yn)nN, Y variables alatoires. On dit que(Yn)nN converge en probabilit vers Y (Yn

    Prn Y) si :

    > 0, P(|Yn Y| ) n 0

    Proposition 1.10. La convergence presque sre implique la convergence en probabilits.

    Dmonstration. On fixe > 0, lhypothse Ynp.s

    n+ Y signifie que :

    := { , Yn() n

    +

    Yn}

    a pour probabilit 1.

    = { , k0 = k0(), n k0, |Yn() Y()| < }On a ainsi : P(()) = 1. On dfinit lvnement :

    Ak :=nk

    {|Yn Y| < }

    :=kN

    Ak

    k N, Ak Ak+1 et donc que (Ak)kN est une suite croissante vers (Ak ) P(Ak) P() = 1, cest--dire :

    > 0, k1 N, k k1, P(Ak) > 1 n k, Ak {|Yn Y| < }

    et :1 < P(Ak) P(|Yn Y| < )

    On a donc :

    > 0,

    k1

    N,

    n

    k1, P(

    |Yn

    Y

    |< ) < 1

    Si on passe au complmentaire, on a bien ce quon devait dmontrer.

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    9/25

    Chapitre 1. Thormes limites 9

    Contre-Exemple 1.11. La convergence en probabilit nimplique pas la convergence presque-sre. Voici un contre exemple. On prend comme espace probabilis ([0, 1], Bor([0, 1]), )n o est la restriction [0, 1] de la mesure de Lesbegue sur R. On dfinit sur cet espace les Yn commesuit :

    n N, 0 k 2n, Y2n+k = 1[k/2n,(k+1)/2n]On peut facilement se convaincre de deux choses :

    1) Pour tout ]0, 1], la suite des bits (Yn())n1 est forme dune infinit de 0 et duneinfinit de 1. Elle ne peut donc converger (sa limite infrieure vaut 0 et sa limite suprieure1). Ainsi non seulement on na pas de convergence presque sre de Yn mais en plus Yn()ne converge pour aucun .

    2) Pour 0 < < 1, P(|Yn 0| > ) = P(Yn = 1) = (In), en notant In lintervalle dyadiquedont Yn est lindicatrice. La longueur (In) de cet intervalle tend vers zro quand n tendvers linfini ( la mme vitesse que linverse du logarithme en base deux de n). Donc Ynconverge vers 0 en probabilit.

    Proposition 1.12. SiYnPr

    n+

    Y alors il existe une sous-suite (Yni)iN tel que Yni

    p.s

    i+

    Y.

    Dmonstration. i 0 (par exemple i = 2i). Pour i 1 fix, P(|Yn Y| ) n+ 0, ni

    tel que :

    P(|Yni Y| ) 1

    i2

    On peut sarranger pour que la suite dindices (ni)i1 soit strictement croissante. Soit > 0fix :

    i0 = i0() tel que i i0, i > i i0 :

    P(|Yn Y| ) P(|Yni Y| i) 1

    i2

    Donc :+i=i0

    P(|Yni Yn| ) +i=i0

    1

    i2< +

    Donc :+i=1

    P(|Yni Yn| ) < + (vrai > 0)

    Donc (Yni) converge presque compltement vers Y (Ynp.coi

    Y) donc Ynip.s

    i+Y.

    1.1.2 Convergence en moyenne dordre p

    Dfinition 1.13. Soit p [1, +[, on suppose que n, E |Yn|p < +, on dit que (Yn)n1converge vers Y en moyenne dordre p ou au sens Lp si :

    E |Yn Y|p n+ 0

    Notation. YnLp

    n+ Y

    Proposition 1.14. Si YnLp

    n

    Y alors YnPr

    n

    Y.

    Dmonstration. On applique Markov lordre p pour Zn = |Yn Y|p.

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    10/25

    10 Chapitre 1. Thormes limites

    Rappel. Si X est une variable alatoire positive :

    t R+, P(X > t) 1tEX

    P(|Yn Y| ) = P(|Yn Y|p p)

    E

    (|Yn Y|p

    )p fix

    n+ 0

    Vrai pour tout > 0. Donc YnPr

    n Y.

    Proposition 1.15. Si 1 p r et si Yn Lr

    n+ Y alors YnLp

    n Y.

    Dmonstration. On pose Zn = |Y Yn|. On veut montrer que :E(Zrn) n+ 0 E(Z

    pn) n 0

    EZpn = +0 P(Zpn > t)dt=10

    P(Zpn > t)dt ++1

    P(Zpn > t)dt

    x 1, xp xr pour p r. Si t 1 alors lvnement {Zpn > t} {Zrn > t} (car si Zn()p > talors Zn() > t

    1/p > 1 donc Zn()p > Zn()

    r). Donc :

    EZpn =10

    P(Zpn > t)dt ++1

    P(Zrn > t)dt +

    0P(Zrn>t)dt=EZ

    rn0

    Comme YnLr

    n Y YnPr

    n Y ZnPr

    n+ 0. On se fixe ]0, 1[ :10

    P(Zpn > t)dt =0

    P(Zpn > t)dt +1

    P(Zpn > t)dt

    t [, 1], P(Zpn > t) P(Zpn > ) = P(Zn > 1/p)1

    P(Zpn > t) =1

    P(Zn > 1/p)dt

    = (1 )P(Zn 1/p)

    0P(Zpn > t) 1

    dt

    EZpn + P(Zn 1/p) 0

    +E(Zrn) 0

    + + 3On a ainsi montrer :

    ]0, 1[, n0 = n0(), n n0, E(Zpn) 3Donc :

    E(Zpn)n

    0

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    11/25

    Chapitre 1. Thormes limites 11

    Theorme 1.16 (Convergence domine). Sur (, F, P), (Yn)n0, Y , Z variables alatoiresrelles vrifiant :

    a) Ynp.s

    n Y

    b) n 1, P(|Yn| Z) = 1c) EZ < +Alors :

    (i) Yn et Y sont intgrables (E |Yn| < +, E |Y| < +).(ii) Yn

    L1n Y (E |Yn Y| n+ 0).

    (iii) limnEYn = EY = E

    limn Yn

    .

    Dmonstration. (i) En utilisant a, b et le lemme 1.3, on vrifie facilement lexistence dunvnement Fde probabilit 1 tel que :

    , n 1, |Yn()| Z() et |Y()| Z() (1.8)On remarque que tout vnement A, P(A C) P(C), do :

    quand P() = 1, A F, P(A C) = 0 et P(A ) = P(A) (1.9)

    On en dduit de (1.8) et (1.9) que :

    t 0, P(|Yn| > t) = P({|Yn > t} ) P({Z > t}) ) = P(Z > t)

    et de mme avec Y la place de Yn. En intgrant sur R+, relativement t, on obtient

    grce 1.9 les ingalits :

    E |Yn| EZ < +, E |Y| EZ < +

    qui tablissent lintgrabilit des Yn et de Y.(ii) (iii)

    |EYn EY| E |Yn Y| n 0 par (ii)

    (ii)

    E |Yn Y| =

    0P(|Yn Y| > t)dt +

    b

    P(|Yn Y| > t)dt +

    +

    bP(|Yn Y| > t)dt

    Donc : P(|Yn Y| > t) P(2Z > t) car |Yn Y| |Yn| + |Y| Z+ Z :+b

    P(|Yn Y| > t)dt 0

    P(2Z > t)dt

    Or : E(2Z) < + donc : +0

    P(2Z > t)dt < +

    b ]0, +[ (on peut prendre b > ) tel que+b P(2Z > t)dt < . Avec ce choix de b :

    +b

    P(|Yn Y| > t)dt <

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    12/25

    12 Chapitre 1. Thormes limites

    0

    P(|Yn Y| > t)dt 0

    1dt =

    Le reste estb P(|Yn Y| > t)dt. Par (a), on a Yn Prn Y :

    t [, b], P(|Yn Y| > t) P(|Yn Y| > )

    b

    P(|Yn Y| > t)dt b

    P(|Yn Y| > )dt =(b)P(|YnY|>)

    b P(|Yn Y| > ) n

    0

    pour n n0n n0 = n0() :

    E |Yn Y| =

    +

    0P(|Yn Y| > t)dt 3 ( > 0)

    1.2 Loi faible des grands nombres [IPE 2008-2009]

    Proposition 1.17 (Ingalit Bienaym-Tchebycheff). Si les Xk (variables alatoires) sont decarr intgrables et deux deux non corrles :

    t > 0, Pn

    k=1

    (Xk EXk) t

    1

    t2

    nk=1

    Var Xk (1.10)

    Dmonstration. Il suffit dcrire :

    P(|Sn ESn| t) = P(|Sn ESn|2 t2) 1t2E(Sn ESn)2 = 1

    t2Var Sn (1.11)

    o lingalit dans (1.11) est lingalit de Markov applique la variable alatoire positive|Sn ESn|2. On conclut avec :

    Var Sn =n

    k=1

    Var Xk (1.12)

    Theorme 1.18 (Loi faible des grands nombres). Si les Xk ont mme loi, de carr intgrableset deux deux non corrles, on a la convergence en probabilit :

    1

    n

    nk=1

    XkPr

    n+ EX1 (1.13)

    Dmonstration. Comme les Xk ont mme loi, on a pour tout k les galits EXk = EX1et Var Xk = Var X1. Comme elles sont aussi deux deux non corrles, (1.12) nous donneVar Sn = n Var X1. Par linarit de lesprance, on a aussi : ESn = nEX1. Lingalit deBienaym-Tchebycheff nous dit alors :

    t > 0, P(|Sn ESn| t) = P(|Sn nEX1| t) n Var X1t2

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    13/25

    Chapitre 1. Thormes limites 13

    En posant t = n, on en dduit :

    > 0, n N, P(|Sn nEX1| n) = PSnn EX1

    n Var X1n22

    =Var X1

    n2

    Pour tout > 0 fix, on a ainsi :

    PSnn EX1 Var X1n2 n+ 0ce qui tablit la convergence en probabilit de la suite de variables alatoires Sn

    nvers la variable

    alatoire constante EX1.

    1.3 Loi forte des grands nombres [IPE 2008-2009]

    Dans le cadre de ce cours, nous limiterons notre tude de lois fortes des grands nombresau cas o Xk sont indpendaments identiquement distribues, cest--dire indpendantes et demme loi.

    Theorme 1.19 (Loi forte des grands nombres de Khintchine). On suppose les Xk indpen-dantes, de mme loi etE |X1| < +. Alors :

    1

    n

    nk=1

    Xkp.s

    n EX1 (1.14)

    Ce rsultat est le meilleur possible en raison du thorme suivant.

    Theorme 1.20 (Rciproque de la loi forte des grands nombres de Khintchine). Soit (Xk)k1une suite de variables alatoires indpendantes et de mme loi telle que Sn

    nconverge presque

    srement. Alors E|X

    1|< +

    et la limite presque sre de Sn

    nest la constante EX

    1.

    La dmonstration de ces deux thormes sort du cadre du cours. On se contentera de prouverle thorme 1.19 sous lhypothse plus restrictive E(X21 ) < +.Dmonstration ((1.14) pour des Xk indpendantes identiquement distribues de carr intgrables).Puisque les Xk ont mme loi, elles sont intgrables comme X1 et de mme esprance. On endduit que Sn et

    Snn

    sont intgrables et que par linarit de lesprance :

    E

    Snn

    =

    1

    nESn =

    1

    n(nEX1) = EX1

    Posons :Xk := Xk EXk, Sn :=

    nk=1

    Xk = Sn nEX1

    Alors :Snn

    =Snn

    EX1donc la convergence presque sre de Sn

    nvers EX1 quivaut la convergence presque sre de

    Snn

    vers 0 (noter aussi que les Xk sont indpendants identiquement distribues, proprit hritedes Xk). On ne perd donc pas de gnralit en supposant dsormais (pour le confort dcriture)que EX1 = 0. On a alors Var X1 = E(X

    21 ) =:

    2 et il sagit maintenant de prouver que :

    Mn := 1n

    Snp.s

    n 0 (1.15)

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    14/25

    14 Chapitre 1. Thormes limites

    On montre dans un premier temps que la sous-suite (Mn2)n1 converge presque srement vers0. En effet, lingalit de Bienaym-Tchebycheff nous donne pour tout > 0 :

    P(|Mn2| ) = P(|Sn2| n2) Var(Sn2)

    2n4=

    n2 Var X12n4

    =2

    2n2

    On en dduit que :

    > 0,+n=1

    P(|Mn2| ) 2

    2

    +n=1

    1

    n2 < +Ce qui implique par la proposition 1.9 :

    Mn2p.s

    n 0 (1.16)

    Pour tout n N, on note r(n) la partie entire de n, ce qui nous donne lencadrement :r(n)2 n (r(n) + 1)2 (1.17)

    La suite dentiers (r(n))n1 tend vers linfini comme

    n, mais avec des blocs de valeurs rptesde plus en plus longs :

    r(n) = 4 pour n [16, 24[r(n) = 5 pour n [25, 35[

    Pour cette raison, (Mr(n)2)n1 nest pas proprement parler une sous-suite de (Mn)n1. On vananmoins voir que lon peut raccorcher le comportement asymptotique de (Mn)n1 celui de(Mr(n)2)n1 en commenant par crire :

    Mn =1

    n 1jr(n)2Xj +

    1

    n r(n)

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    15/25

    Chapitre 1. Thormes limites 15

    En reportant cette majoration dans (1.18) et en utilisant lingalit de Markov avec momentdordre 2 (noter que ETn = 0), on obtient :

    > 0, P(|Tn| > ) Var Tn2

    32

    21

    n3/2

    Ce majorant tant le terme gnral dune srie convergeante, on en dduit par une nouvelle

    application de la proposition 1.9 :Tn

    p.sn 0 (1.19)

    Pour conclure, on crit :

    Mn = Tn +r(n)2

    nMr(n)2

    Comme r(n)2

    nest toujours dans [0, 1], on en dduit avec (1.16) et (1.19) que Mn converge presque

    srement vers zro.2

    Lapplication la plus simple et aussi une des plus importantes du thorme 1.19 est la conver-gence des frquences de succs dans une suite dpreuves rptes de Bernouilli indpendantes.

    Ce rsultat explique a posterori lapproche frquentiste dans la dfinition dune probabilit.En effet, si (Xk)k1 est une suite de variables alatoires de Bernouilli indpendantes et de mmeparamtre p, le thorme 1.19 nous donne la convergence presque sre de Sn

    nvers EX1 = p.

    Soit maintenant A Fun vnement et (Ak)k1 comme suite dvnements indpendants demme probabilit que A. En prenant Xk = 1Ak et en notant que E1Ak = P(Ak) = P(A), onobtient :

    1

    n

    nk=1

    Ak p.sn P(A)

    Par exemple, si A est lvnement : obtention du cinq lors du lancer dun d quilibr , cecinous dit que la frquence dobtention du cinq en n lancers convrege presque srement vers 1

    6

    lorsque n tend vers linfini.

    1.4 Aiguille de Buffon [IPE 2008-2009]

    Voir M306 Section 2.3.4., Exemple 2.2.3. 2) pour une prsentation du problme.

    On effectue une suite de lancers de laiguille et on note Ei lvnement lors du ime lancer,laiguille intersecte une des droites du rseau . On pose Xi = 1Ei et :

    Fn :=1

    n

    n

    i=1Xi

    Les Xi sont des variables alatoires de Bernouilli de paramtre p = P(Ei) = P(E). Elles sontclairement intgrables, puisuqe bornes. Les Ei forment une suite dvnements mutuellementindpendants et de mme probabilit p. Il en rsulte que les Xi forment une suite de variablesalatoires indpendants et de mme loi Bern(p). Par la loi forte des grands nombres pour desvariables indpendantes identiquement distribues et intgrables :

    Fn :=1

    n

    ni=1

    Xip.s

    n EX1 = P(E)

    2Noter que les suites (Mr(n)2)n1 et (Mn2)n1 ne sont pas les mmes : la premire a des squences conscutifs

    de plus en plus longues et cest en effaant ces rptitions que lon retrouve la deuxime. On voit ainsi que cesdeux suites ont la mme limite.

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    16/25

    16 Chapitre 1. Thormes limites

    Compte-tenu du calcul de P(E), on peut rcrire ce rsultat sous la forme :

    2l

    aFn

    p.sn

    Linterprtation physique est la suivante. Si on ralise une srie de lancers avec n grand, lavaleur Fn() observe nous fournira lapproximation :

    2l

    aFn()

    On considre ainsi quil est physiquement impossible dobserver un appartenant pas lv-nement de probabilit 1 : {Fn converge vers p}.

    On ralise 1200 lancers en prenant comme paramtre l = a = 4, 5 cm et p = 2

    . La tablesuivante prsente les frquences observs F10k pour k = 1, ..., 120.

    Cette exprience permet de proposer lestimation suivante :

    20, 627

    3, 1898

    Bien entendu, cette mthode pour calculer nest pas trs performante. On peut montrer quesa vitesse de convergence est en O(n1/2). Son intrt est essentiellement dordre culturel et

    historique.

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    17/25

    Chapitre 2

    Approximation gausienne de la loibinomiale [ICP 2007-2008]

    2.1 IntroductionOn connait dj lapproximation dune loi binomiale Bin(n, p) par une loi de Poisson Pois()

    avec = np lorsque n est grand et np petit . On tudie dans ce chapitre une approxima-tion utilisable lorsque np peut tre considr comme petit . Le rsultat thorique qui justifiecette approximation est le thorme de De Moivre-Laplace qui est lui-mme un cas particulierdu thorme central limite. Ce dernier est, avec la loi des grands nombres, certainement le plusimportant thorme du calcul des probabilits. Lapproximation qui nous intresse fait rune fa-mille de fonctions appeles densits gausiennes (ou normales) lis la clbre courbe en clochede Gauss.

    2.2 Courbe en cloche de Gauss

    Dfinition 2.1. Soit m R et ]0, +[. On appelle densit gausienne ou normale fm, surR la fonction :

    fm, : R R+

    t 1

    2 exp(t

    m)2

    22 La fonction f0,1 est appele densit normale ou gausienne standard.

    Dans cette famille de fonctions, m est un paramtre de localisation ou de position (cest lavaleur o fm, atteint son maximum). Le paramtre est un paramtre dchelle, il caractriselaplatissement de la courbe. Les courbes reprsentatives Cm, de ces fonctions se dduisenttoutes de la courbe C0,1 par translations et changements dchelle. On passe de C0,1 Cm, par

    la transformation : (x, y) x + m,

    y

    et de Cm, C0,1 par (x, y) xm

    , y.La courbe C0,1 est trs populaire sous le nom de courbe en cloche de Gauss.

    17

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    18/25

    18 Chapitre 2. Approximation gausienne de la loi binomiale [ICP 2007-2008]

    Bien que f0,1(t) soit strictement positif pour tout rel t, la densit f0,1 semble tre support

    dans [4, 4]. Cela provient de la dcroissance rapide de exp t2

    2

    quand t tend vers + et des

    limites de rsolution du dessin.

    Linfluence des paramtres m et est illustre par les figures suivantes :

    Influence de m

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    19/25

    Chapitre 2. Approximation gausienne de la loi binomiale [ICP 2007-2008] 19

    Influence de

    Une proprit importante de C0,1 est que laire quelle dlimite avec laxe des abscisses vaut1 : +

    12

    exp

    t

    2

    2

    dt = 1 (2.1)

    Exercice 2.2 (Un calcul dintgrale).

    1) Montrer la convergence de lintgrale gnralise :

    I =+0

    exp

    x

    2

    2

    dx

    2) Vrifier que :

    I2 =+0

    +0

    exp

    x

    2 + y2

    2

    dxdy

    3) Calculer cette intgrale double en passant par les coordonnes polaires.

    4) En dduire que : +

    12

    expx2

    2

    dx = 1

    Lexercice 2.2 prsente une dmonstration de cette relation. Les autres fonctions fm, ontaussi une intgrale gnralise sur R qui vaut 1. Pour le voir, soient a < b deux rels quelconques.Par le changement de variable, u = (tm)

    :

    ba

    1

    2exp

    (t m)

    2

    22

    dt =

    ba

    12

    exp

    u

    2

    2

    du (2.2)

    o les nouvelles bornes sont :

    a = a m

    et b = b m

  • 8/8/2019 M314 : Initiation la statistique (chapitres d'introduction)

    20/25

    20 Chapitre 2. Approximation gausienne de la loi binomiale [ICP 2007-2008]

    Lorsque a et b tendent respectivement vers et +, il en est de mme pour a et b. Onen dduit : +

    1

    2exp

    (t m)

    2

    22

    dt =

    +

    1

    2exp

    u

    2

    2

    du = 1

    Laire dlimite par Cm, laxe des abscisses et les droites dquations t = a et t = b joue un rleimportant dans lapproximation des probabilits binomiales P(a Sn b). Par changementde variables, le calcul de cette aire se ramne celui de laire correspondante pour C0,1 avec aet b la place de a et b. Elle peut donc scrire sous la forme (b) (a) o la fonction est dfinie par :

    x R, (x) =x

    12

    exp

    t

    2

    2

    dt (2.3)

    Cette intgrale peut sexprimer laide des fonctions usuelles. On peut en calculer une valeurapproche avec toute prcision souhaite. La figure suivante reprsente le graphe de .

    Rappel. La table 2.1 la page 21 donne les valeurs de (x).

    Lemme 2.3. Pour tout x > 0, on a lencadrement :

    1

    x 1

    x312

    exp

    x

    2

    2

    A

    1 (x) B