Équivalence asymptotique entre une expérience associée à un processus de...
Post on 26-Jan-2021
0 Views
Preview:
TRANSCRIPT
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique entre une expérienceassociée à un processus de Lévy à sauts purs et
un bruit blanc gaussien.
Ester Mariucci
Institut für Mathematik, Humboldt-Universität zu Berlin
Université de Strasbourg, 1 décembre 2015
1 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Table des matières
1 Comparaison des expériences statistiquesDistance entre modèles statistiquesComment majorer la distance de Le CamExemples
2 Équivalence asymptotique dans des modèles à sautsIntroductionDé�nition des expériencesRésultats principauxLes grandes lignes de la preuveÉquivalence asymptotique pour des modèles à densité
3 Conclusions et perspectives
2 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
La dé�cience
Un statisticien dispose de plusieurs expériences pour estimer uncertain paramètre θ. Comment les comparer ?
Expérience 1 : E1 =(X1, T1, (P1,θ : θ ∈ Θ)
),
Expérience 2 : E2 =(X2, T2, (P2,θ : θ ∈ Θ)
).
Dé�nition
La dé�cience (le défaut) de E1 par rapport à E2 est dé�nie par
δ(E1, E2
)= inf
Ksupθ∈Θ
∥∥P2,θ −KP1,θ∥∥V Toù l'inf est pris sur l'ensemble des �transitions� K possibles.
Rappel : ‖µ1 − µ2‖V T = supA |µ1(A)− µ2(A)| = 12L1(µ1, µ2).Remarque : en particulier, les noyaux de Markov sont destransitions.
3 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
La dé�cience
Un statisticien dispose de plusieurs expériences pour estimer uncertain paramètre θ. Comment les comparer ?
Expérience 1 : E1 =(X1, T1, (P1,θ : θ ∈ Θ)
),
Expérience 2 : E2 =(X2, T2, (P2,θ : θ ∈ Θ)
).
Dé�nition
La dé�cience (le défaut) de E1 par rapport à E2 est dé�nie par
δ(E1, E2
)= inf
Ksupθ∈Θ
∥∥P2,θ −KP1,θ∥∥V Toù l'inf est pris sur l'ensemble des �transitions� K possibles.
Rappel : ‖µ1 − µ2‖V T = supA |µ1(A)− µ2(A)| = 12L1(µ1, µ2).Remarque : en particulier, les noyaux de Markov sont destransitions.
3 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
Distance de Le Cam
Dé�nition
La distance de Le Cam entre E1 et E2 est dé�nie comme
∆(E1, E2
)= max
(δ(E1, E2
), δ(E2, E1
)).
Les expériences E1 et E2 sont dites équivalentes si∆(E1, E2) = 0. Deux suites d'expériences En1 , En2 sontasymptotiquement équivalentes si lim
n→∞∆(En1 , En2 ) = 0.
Propriété : ∆ dé�nit une pseudo-métrique sur la classe detoutes les expériences ayant le même espace des paramètres.
Interprétation : ∆(E1, E2
)peut être vue comme un indicateur
numérique du coût nécessaire pour reconstruire, via destransitions, l'expérience E2 à partir de l'expérience E1 et viceversa.
4 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
Distance de Le Cam
Dé�nition
La distance de Le Cam entre E1 et E2 est dé�nie comme
∆(E1, E2
)= max
(δ(E1, E2
), δ(E2, E1
)).
Les expériences E1 et E2 sont dites équivalentes si∆(E1, E2) = 0. Deux suites d'expériences En1 , En2 sontasymptotiquement équivalentes si lim
n→∞∆(En1 , En2 ) = 0.
Propriété : ∆ dé�nit une pseudo-métrique sur la classe detoutes les expériences ayant le même espace des paramètres.Interprétation : ∆
(E1, E2
)peut être vue comme un indicateur
numérique du coût nécessaire pour reconstruire, via destransitions, l'expérience E2 à partir de l'expérience E1 et viceversa.
4 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
Une caractérisation de la dé�cience
Théorème (Le Cam, 1986)
Soit ε > 0 �xé. On a que δ(E1, E2) ≤ ε si et seulement si : pourtoute fonction de perte L bornée et pour toute règle de décisionπ2 dans E2, il existe une règle de décision π1 dans E1 telle que
Rθ(E1, π1, L) ≤ Rθ(E2, π2, L) + ε, ∀θ ∈ Θ.
Rappel : le risque est
Rθ(E , π, L) =∫ (∫
L(θ, z)π(y, dz)
)Pθ(dy).
5 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Distance entre modèles statistiques
Équivalences asymptotiques
En1 =(X1,n, T1,n,
(P f1,n : f ∈ F
)),
En2 =(X2,n, T2,n,
(P f2,n : f ∈ F
)).
Si deux suites d'expériences (En1 )n∈N et (En2 )n∈N sontasymptotiquement équivalentes au sens de Le Cam :
∆(En1 , En2 )→ 0,
alors les propriétés asymptotiques des procédures d'estimationsont identiques pour ces expériences=⇒ il su�t de choisir la suite d'expériences la plus simplelorsque l'on étudie ces propriétés.
6 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Comment majorer la distance de Le Cam
Distance ∆0
Soient Ej = (X , T , (Pj,θ : θ ∈ Θ)), j = 1, 2, deux modèlesstatistiques et dé�nissons
∆0(E1, E2) := supθ∈Θ‖P1,θ − P2,θ‖V T .
Propriété
∆(E1, E2) ≤ ∆0(E1, E2).
=⇒ On peut majorer la distance de Le Cam entre expériencesayant le même espace des échantillons en utilisant desmajorations classiques pour la distance en variation totale.
7 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Comment majorer la distance de Le Cam
Statistiques exhaustives
Soit E1 = (X1, T1, (P1,θ : θ ∈ Θ)) un modèle statistique dominépar la mesure µ. Soit S : (X1, T1)→ (X2, T2) une v.a.
S est dite statistique exhaustive si pour toute v.a.bornée Y sur X1 il existe une version de l'espéranceconditionnelle Eθ[Y |S] qui ne dépend pas de θ et dé�nieµ-p.p.
Propriété (Le Cam, 1986)
Soient Ei = (Xi, Ti, (Pi,θ : θ ∈ Θ)), i = 1, 2, deux modèlesstatistiques. Soit S : X1 → X2 une statistique exhaustive telleque la loi de S sous P1,θ est égale à P2,θ. Alors ∆(E1, E2) = 0.
8 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Exemples
Résultat de Brown et Low (1996)
1 Modèle de régression non paramétrique.
Yi = f( in
)+ σ
( in
)εi, (εi)1≤i≤n i.i.d. N (0, 1)
Pn =(Rn,B(Rn), (Pnf : f ∈ F )
), Pnf loi de (Y1, . . . , Yn).
2 Modèle de bruit blanc gaussien.
dyt = f(t)dt+σ(t)√ndWt, t ∈ [0, 1] (Wt) m.B.s.
Qn =(C, C, (Qnf : f ∈ F )
), Qnf loi de (yt)t∈[0,1].
Résultat : sous certaines hypothèses sur F , ∆(Pn,Qn)→ 0.
L. D. Brown, M. G. Low, Asymptotic equivalence of nonparametric re-gression and white noise. Ann. Statist. 24 (6) (1996) 2384�2398.
9 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Exemples
Résultat de Nussbaum (1996)
1 Modèle d'estimation de densité.
(Yi)1≤i≤n v.a. i.i.d. de densité f : [0, 1]→ R.
Pn = (Rn,B(Rn), (Pnf : f ∈ F )), Pnf loi de (Y1, . . . , Yn).
2 Modèle de bruit blanc gaussien.
dyt =√f(t)dt+
1
2√ndWt, t ∈ [0, 1], (Wt) m.B.s.
Qn =(C, C, (Qnf : f ∈ F )
), Qnf loi de (yt)t∈[0,1].
Résultat : si F = {f : f ≥ ε, |f(x)− f(y)| ≤M |x− y|γ}, lesmodèles Pn et Qn sont asymptotiquement équivalents.
M. Nussbaum, Asymptotic equivalence of density estimation and Gaus-sian white noise. Ann. Statist. 24 (6) (1996) 2399�2430.
10 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Exemples
Bibliographie non exhaustive
Résultats d'équivalence asymptotique dans un contexte nonparamétrique :
Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;
Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;
Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;
Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).
11 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Exemples
Bibliographie non exhaustive
Résultats d'équivalence asymptotique dans un contexte nonparamétrique :
Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;
Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;
Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;
Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).
11 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Exemples
Bibliographie non exhaustive
Résultats d'équivalence asymptotique dans un contexte nonparamétrique :
Régression non paramétrique (Brown et Low 1996 ; Gramaet Nussbaum 1998, 2002 ; Grama et Neumann 2006 ; Carter2006, 2009 ; Reiss 2008 ; Meister et Reiss 2013,Schmidt-Hieber 2014) ;
Modèles à densité (Nussbaum 1996 ; Carter 2002 ; Brown,Carter, Low et Zhang 2004 ; M. 2015) ;
Modèles de di�usion (Milstein et Nussbaum 1998 ; Delattreet Ho�mann, 2002 ; Genon-Catalot, Larédo et Nussbaum,2002 ; Dalalyan et Reiss 2006, 2007 ; Reiss 2011,Genon-Catalot et Larédo 2014, M. 2015) ;
Modèles de processus à sauts (Grama et Nussbaum 2002 ;M. 2015).
11 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Processus de Lévy
Un processus de Lévy est un processus stochastique àaccroissements stationnaires et indépendants, à trajectoiresp.s. càdlàg.
Les processus de Lévy sont un outil fondamental pourmodéliser des situations où des changements soudainspeuvent se produire.
Ils sont largement utilisés en �nance mais aussi dansd'autres domaine comme, par exemple, lestélécommunications, la statistiques des valeurs extrêmes, lamécanique quantique et la biologie.
Les processus de Lévy à sauts purs ont été suggérés etlargement étudiés pour la modélisation des rendements desactifs.
12 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Processus de Lévy à sauts purs (à variation �nie)
Xt =∑
0 0,
La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .
La mesure de Lévy
ν(A) =
∫Af(x)dx =
1
tE[ ∑
0 0
est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.
13 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Processus de Lévy à sauts purs (à variation �nie)
Xt =∑
0 0,
La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .
La mesure de Lévy
ν(A) =
∫Af(x)dx =
1
tE[ ∑
0 0
est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.
13 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Processus de Lévy à sauts purs (à variation �nie)
Xt =∑
0 0,
La dynamique des sauts d'un processus de Lévy estentièrement dictée par sa densité de Lévy, notée f .
La mesure de Lévy
ν(A) =
∫Af(x)dx =
1
tE[ ∑
0 0
est le nombre moyen des sauts (par unités de temps) dontl'amplitude appartient au borélien A.
13 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Le problème
Supposons que l'on observe {Xt}t≥0 à des instants équidistants0 = t0 < · · · < tn = Tn →∞ tels que
∆n =Tnn↓ 0 lorsque n→∞.
Problème : comment estimer la densité de Lévy f à partir desobservations discrètes (Xti)
ni=0 ?
Deux questions se posent :1 Peut-on construire un modèle plus simple d'un point de vue
mathématique, mais équivalent du point de vue del'information sur f(·), à partir de l'observation de (Xti)ni=1 ?
2 Quelle quantité d'information sur f(·) perdons-nous enobservant (Xti)
ni=0 à la place de {Xt}t∈[0,Tn] ?
14 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Introduction
Le problème
Supposons que l'on observe {Xt}t≥0 à des instants équidistants0 = t0 < · · · < tn = Tn →∞ tels que
∆n =Tnn↓ 0 lorsque n→∞.
Problème : comment estimer la densité de Lévy f à partir desobservations discrètes (Xti)
ni=0 ?
Deux questions se posent :1 Peut-on construire un modèle plus simple d'un point de vue
mathématique, mais équivalent du point de vue del'information sur f(·), à partir de l'observation de (Xti)ni=1 ?
2 Quelle quantité d'information sur f(·) perdons-nous enobservant (Xti)
ni=0 à la place de {Xt}t∈[0,Tn] ?
14 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Dé�nition des expériences
Soit X un processus de Lévy à sauts purs de mesure de Lévyν � ν0, ν0 mesure de Lévy �xée, à support sur I ⊆ R etéventuellement in�nie. On notera f = dνdν0 .
P fTn : loi du processus {Xt}t∈[0,Tn] sur (D,D),Qfn : loi du vecteur (Xt0 , . . . , Xtn) sur (Rn+1,B(Rn+1)),Wfn : loi induite sur (C, C) par
dyt =√f(t)dt+
dWt
2√Tn√g(t)
, g =dν0dx
, t ∈ I.
Les modèles statistiques considérés sont :
Pν0n =(D,D , {P fTn : f ∈ F}
),
Qν0n =(Rn+1,B(Rn+1), {Qfn : f ∈ F}
),
W ν0n =(C, C, {Wfn : f ∈ F}
).
15 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Dé�nition des expériences
Soit X un processus de Lévy à sauts purs de mesure de Lévyν � ν0, ν0 mesure de Lévy �xée, à support sur I ⊆ R etéventuellement in�nie. On notera f = dνdν0 .
P fTn : loi du processus {Xt}t∈[0,Tn] sur (D,D),Qfn : loi du vecteur (Xt0 , . . . , Xtn) sur (Rn+1,B(Rn+1)),Wfn : loi induite sur (C, C) par
dyt =√f(t)dt+
dWt
2√Tn√g(t)
, g =dν0dx
, t ∈ I.
Les modèles statistiques considérés sont :
Pν0n =(D,D , {P fTn : f ∈ F}
),
Qν0n =(Rn+1,B(Rn+1), {Qfn : f ∈ F}
),
W ν0n =(C, C, {Wfn : f ∈ F}
).
15 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Espace des paramètres F
Soit f ∈ F une classe de densités de Lévy par rapport à ν0.(H1) ∃κ,M > 0 : κ ≤ f(y) ≤M , ∀y ∈ I, ∀f ∈ F .
(H2) limn→∞
Tn supf∈F
∫I\(−εmn ,εmn )
(√f −
√f̂mn
)2dν0 = 0,
(H3) limn→∞
Tn supf∈F
(A2mn(f) +B
2mn(f) + nC
2mn(f)
)= 0,
pour certaines suites εmn → 0 et mn →∞ quand n→∞. Ici
f̂m(x) =
m∑j=1
Vj(x)
∫Jj
f(s)ν0(ds); f̂m(x∗j ) =
1
µm
∫Jj
f(s)ν0(ds);
Jj
x∗j0 εmn
ν0(Jj) = µm
x∗j =
∫Jjxν0(dx)
µm
I
16 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Espace des paramètres
Pour tout m = mn, on a :
A2m(f) :=
∫I\[−εm,εm
] (√̂fm(y)−√f(y))2ν0(dy),B2m(f) :=
∑j=−m...,mj 6=−1,0,1.
(∫Jj
√f(y)√ν0(Jj)
ν0(dy)−√ν(Jj)
)2,
C2m(f) :=
∫ εm−εm
(√f(t)− 1
)2ν0(dt).
17 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Exemples
Soient γ ∈ (0, 1] et K,κ,M > 0 et soit
F ⊆{f : κ ≤ f(x) ≤M, |f ′(x)−f ′(y)| ≤ K|x−y|γ , ∀x, y ∈ I
}.
1. Le cas ν0 �nie : ν0 ≡ Leb([0, 1]).√∫ 10
(√f −
√f̂m
)2dν0 +Am(f)+Bm(f) = O
(m−γ−1 +m−
32
),
uniformément sur f .
18 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Dé�nition des expériences
Exemples
F ⊆{f : κ ≤ f(x) ≤M, |f ′(x)−f ′(y)| ≤ K|x−y|γ , ∀x, y ∈ I
}.
2. Le cas ν0 à variation �nie :dν0dx (x) = x
−1I[0,1](x).Choisissons εm = 1m , µm =
lnmm−1 et maxj |vj−1 − vj | = O
(lnmm
).
∫ 1εm
(√f(x)−
√f̂m(x)
)2ν0(dx)+Am(f)+Bm(f) = O
(( lnmm
)γ+1),
uniformément sur f . Cm(f) dépend du comportement de fproche de 0.
(Ex : f(x) = e−λx2avec un λ uniformément majoré).
19 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Résultats principaux
Théorème (M., 2015)
Soit m = mn une suite véri�ant les Hypothèses (H1), (H2) et(H3) et εm → 0, m→∞. Pour n assez grand on a :
∆(Qν0n ,Wν0n ) = O
(ν0
(I \ [−εm, εm]
)√n∆2n +
m lnm√n
+√n∆n sup
f∈F
(Am(f) +Bm(f) + L2(f, f̂m)
)+√n√
∆n supf∈F
Cm(f)
).
∆(Pν0n ,Wν0n ) = O
(√n∆n sup
f∈F
(Am(f) +Bm(f) +H(f, f̂m)
)+
√m2
n∆nν0(I \ [−εm, εm])
).
E. Mariucci, Asymptotic equivalence for pure jump Lévy processes withunknown Lévy density and Gaussian white noise. À paraître dans S.P.A. 20 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Résultats principaux
Remarques
Le résultat précédent reste vrai même dans le cas d'unemesure de Lévy ν0 à variation in�nie. Dans ce cas, (Xt)sera un processus de Lévy à sauts purs de fonctioncaractéristique donnée par :
E[eiuXt
]= exp
(−t(∫
I(1−eiuy)ν(dy)+
∫II|y|≤1yν0(dy)
)).
La majoration de la distance ∆(Qν0n ,Wν0n ) reste valable
sous des hypothèses plus faibles sur f .
21 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Résultats principaux
Le cas d'un processus de Poisson composé
Pn : Xt =Nt∑i=1
Yi, t ∈ [0, Tn], densité de Lévy f : [0, 1]→ R;
Qn : (Xti)ni=0, ti = i
Tnn, ∆n :=
Tnn−−−→n→∞
0 et Tn −−−→n→∞
∞;
Wn : dyt =√f(t)dt+
dWt
2√Tn, t ∈ [0, 1];
f ∈ F ={f : κ ≤ f(x) ≤M, |f ′(x)− f ′(y)| ≤ K|x− y|γ
}.
Résultat : les trois modèles Pn, Qn et Wn sontasymptotiquement équivalents.
22 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Résultats principaux
Majorations de la distance de Le Cam
Plus précisément nous obtenons :
∆(Pn,Wn) =
O(
(n∆n)− γ
4+2γ
)si γ ∈
(0, 12],
O(
(n∆n)− 1
10
)si γ ∈
(12 , 1].
Lorsque ∆n = n−β , 12 < β < 1, une borne supérieure pour lavitesse de convergence de ∆(Qn,Wn) est
∆(Qn,Wn) =
O(n− γ+β
4+2γ lnn)
si γ ∈(0, 12)et 2+2γ3+2γ ≤ β < 1,
O(n
12−β lnn
)si γ ∈
(0, 12)et 12 < β <
2+2γ3+2γ ,
O(n−
2β+110 lnn
)si γ ∈
[12 , 1]et 34 ≤ β < 1,
O(n
12−β lnn
)si γ ∈
[12 , 1]et 12 < β <
34 .
23 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Résultats principaux
Majorations de la distance de Le Cam
Plus précisément nous obtenons :
∆(Pn,Wn) =
O(
(n∆n)− γ
4+2γ
)si γ ∈
(0, 12],
O(
(n∆n)− 1
10
)si γ ∈
(12 , 1].
Lorsque ∆n = n−β , 12 < β < 1, une borne supérieure pour lavitesse de convergence de ∆(Qn,Wn) est
∆(Qn,Wn) =
O(n− γ+β
4+2γ lnn)
si γ ∈(0, 12)et 2+2γ3+2γ ≤ β < 1,
O(n
12−β lnn
)si γ ∈
(0, 12)et 12 < β <
2+2γ3+2γ ,
O(n−
2β+110 lnn
)si γ ∈
[12 , 1]et 34 ≤ β < 1,
O(n
12−β lnn
)si γ ∈
[12 , 1]et 12 < β <
34 .
23 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xti)ni=0
∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],
dyt =√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Notation : Jj =( j−1m ,
jm ], θj =
∫Jjf(x)dx, λ =
∫ 10 f(x)dx.
Étape 1. Approximation de Bernoulli :
(Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).
Étape 2. Approximation multinomiale :
(εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ
i = 1, . . . ,m.Étape 3. Approximation gaussienne :
M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m
j=1N (2√Tnθj , 1).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
24 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xti)ni=0
∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],
dyt =√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Notation : Jj =( j−1m ,
jm ], θj =
∫Jjf(x)dx, λ =
∫ 10 f(x)dx.
Étape 1. Approximation de Bernoulli :
(Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).
Étape 2. Approximation multinomiale :
(εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ
i = 1, . . . ,m.Étape 3. Approximation gaussienne :
M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m
j=1N (2√Tnθj , 1).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
24 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xti)ni=0
∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],
dyt =√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Notation : Jj =( j−1m ,
jm ], θj =
∫Jjf(x)dx, λ =
∫ 10 f(x)dx.
Étape 1. Approximation de Bernoulli :
(Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).
Étape 2. Approximation multinomiale :
(εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ
i = 1, . . . ,m.
Étape 3. Approximation gaussienne :
M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m
j=1N (2√Tnθj , 1).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
24 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xti)ni=0
∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],
dyt =√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Notation : Jj =( j−1m ,
jm ], θj =
∫Jjf(x)dx, λ =
∫ 10 f(x)dx.
Étape 1. Approximation de Bernoulli :
(Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).
Étape 2. Approximation multinomiale :
(εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ
i = 1, . . . ,m.Étape 3. Approximation gaussienne :
M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m
j=1N (2√Tnθj , 1).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
24 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xti)ni=0
∆⇐⇒ (yt)t∈[0,1], oùX processus de Poisson composé de densité f sur [0, 1],
dyt =√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Notation : Jj =( j−1m ,
jm ], θj =
∫Jjf(x)dx, λ =
∫ 10 f(x)dx.
Étape 1. Approximation de Bernoulli :
(Xti −Xti−1)i∆⇐⇒ (εiYi)i (εi ∼ B(α) avec α = λ∆ne−λ∆n).
Étape 2. Approximation multinomiale :
(εiYi)i∆⇐⇒M(n; (γ0, γ1, . . . , γm)), avec γ0 = 1− α et γi := α θiλ
i = 1, . . . ,m.Étape 3. Approximation gaussienne :
M(n; (γ0, γ1, . . . γm))∆⇐⇒⊗m
j=1N (2√Tnθj , 1).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
24 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation de Bernoulli : étape 1
∆(
(Xti −Xti−1)i, (εiYi)i)
= O(√n∆2n) : Remarquons que
Xti −Xti−1L=∑Pi
j=1 Yj avec Pi v.a. de Poisson de moyenne
λi = λ∆n. Comme λ =∫ 1
0 f(x)dx, λi ≤M∆n pour tout i.
Lemme (M., 2015)
Soient (Pi)ni=1 v.a. indépendantes de loi Poisson de paramètre
λi, (Yi)ni=1 v.a. i.i.d. et (εi)
ni=1 v.a. indépendantes de loi
Bernoulli de paramètres αi := λie−λi . Les vecteurs (Pi)
ni=1,
(Yi)ni=1 et (εi)
ni=1 sont indépendants entre eux. Si on note par
Q(Yi,Pi) (resp. Q(Yi,εi)) la loi de∑Pi
j=1 Yj (resp. εiYi), alors
∥∥∥∥ n⊗i=1
Q(Yi,Pi) −n⊗i=1
Q(Yi,εi)
∥∥∥∥V T
≤ 2
√√√√ n∑i=1
λ2i .
25 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation multinomiale : étape 2
δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.
Z0 =
n∑j=1
I{0}(εjYj); Zi =n∑j=1
IJi(εjYj), i = 1, . . . ,m.
∆((εiYi)i, (εiŶi)i
)≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :
calcul direct de la distance en variation totale.δ(M(n; γ0, . . . , γm), (εiŶi)i
)= 0 :
L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.
M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.
On utilise le noyau :
x∗i−1 x∗i x∗i+1
mVi
K(x∗i , A) =
{IA(0) si i = 0∫A Vi(x)dx autrement.
26 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation multinomiale : étape 2
δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.
Z0 =
n∑j=1
I{0}(εjYj); Zi =n∑j=1
IJi(εjYj), i = 1, . . . ,m.
∆((εiYi)i, (εiŶi)i
)≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :
calcul direct de la distance en variation totale.
δ(M(n; γ0, . . . , γm), (εiŶi)i
)= 0 :
L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.
M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.
On utilise le noyau :
x∗i−1 x∗i x∗i+1
mVi
K(x∗i , A) =
{IA(0) si i = 0∫A Vi(x)dx autrement.
26 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation multinomiale : étape 2
δ((εiYi)i,M(n; (γ0, . . . , γm)) = 0 : il su�t de considérer les v.a.
Z0 =
n∑j=1
I{0}(εjYj); Zi =n∑j=1
IJi(εjYj), i = 1, . . . ,m.
∆((εiYi)i, (εiŶi)i
)≤√n∆n supf∈F H(f, f̂m), avec Ŷi ∼ f̂m/λ :
calcul direct de la distance en variation totale.δ(M(n; γ0, . . . , γm), (εiŶi)i
)= 0 :
L∗ v.a. concentrée aux points 0, x∗i =2i−12m avec masses γi.
M(n; γ0, . . . , γm) équivaut à observer n copiesindépendantes de L∗.
On utilise le noyau :
x∗i−1 x∗i x∗i+1
mVi
K(x∗i , A) =
{IA(0) si i = 0∫A Vi(x)dx autrement.
26 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation gaussienne : étape 3
Résultats de Carter :Soit N (µ,Σ) la distribution normale multivariée avec lesmêmes moyens et matrice de covariance queM(n; γ0, . . . , γm). Alors,
∆(M(n; γ0, . . . , γm),N (µ,Σ)) = O(m lnm√
n
).
Comment passer de N (µ,Σ) à une expérience àcoordonnées indépendantes :
∆
(N(µ,Σ
),
m⊗j=0
N (nγi, nγi))
= O( m√
n
).
Des calculs standards combinés avec ces résultats donnent :
∆(M(n; γ0, . . . , γm),
m⊗j=1
N (2√Tnθj , 1)
)= O
(m lnm√n
+√n∆3n
).
27 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Approximation gaussienne : étape 3
Résultats de Carter :Soit N (µ,Σ) la distribution normale multivariée avec lesmêmes moyens et matrice de covariance queM(n; γ0, . . . , γm). Alors,
∆(M(n; γ0, . . . , γm),N (µ,Σ)) = O(m lnm√
n
).
Comment passer de N (µ,Σ) à une expérience àcoordonnées indépendantes :
∆
(N(µ,Σ
),
m⊗j=0
N (nγi, nγi))
= O( m√
n
).
Des calculs standards combinés avec ces résultats donnent :
∆(M(n; γ0, . . . , γm),
m⊗j=1
N (2√Tnθj , 1)
)= O
(m lnm√n
+√n∆3n
).
27 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4
∆(⊗m
j=1N (2√Tnθj , 1),
⊗mj=1
(y jm− y j−1
m
))→ 0 : des
calculs standards donnent une majoration de la distance deLe Cam égale à
√Tnm
−γ .
δ(
(yt)t∈[0,1],⊗m
j=1
(y jm− y j−1
m
))= 0 : évident.
δ(⊗m
j=1
(y jm− y j−1
m
), (yt)t∈[0,1]
)→ 0 : en construisant une
transition explicite, on peut trouver la même vitesse deconvergence
√Tnm
−γ .
Ceci entraîne :
∆
( m⊗j=1
N(2√Tnθj , 1
), (yt)t∈[0,1]
)= O
(√Tnm
−γ).
28 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4
∆(⊗m
j=1N (2√Tnθj , 1),
⊗mj=1
(y jm− y j−1
m
))→ 0 : des
calculs standards donnent une majoration de la distance deLe Cam égale à
√Tnm
−γ .
δ(
(yt)t∈[0,1],⊗m
j=1
(y jm− y j−1
m
))= 0 : évident.
δ(⊗m
j=1
(y jm− y j−1
m
), (yt)t∈[0,1]
)→ 0 : en construisant une
transition explicite, on peut trouver la même vitesse deconvergence
√Tnm
−γ .
Ceci entraîne :
∆
( m⊗j=1
N(2√Tnθj , 1
), (yt)t∈[0,1]
)= O
(√Tnm
−γ).
28 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Comment passer d'une suite de gaussiennesindépendantes à un bruit blanc : étape 4
∆(⊗m
j=1N (2√Tnθj , 1),
⊗mj=1
(y jm− y j−1
m
))→ 0 : des
calculs standards donnent une majoration de la distance deLe Cam égale à
√Tnm
−γ .
δ(
(yt)t∈[0,1],⊗m
j=1
(y jm− y j−1
m
))= 0 : évident.
δ(⊗m
j=1
(y jm− y j−1
m
), (yt)t∈[0,1]
)→ 0 : en construisant une
transition explicite, on peut trouver la même vitesse deconvergence
√Tnm
−γ .
Ceci entraîne :
∆
( m⊗j=1
N(2√Tnθj , 1
), (yt)t∈[0,1]
)= O
(√Tnm
−γ).
28 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où
X est un processus de Poisson composé de densité f ,dyt =
√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Étape 1. Passer de la densité f à f̂mP fTn
∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).
Étape 2. Approximation poissonienne :
P f̂mTn∆⇐⇒⊗m
j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).
Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)
∆⇐⇒⊗m
j=1N (2√Tnθj , 1) (résultats de Brown,
Carter, Low et Zhang).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
29 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où
X est un processus de Poisson composé de densité f ,dyt =
√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Étape 1. Passer de la densité f à f̂mP fTn
∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).
Étape 2. Approximation poissonienne :
P f̂mTn∆⇐⇒⊗m
j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).
Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)
∆⇐⇒⊗m
j=1N (2√Tnθj , 1) (résultats de Brown,
Carter, Low et Zhang).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
29 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où
X est un processus de Poisson composé de densité f ,dyt =
√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Étape 1. Passer de la densité f à f̂mP fTn
∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).
Étape 2. Approximation poissonienne :
P f̂mTn∆⇐⇒⊗m
j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).
Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)
∆⇐⇒⊗m
j=1N (2√Tnθj , 1) (résultats de Brown,
Carter, Low et Zhang).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].
29 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Les grandes lignes de la preuve
Idées principales (cas Poisson composé)
But : (Xt)t∈[0,Tn]∆⇐⇒ (yt)t∈[0,1], où
X est un processus de Poisson composé de densité f ,dyt =
√f(t)dt+ 1
2√TndWt, t ∈ [0, 1].
Étape 1. Passer de la densité f à f̂mP fTn
∆⇐⇒ P f̂mTn (majoration de la distance en variation totale).
Étape 2. Approximation poissonienne :
P f̂mTn∆⇐⇒⊗m
j=1 P(Tnθj) (transformations de type Esscher,statistique exhaustive, contrôle distance L1, constructionexplicite d'un noyau).
Étape 3. Approximation gaussienne :⊗mj=1 P(Tnθj)
∆⇐⇒⊗m
j=1N (2√Tnθj , 1) (résultats de Brown,
Carter, Low et Zhang).
Étape 4.⊗m
j=1N (2√Tnθj , 1)
∆⇐⇒ (yt)t∈[0,1].29 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Une extension du résultat de Nussbaum (1996)
Pgn : (Yi)ni=1 v.a. i.i.d. de densité fg : I → R,
W gn : dyt =√f(t)g(t)dt+
dWt2√n, t ∈ I.
g est connue,
f est inconnue et appartient à une certaine classe F .
Théorème (M., 2015)
Sous des conditions appropriées sur F on peut montrer quelimn→∞∆(P
gn,W
gn ) = 0.
E. Mariucci, Asymptotic equivalence for density estimation and Gaussianwhite noise : An extension. À paraître dans Ann. de l'ISUP.
30 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Une extension du résultat de Nussbaum (1996)
Pgn : (Yi)ni=1 v.a. i.i.d. de densité fg : I → R,
W gn : dyt =√f(t)g(t)dt+
dWt2√n, t ∈ I.
g est connue,
f est inconnue et appartient à une certaine classe F .
Théorème (M., 2015)
Sous des conditions appropriées sur F on peut montrer quelimn→∞∆(P
gn,W
gn ) = 0.
E. Mariucci, Asymptotic equivalence for density estimation and Gaussianwhite noise : An extension. À paraître dans Ann. de l'ISUP.
30 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Nouveauté par rapport aux travaux antérieurs
Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].
Avantages :
Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.
Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.
Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.
31 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Nouveauté par rapport aux travaux antérieurs
Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].
Avantages :
Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.
Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.
Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.
31 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Nouveauté par rapport aux travaux antérieurs
Remarque : on retrouve le résultat de Nussbaum (1996) au casoù g(x) = 1 et I = [0, 1].
Avantages :
Les v.a. Yi sont dé�nies sur un intervalle I ⊆ R, pasforcément borné.
Nous pouvons traiter le cas des v.a. à densité (h = fg) nonnécessairement bornées ni lisses.
Techniques de preuve : approximation multinomiale-normalemultivariée (associée à un choix d'une partition adéquate de I),construction explicite des noyaux réalisant l'équivalenceasymptotique.
31 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Les grandes lignes de la preuve
Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend
pas de j et soit f̂m une approximation adéquate de f .
Étape 1. Passer de f à f̂m : ∆(Pgn, P̂
gn)→ 0 où P̂gn est le
modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.
Étape 2. Approximation multinomiale :
(Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=
∫Jif(x)g(x)dx
i = 1, . . . ,m.
Étape 3. Approximation gaussienne :
M(n; γ1, . . . γm)∆⇐⇒⊗m
j=1N (2√nγj , 1).
Étape 4 :⊗m
j=1N (2√nγj , 1)
∆⇐⇒ (yt)t∈I .
32 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Les grandes lignes de la preuve
Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend
pas de j et soit f̂m une approximation adéquate de f .
Étape 1. Passer de f à f̂m : ∆(Pgn, P̂
gn)→ 0 où P̂gn est le
modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.
Étape 2. Approximation multinomiale :
(Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=
∫Jif(x)g(x)dx
i = 1, . . . ,m.
Étape 3. Approximation gaussienne :
M(n; γ1, . . . γm)∆⇐⇒⊗m
j=1N (2√nγj , 1).
Étape 4 :⊗m
j=1N (2√nγj , 1)
∆⇐⇒ (yt)t∈I .
32 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Les grandes lignes de la preuve
Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend
pas de j et soit f̂m une approximation adéquate de f .
Étape 1. Passer de f à f̂m : ∆(Pgn, P̂
gn)→ 0 où P̂gn est le
modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.
Étape 2. Approximation multinomiale :
(Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=
∫Jif(x)g(x)dx
i = 1, . . . ,m.
Étape 3. Approximation gaussienne :
M(n; γ1, . . . γm)∆⇐⇒⊗m
j=1N (2√nγj , 1).
Étape 4 :⊗m
j=1N (2√nγj , 1)
∆⇐⇒ (yt)t∈I .
32 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Équivalence asymptotique pour des modèles à densité
Les grandes lignes de la preuve
Soit (Jj)1≤j≤m une partition de I telle que∫Jjg(x)dx ne dépend
pas de j et soit f̂m une approximation adéquate de f .
Étape 1. Passer de f à f̂m : ∆(Pgn, P̂
gn)→ 0 où P̂gn est le
modèle statistique associé aux v.a. i.i.d. Ŷi ayant densité f̂mg.
Étape 2. Approximation multinomiale :
(Ŷi)i∆⇐⇒M(n; γ1, . . . , γm), où γi :=
∫Jif(x)g(x)dx
i = 1, . . . ,m.
Étape 3. Approximation gaussienne :
M(n; γ1, . . . γm)∆⇐⇒⊗m
j=1N (2√nγj , 1).
Étape 4 :⊗m
j=1N (2√nγj , 1)
∆⇐⇒ (yt)t∈I .
32 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Conclusions et perspectives
Conclusions.
Nous avons prouvé un résultat d'équivalence asymptotiqueentre un modèle statistique associé à l'observation discrèted'un processus de Lévy à sauts purs et un modèle de bruitblanc gaussien.
La preuve est constructive.
Certaines techniques utilisés dans les preuves peuvent êtreexploités pour obtenir une extension du résultat deNussbaum.
Perspectives. Des extensions possibles de ce travail sont :
Estimation non paramétrique de la densité de Lévy.
Équivalence asymptotique pour des modèles de Lévydépendant aléatoirement du temps.
33 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Conclusions et perspectives
Conclusions.
Nous avons prouvé un résultat d'équivalence asymptotiqueentre un modèle statistique associé à l'observation discrèted'un processus de Lévy à sauts purs et un modèle de bruitblanc gaussien.
La preuve est constructive.
Certaines techniques utilisés dans les preuves peuvent êtreexploités pour obtenir une extension du résultat deNussbaum.
Perspectives. Des extensions possibles de ce travail sont :
Estimation non paramétrique de la densité de Lévy.
Équivalence asymptotique pour des modèles de Lévydépendant aléatoirement du temps.
33 / 34
-
Expériences statistiques Densité de Lévy Conclusions et perspectives
Merci pour votre attention !
34 / 34
Comparaison des expériences statistiquesDistance entre modèles statistiquesComment majorer la distance de Le CamExemples
Équivalence asymptotique dans des modèles à sautsIntroductionDéfinition des expériencesRésultats principauxLes grandes lignes de la preuveÉquivalence asymptotique pour des modèles à densité
Conclusions et perspectives
top related