estimation bayesienne d'un modèle de volatilité
TRANSCRIPT
Jean Cloutier
Estimation bayesienne d'un modèle de volatilité stochastique et
application au risque de taux d'intérêt
Mémoire présenté
À la Faculté des études supérieures de l'Université Laval
dans le cadre du programme de maîtrise en économique
pour l'obtention du grade de Maîtres es Arts (M.A.)
Département d'économique
Faculté des sciences sociales
UNIVERSITÉ LAVAL
QUÉBEC
2011
© Jean Cloutier, 2011
Résumé
La modélisation de la volatilité des actifs financiers s'est avérée un sujet très
populaire depuis plusieurs années. La performance accrue des ordinateurs a
permis d'appliquer les méthodes bayésiennes à l'estimation de ces modèles. Ce
mémoire traite de l'estimation bayesienne des modèles d'un modèle de volatilité
stochastique dans ses versions univariées et multivariées. L'estimation se fait par
un algorithme MCMC via la technique de l'augmentation des données. Par la
suite, une application au calcul de la valeur-à-risque sur un titre à revenus fixes
est démontrée.
1.1 Introduction
La mesure du risque sur les actifs financiers est depuis longtemps un sujet
d'intérêt en économétrie. Le risque financier est généralement mesuré en terme
de l'écart-type (ou volatilité) sur les rendements d'un actif ou sur les variations
d'un taux d'intérêt. La classe de modèle généralement utilisée pour mesurer
cette volatilité est celle des modèles à hétéroscédasticité conditionnelle, plutôt
connus sous le nom d'ARCH (qui signifie en anglais AutoRegressive Conditional
Heteroskedasticity) d'après l'article fondateur d'Engle (1982)1. Les modèles ARCH
ont certes l'avantage d'être simples mais sont contraints par la forte hypothèse
d'une fonction de variance déterministe. En d'autres termes, ces modèles
suppose que la variance future est connue de façon certaine ce qui n'est pas
tout-à-fait cohérent avec la réalité.
Une autre classe de modèle, appelles modèles de volatilité stochastique,
permettent de mieux capter les variations dans la volatilité des actifs. Cette
classe de modèles présente toutefois un défi majeur quant à leur estimation. En
effet, comme la volatilité est une variable latente, nous ne pouvons pas estimer
les paramètres du processus aléatoire suivi par celle-ci directement. Pour palier à
ce problème, trois alternatives sont connues. La première est l'estimation par la
méthode des moments généralisées qui consiste à isoler les paramètres du
1 Voir Engle( 1982)
modèle en fonction des différents moments de la variable aléatoire étudiée. La
seconde est l'estimation par la méthode de Quasi-Maximum de Vraisemblance
qui n'est autre que l'utilisation du filtre de kalman sur une version linéarisée des
données2. La dernière est l'estimation bayesienne et c'est elle qui sera décrite
dans ce mémoire. Cette méthode, qui sera expliquée plus en détail par la suite,
consiste à générer un échantillon pour chaque paramètre conditionnellement à
l'ensemble des autres paramètres. Pour extraire les volatilités, nous considérons
chacune de celles-ci comme des paramètres que nous estimons
conditionnellement à l'ensemble des autres paramètres (incluant les volatilités
passées et futures).
La plupart des articles scientifiques discutant du modèle de volatilité stochastique
discute d'applications aux actions ordinaires. Dans ce mémoire, je traiterai plutôt
d'applications aux titres à revenus fixes, en d'autres termes, à la volatilité des
taux d'intérêt. Le présent document sera divisé en six sections. La première
section sera une revue de la littérature, la seconde section décrira le modèle de
volatilité stochastique dans sa forme univariée et dans sa forme multivariée, la
troisième section traitera de l'application des méthodes bayésiennes à
l'estimation de ce modèle, la quatrième section traitera du calcul de la valeur-à-
risque sur différents types d'obligations, la cinquième section présentera un
2 Voir Broto et Ruiz (1994)
exemple empirique et finalement la dernière section sera une discussion sur les
résultats et la portée de l'information contenue dans ce document.
2.1 Revue de littérature
L'intérêt pour les modèles de volatilité stochastique remonte à un article de Clark
(1973)3 dans lequel il spécifie une distribution pour la variance dans le
changement des prix des contrats à terme sur le coton. La difficulté demeure par
contre dans l'estimation des paramètres d'un processus qui dirige le
comportement de cette variance à travers le temps. Engle (1982) et Bollerslev
(1986)4 proposent les modèles ARCH et GARCH qui modélisent la variance future
comme une fonction des termes d'erreur passés suivant le processus suivant :
y, = M + ^ £ t
h, =û)+ f3ht_x +_■•_•,__
Comme on peut le remarquer, la fonction de la variance conditionnelle n'est pas
stochastique.La nature déterministe de ces modèles pose donc un problème
lorsqu'on observe un changement de régime dans les données c'est-à-dire,
lorsque la variance augmente de façon soudaine et importante.
Les modèles de volatilité stochastique présente une alternative très intéressante
aux modèles ARCH/GARCH car ils peuvent s'adapter à un changement de régime
avec l'information contenue dans une seule période précédente. Par contre,
malgré cette capacité notable des modèles de volatilité stochastique, les modèles
ARCH/GARCH ont l'avantage d'être beaucoup plus simples à estimer. Les
3 Voir Clark (1973) 4 Voir Bollerslev (1986)
méthodes classiques d'estimation ne peuvent être basées sur la «vraie» fonction
de vraisemblance et sont donc moins précises. Plusieurs articles traitent de ces
méthodes tels que Ruiz et al. (2004) pour les méthodes basées sur le filtre de
Kalman ainsi que l'article de Andersen et Sorensen (1996)5 pour la méthode des
moments généralisée.
La difficulté du traitement d'une variable latente (la volatilité dans le cas qui nous
intéresse) rencontrée avec les méthodes classiques est considérablement
amoindrie lorsqu'on a recours aux méthodes bayesiennes. En effet, des articles
tels que ceux de Jacquier et al. (1994)6 et de Kim et al. (1998) présentent une
approche simplifiée de l'estimation des paramètres du modèle en faisant appel à
la technique de l'augmentation des données. Ces deux derniers articles traitent
de la version univariée du modèle qui, dans la pratique, est plus où moins
informative. Philipov et Glickman (2004)8 proposent l'extension naturelle de
l'article de Jacquier et al. au cas multivarié.
5 Voir Andersen et Sorensen (1996) 6 Voir Jacquier et Al. (1994) 7 Voir Kim et Al. (1998) 8 Voir Philipov et Glickman (2004)
3.1 Le modèle de volatilité stochastique univarié
La structure du modèle univarié est très simple. En résumé, nous supposons que
les rendements sur un actif financier suivent une marche aléatoire de moyenne /J
et dont le logarithme de la variance du terme d'erreur est dirigée par un
processus autorégressif d'ordre 1.
y , = p + Jh t -e , avec e, D JV(0,1)
log(h, ) = a + S - log(h,_{ ) + TJ, avec n ,□ N(0, a\ )
Nous avons donc un ensemble de quatre paramètres à estimer pour ce modèle
soient {ju,a,S,o-2h}- Nous verrons plus tard qu'il y a en fait un nombre beaucoup
plus grand de paramètres à estimer car la technique de l'augmentation des
données nécessite que nous traitions chacune des variables latentes (volatilités)
comme un paramètre à estimer.
Ce modèle, comme l'ont démontré Jacquier, Poison et Rossi, s'avère plus
performant que les modèles ARCH par la composante stochastique incorporée
dans la fonction de variance. Cela permet au modèle de s'adapter beaucoup plus
rapidement aux changements de régime dans la volatilité et par conséquent de
donner une mesure du risque plus appropriée. Par contre, l'estimation classique
de ce modèle étant plus complexe que celle d'un modèle ARCH a fait en sorte
que son utilisation ne soit pas encore très répandue. L'estimation bayesienne
démontrée plus loin dans le texte rend intéressante la substitution des modèles
ARCH par un modèle de volatilité stochastique.
3.2 Le modèle multivarié
La généralisation multivariée du modèle de volatilité stochastique est une
extension naturelle mais beaucoup plus complexe du modèle univarié. En effet,
l'augmentation du nombre de paramètres et la nécessité d'avoir une matrice de
covariance semi-définie positive rend l'estimation moins accessible.
La forme du modèle présenté dans ce mémoire est celle décrite dans l'article de
Glickman et Philipov (2004). Il s'agit en fait d'une généralisation du modèle
présenté à la section précédente. Le principe est exactement le même excepté
que l'on substitue immédiatement la loi log-normale pour une loi de inverse-
Wishart dans la forme du modèle au lieu d'utiliser cette loi pour approximer la
composante log-normale. On décrit le modèle de cette façon :
y , = P + £,
Avec :
ë t~N(P,I.;1)
Et:
Y? ~WisharHp,St_x)
Les paramètres u est le nombre de degrés de liberté et le paramètres St est
dépendant de la matrice de covariance Zt, de u, de la matrice-paramètre A et de
d.
s , = -v
2 A 2 fc-r
Les éléments diagonaux de A s'interprètent exactement de la même façon que le
paramètre 5 dans le modèle univarié, c'est-à-dire le coefficient d'autorégression
du processus suivi par la variance des différentes variables du modèle. Les
éléments en dehors de la diagonale sont également des coefficents
d'autorégression mais pour le processus des covariances. Ceux-ci donnent
également une indication de l'importance de la diffusion des chocs sur un actif en
particulier sur les autres actifs.
Pour expliquer plus clairement l'interprétation des paramètres, nous pouvons
calculer l'espérance de la matrice de covariance Z conditionnelle à l'ensemble des
paramètres :
£[_,-'K y, „,_;_,]= y-s, .^ __
A 2 k,r _ A 2
On constate que si le paramètre c'est nul, la variance est constante à travers le
temps. On constate également que si celui-ci est plus grand que 1, la variance
espérée sera plus grande d'une période à l'autre, en d'autre termes, le processus
sera non-stationnaire. Pour que le processus soit stationnaire, nous devons
obligatoirement avoir une valeur de d comprise entre 0 et 1. Une valeur de d
élevée indique donc une mémoire plus élevée du processus, et par conséquent
une valeur plus faible révèle que les variances passées contiennent moins
d'information sur les variances futures.
4.1 Echantillonnage de Gibbs
L'estimation bayesienne du modèle de volatilité stochastique se fait à l'aide de
l'échantillonnage de Gibbs. Cette technique popularisée par Geman et Geman
(1984)9 consiste à simuler itérab'vement chacun des paramètres du modèle à
partir de sa distribution a posteriori conditionnellement aux données observées
ainsi qu'à l'ensemble des autres paramètres. Si par exemple nous avons
l'ensemble de paramètres d = (di, d __..., d i) et les données x, la distribution du
paramètre 0/étant p(B i l 8 -i,x) nous pouvons effectuer des simulations selon la
chaîne suivante un nombre j de fois :
ei ~P(9x\e[-\ei-\ei-\...,er\x) e* ~P(e_\9>-\ei-\6t\...,9rx,X)
o'i~ P(0,,\6f\o{-\ei-\...,ej:?-,x)
Dans le cas particulier du modèle de volatilité stochastique, un des paramètres,
la volatilité à la période t est en fait une variable latente. Nous devrons donc
inclure chacune des volatilités dans la chaîne de simulation de l'échantillonnage
de Gibbs. Le résultat de cette simulation sera traité par un algorithme de
Metropolis-Hastings avec indépendance. Cette méthode est expliquée en détail
dans la section suivante.
9 Voir Geman et Geman (1984)
4.2 Estimation du modèle univarié
Comme nous l'avons dit précédemment, l'estimation du modèle de volatilité
stochastique est effectuée par le biais de la technique de l'augmentation des
données. Nous considérerons donc les volatilités comme faisant partie de notre
ensemble de paramètres. La simulation des paramètres s'effectue dans deux
chaînes cycliques dont l'une est incorporée dans l'autre. C'est l'idée même de la
technique de l'augmentation des données. Voici donc l'énoncé des étapes à
suivre pour la simulation :
1. Simuler le paramètre p conditionnellement aux volatilités observées et au
reste des paramètres. Il s'agit donc de la simulation du paramètre d'un
modèle de régression linéaire standard, sans variable explicative,
conditionnel à une variance connue. En supposant une loi a posteriori
normale, la distribution à posteriori p(pla,ô,o2h,h,y) est également
normale. On simule donc à partir de la distribution suivante :
p(p\a,S,a2h,h,y)=N(/3 l,A l-1)
Où:
Pi est l'estimateur des moindres carrés pour une régression linéaire des
rendements (yt) sur une constante (marche aléatoire).
A{x est la variance conditionnelle ht calculée à partir de l'ensemble des
autres paramètres.
2. Simuler les paramètres a et 5. Il s'agit du paramètre constant et du
coefficient d'autorégression d'un processus autorégressif d'ordre 1. La
simulation se fait donc de la même manière que pour le paramètre p via
la densité p(a,ô/p,cr\h,y) qui est une normale multivariée. À noter qu'il
est important de simuler conjointement a et 5 car ceux-ci ne sont pas
indépendants.
p(a,S\p,al,h,y) = N(K,'L)
A = a S
_ = ~ < _ 2
5 0 . _ . a * _ 2
5 0 . _
Où la matrice de covariance Z est calculée comme étant la variance de
l'ensemble des paramètres du processus autorégressif d'ordre 1 calculée
sur les variances conditionnelles.
3. Simuler le paramètre o2.,. En supposant toujours que nous connaissons le
reste des paramètres du modèle ainsi que les volatilités observées à
chaque période, nous sommes en mesure de récupérer les termes d'erreur
rjt = log h t - a - ôlog ht-i. Sachant que / j . ~ N(0, o2/,), et que la somme
des erreurs quadratiques d'une variable normale sur un échantillon de
taille Tsuit une distribution X2ret en supposant que la loi a priori de o2
.,
est une gamma de paramètre {ao,b0}, la loi a posteriori est donc :
p(a \ | h) « (a \ )TI2 ■ expHr,2 • S(lh) 12) • ( G \ )"»-' • expH>0 • o \ )
p(o-2h\h)oc(a2
h)TI2+^1 ■exP(-[S(h)l2 + b0)'CT2h)
OÙ
_ ( / / ! ) _ X (log A, - a - S log à , . , ) 2
1=1
La résultante est donc une loi G(ai,bi) avec :
a, = a 0 + T / 2 bx=b0+S(logh)l2
Dans le cas qui nous intéresse, nous supposons que aO = bO = 0. Dans ce
cas spécial, nous obtenons que l'espérance de la distribution a posteriori
est :
al T/2 T bl S(logh)/2 S(logh)
Ce qui correspond à l'inverse de l'estimateur de la variance. Nous
effectuerons donc notre simulation à partir d'une distribution inverse-
gamma de paramètres {T/2,S(loqh)/2_*.
4. Simuler les volatilités ht. La simulation des volatilités doit être faite par un
algorithme de Metropolis-Hastings avec indépendance. Comme le
logarithme de la volatilité suit un processus markovien du premier ordre,
sa distribution conditionnelle ne sera caractérisée que par, hormis
l'ensemble des paramètres du modèle, la valeur présente du rendement
de l'actif sous-jacent y t ainsi que des valeurs passées et futures voisines
immédiates soient /?.._ et ht+1. La probabilité conditionnelle est donc le
produit des trois probabilités conditionnelles suivantes :
P(y,\h t- l,0) = - j=exp yjh,
p(h, \h,_„6) = - exp
p(h l + l \h t ,0)=- exp
2h,
1 2cr;
2cr,
(logh, -a -S logh t _, ) 2
( logh t + l -a-Slogh,) 2
Le produit de ces trois distribution résulte en une distribution jointe
conditionnelle qui s'avère être le produit d'une distribution inverse-gamma
et d'une distribution log-normale :
P(h t\h,_vh t+l, y,,0)oc exp _ -
(* - "
)' —exp
h, 1er ■s\ogh,-p,)2
Où
M, = a ( l - ô ) + S(loghl_l+loght+[)
l + â2
a -l + S2
Le problème est de ramener cette distribution hybride à une distribution
plus commune pour faciliter la simulation. C'est d'ailleurs une des
innovations apportées par Jacquier et al. qui suggèrent d'approximer la
composante log-normale par une autre loi inverse-gamma dont la
moyenne et la variance sont égales à celles de la distribution log-normale.
Pour ce faire, nous devons trouver les valeurs des paramètres de la
distribution inverse-gamme a*et b*qu'\ satisfont les équations suivantes :
. l-2exp(<7 ) ° = 7
l-exp(cr ) b* = (5 -1) exp(//r + cr2 / 2)
1 a = ha
2 fc~=_____+i.
2
Les paramètres 5 et fcsont les paramètres de la distribution inverse-
gamma résultant du produit de deux distribution inverse-gamma. Une fois
que nous savons la loi à partir de laquelle nous pouvons simuler, nous
devons éprouver chacun des candidats simulés à l'aide d'une techniques
acceptation-rejet. Voici comment procéder :
1. Simuler un candidat h't à partir de la loir IG(a*b*).
2. Retenir le maximum de l'ensemble suivant :
*, 1\ P(h,\h^,h,+l,d,y) IG(hr\â,b) \ a — max< — ; =—,lr \pih;-4\hl.1,hl+1,e,y) iG(h,\â,b) J
3. Simuler Ue {0,1} d'une loi uniforme.
4. S\ U < à , retenir h\ = h,. Sinon, conserver h\ = h'~l.
4.3 Estimation du modèle multivarié
L'estimation du modèle multivarié suit la même logique que celle du modèle
univarié à l'exception que nous introduisons une difficulté supplémentaire avec la
génération des paramètres d et v. Nous devons donc construire un algorithme
dans lequel nous allons générer tous les paramètres du modèle comme nous
l'avons fait pour le modèle univarié.
1. Générer le vecteur des rendements moyens inconditionnels p. La densité
a posteriori conditionnelle de celui-ci est la même que celle utilisée dans le
cas univarié à l'exception qu'il est nécessaire de les générer
simultanément pour tenir compte de la corrélation entre ceux-ci comme
nous l'avons fait pour les paramètre a et 5 dans le cas univarié.
2. Générer l'inverse de la matrice-paramètre A à partir de sa distribution a
posteriori conditionnelle. En supposant une loi Wishart a priori et en ayant
une fonction de vraisemblance qui est également d'après une Wishart,
nous obtenons une loi a posteriori qui est également une Wishart :
p(A_11 !_-,//,_, v) « Wishart(y0,Q_)xWishart(y,Q) ïa-k-L i _Tv i
p(A-l\Ir,M,d,v)oc\A-l\ * exp[---fK_S1-A"')]-|/V-,| 2 txn[ - - t r (vÇr ' A"1)]
p(A-* \Z_,fi,d,v)oc Wishart(A-] | y, Q)
Dans ce cas, Q est le paramètre d'échelle défini par la fonction suivante
.'=»_*'+a" Q-1 =_T(2,-1)~Z/-1 •(_;_,)
T ___t d 2
i = l
Le paramètre y est quant à lui définit par le nombre d'observations, le
nombre de variables et le paramètre v :
y = y + y 0 - k - l y = T v + k + l ss> y =T-v+r 0
3. Pour simuler les paramètres d et v, Glickman et Philipov suggèrent de
discrétiser les lois a posteriori conditionnelles. Ici je ne présenterai que les
aspects techniques utiles à l'estimation. Le lecteur peut se référer à
l'annexe A. 1.4 de l'article de Glickman et Philipov pour voir la dérivation
complète des distributions a posteriori.
Les distributions a posteriori pour les paramètres d et y sont non-
standards. La distribution de d est définie par l'expression suivante :
p(d | A'1, __., p , v) oc exp -jtnwiil-^-^Q-1] d V L * M 2
Nous savons de la distribution de A que Q est une fonction de d. La
distribution de v correspond à l'expression suivante :
p{v\ A ' , I r , f i , d ) < * exp f + k - 1
2-k -1 In(w-A)-|-___(G-')|H
\ v -A-
2* fir v + j - \ xnia- P -n«p[—-"-[A-' •cr']
Voici donc la procédure :
i. La première étape consiste à construire des échantillons discrets
pour les deux paramètres sur un support déterminé arbitrairement.
Pour le paramètre d, nous déterminerons / valeurs entre dmi„ et
dmax. Le nombre de valeurs pour tf comprisent entre dminet dmaxest
déterminé de façon arbitraire par un nombre s. Pour le paramètre
v, Philipov et Glickman suggèrent la même procédure, à l'exception
que les pas entre les valeurs de v soient égales à un, car ce
paramètre doit absoluement appartenir à l'ensemble des entiers,
ii. En deuxième lieu, il faut évaluer les probabilités conditionnelles
pour chaque valeur de l'échantillon fictif :
p(d t \A-\ZT , f i ,v) = p i
p(v i\A~ l ,ZT ,p,d) = p j
Avec / = 1, ..., I e t j = 1 , . . . , J. Par la suite, on normalise les deux
distribution telles que :
P i = -p,
Z A
P J = -P j
ZP;
Par la suite, nous devons créer des intervalles Ai et Aj qui nous
permettrons d'effectuer des tirages à partir d'une loi uniforme
U[0,1].
A 2 = [ P 1 ^ P l + P l ]
A* = Z A - Z A . i=i ;=i
iv. Finalement, nous pouvons effectuer des tirages s de la loi uniforme
U[0,1] et déterminer les valeurs pour det v tels que :
d = „, si s e A,
v = Vj si s e A.
4. Après avoir défini les distributions a posteriori de tous les paramètres, il
ne reste qu'à simuler des valeurs pour les covariances Z et de les filtrer à
l'aide d'une technique acceptation-rejet. Encore une fois, je présenterai
directement la distribution a posteriori pour Z sans démontrer sa
dérivation complète. Cette démonstration est fait dans l'annexe A. 1.1 de
l'article de Philipov et Glickman.
Sachant que la distribution a posteriori conditionnelle à tous les autres
paramètres de Z est :
//■(_"' \d,A'\p,v) = Wishart(i"1 |v,£r__)
Avec
v = v ( l - d ) + l 5,_, = _,"_, + y, ■ y,
Et
5,-, = -v
f _\ A 2
\ J fttf
f M A 2
v >
Nous nous servons donc de cette distribution pour déterminer le ratio
d'acceptation-rejet de l'algorithme Metropolis-Hastings :
\n (cand)-l •exp
RA =
1 2 VuA-'ir^]
m 1 - v.t
(cand-\)-\ | 2
exp '-\tr[vA-**T" y%l,]
A partir de ces informations, on procède de la même façon qu'avec le
modèle univarié pour déterminer si on accepte où rejette un candidat.
5.1 Calcul de la valeur-à-risque sur une obligation à coupon semestriel
Dans cette section j'expliquerai le calcul de la valeur-à-risque (ci-après VaR) sur
une obligation versant des coupons périodiquement. La méthode de calcul de la
VaR présenté ici est la méthode Monte Carlo. Cette méthode ne présente pas
d'avantages significatifs dans le cas des obligations mais elle est toutefois une
des deux méthodes (avec la VaR dite historique) les plus répandues dans
l'industrie bancaire.
Le risque sur une obligation à coupon dépend de la volatilité des taux le long de
la structure à terme ainsi que de la corrélation entre ces taux. Si nous voulons
par exemple calculer une VaR sur une obligation venant à échéance dans un an
avec une valeur nominale de 1000$ et payant un coupon semestriel à un taux de
5%, nous devons connaître la volatilité des taux six mois et un an ainsi que la
corrélation entre ceux-ci. Par la suite, nous décomposons cette obligation en un
portefeuille d'obligations zéro-coupon, une payant 25$ dans six mois et l'autre
payant 1025$ dans un an. Ensuite, nous simulons les deux taux d'intérêt à partir
de la décomposition en valeur singulière (ci-après SVD) pour créer un échantillon
de rendement de portefeuille duquel nous pourrons extraire la VaR pour le
niveau de confiance désiré10.
10 Voir Mina et Xiao (2001)
L'utilisation de la SVD pour simuler des variables corrélées se fait de la façon
suivante :
1. Appliquer la SVD à la matrice de covariance pour obtenir :
I, = U D V '
2. Simuler un vecteur de variables aléatoires indépendantes suivant une loi
normale N(0,1). Ce vecteur s'appelera par exemple s.
3. Calculer le vecteur de rendements r :
r = D2 V s
Le vecteur rsuit une loi normale multivariée avec covariance Z.
4. Répéter la séquence un nombre suffisant d'itérations (exemple 10000
itérations) pour aller chercher le niveau de confiance désiré pour la VaR.
Lorsque nous avons les rendements (ou variations dans le cas des taux
d'intérêt) r pour le niveau de confiance désiré, nous réévaluons les actifs
détenus dans le portefeuille, et faisons la différence entre la valeur simulée et
la valeur actuelle pour obtenir la VaR :
VaR(a) = P(r5im(a))-P(r(t))
Où a est le niveau de confiance, rSim(a) correspond aux taux d'intérêts tirés
du vecteur rau niveau de confiance a et r(t) est le niveau des taux actuel.
Pour calculer une VaR sur une obligation, nous devons par contre connaître les
taux zéro-coupon que ne sont pas directement observés sur le marché. Pour ce
faire, nous devons les estimer à partir du prix des obligations dans le marché. La
technique utilisée ici est basée sur le modèle de Svensson (1994)11 qui est une
version étendue du modèle de Nelson et Siegel (1987)12. Le modèle décrit la
structure à terme des taux d'intérêt à l'aide d'un spline exponentiel :
11 Voir Svensson (1994) 12 Voir Nelson et Siegel (1987)
R Q \ 0 ) = A + A
l-exp r e \ TXJ
9 +/_• l-exp
( 9\
v V _ -exp
' 0A
V "17 + A
l-exp < 9^
\ Tu f n \
9 -exp e \ X Î J
Où les paramètres fa /3i, /32 et fc sont respectivement les paramètres de niveau,
de pente et de courbature (2 et 3). Pour trouver les taux zéro-coupon qui
reproduisent le mieux le prix des obligations dans le marché, j'utilise la méthode
suggérée par Fong et Vasicek (1982)13 qui consiste à minimiser la fonction
suivante :
2
min V A,./3,.A.A.r,.r2^
P,'-P,' co2
Avec
/j'=£cF,-exp(-_-tf(O,0))
_o_^l 1 d + yj( t ))2
13 Voir Fong et Vasicek (1982)
Où P/ est le prix de la /ième obligation au temps t et P/ est le prix théorique
de cette obligation calculé en actualisant les flux monétaires à partir des taux
obtenus par le modèle de Svensson. Les termes D2(t) et yt(t) sont
respectivement le carré de la durée de la /ième obligation et son rendement à
l'échéance ( Yield to maturity). On divise la fonction à minimiser par l'expression
oj2 pour corriger ITiétéroscédasticité et ainsi diminuer les erreurs d'évaluation
sur les obligations de court terme qui augmenterait celles sur les obligations de
long terme. De plus, il est recommandé de contraindre le prix théorique des
obligations benchmark et d'éliminer les obligations dites off the run dont le ratio
du taux de coupon sur le rendement à l'échéance est trop élevé. En d'autres
termes, il faut se concentrer à reproduire le prix des obligations les plus liquides
(benchmark^) car ce sont sur ces obligations que le risque d'arbitrage est le plus
élevé.
6.1 Exemple avec une obligation zéro-coupon canadienne de 10 ans
Pour cet exemple de calcul de valeur-à-risque, nous utiliserons un portefeuille
constitué d'une obligation hypothétique zéro-coupon de 10 ans émise par le
gouvernement canadien. Bien que l'obligation sur laquelle j'effectuerai les calculs
ne soit pas réelle, l'historique du taux 10 ans que j'utiliserai pour estimer la
valeur-à-risque sera dérivé d'obligations réelles à l'aide du modèle de Svensson
précédemment énoncé. L'historique est constitué de 93 données soient le prix de
34 obligations et 10 bons du trésors du 2 août au 10 décembre 2010 tirés des
prix publiés à 16h00 par PCBond Analytics. Le résultat de chacune des
calibrations se trouve en annexe de ce document. Les graphiques suivants
montrent respectivement l'allure générale de la structure à terme en date du 10
décembre 2010 ainsi que l'historique des taux 10 ans zéro-coupon utilisé dans
cet exemple. Le choix des dates a été fait au hasard et n'est donc pas en lien
avec quelconque événement de marché.
Structure à terme zéro-coupon : Gouvernement du Canada 10/12/2010
Taux zéro-coupon Canada : 02/08/2010 -10/12/2010
0.036
0.035 -0.034 / 0.033 - \ / i / \ N. 0.032 «vv hf \A J V * -0.031 VA / lA-v / \ f * -
1MB i i i i i i i i i 10 20 30 40 50 60 70 80 90 100
Pour s'assurer de la stationnarité de la série étudiée, l'historique des taux sera
différencié c'est-à-dire qu'on soustrait à chaque donnée la donnée qui la précède
ce qui a pour effet de « stationnariser» la série à l'étude. Voici une
représentation graphique de l'historique de la série différenciée :
_.10-i Différenciation du taux zéro-coupon Canada : 02/08/2010 -10/12/20101
TT Tl Ja 11, Jlll m
10 20 40 50 60 70 80 90 100
On peut constater grossièrement en jetant un coup d'oeil au graphique que cette
série semble « souffrir » d'hétéroscédasticité. En effet, on peut remarquer que le
taux d'intérêt 10 ans semble plus volatile au début et à la fin de la série et qu'il
semble y avoir une accalmie dans les données médianes. La prochaine étape
consiste à observer la fonction d'autocorrélation du carré de la differentiation des
taux d'intérêt pour avoir une idée de l'information qu'on peut tirer d'un modèle
de volatilité.
Fonction d'autocorrélation
1 1 1 1 1
1 -f 1 1 + 1 + 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
i i i i i i i i i î
! ! ! l ' ! » i ■ i ■
i i i i i i i i i
10 Retards
On peut constater que l'autocorrélation est très faible dans cette série. Dans le
cas des modèle GARCH, il est connu que ceux-ci produisent une fonction
d'autocorrélation très adoucie et généralement avec des valeurs très élevées
pour l'autocorrélation. Dans l'article de Jacquier, Poison et Rossi, il est montré
que les volatilités extraites du modèle de volatilité stochastique reproduisaient
avec une plus grande fidélité la fonction d'autocorrélation du carré des erreurs.
6.2 Estimation du modèle univarié sur le point 10 ans
L'estimation du modèle univarié présentée ici a été effectuée en suivant la
méthode suggérée par Jacquier, Poison et Rossi tel qu'elle est présentée à la
section 3.1 . La simulation a été effectuée pour 100 000 itérations. On estime
l'espérance et la variance des estimateurs avec une moyenne et une variance
échantillonnale standard. Les graphiques suivants montrent l'allure de la
convergence au fil des simulations pour chacun des paramètres.
Paramètre MU : 100 000 simulations
Paramétre ALPHA : 100 000 simulation»!
Paramètre DELTA : 100 000 simulations]
Paramètre SIGMA-h : 100 000 simulations]
im» « n i ii i _ i i _
■___■ 8 9 10
«10*
On peut remarquer la convergence très nette de tous les paramètres à partir
d'environ 30 OOOème itération. On peut donc considérer d'utiliser les 25 000
dernières pour calculer la moyenne et la variance des estimateurs pour être
raisonnablement conservateur. Le tableau ci-bas présente ces statistiques.
M a 5 °-h Moyenne -3.25E-08 -1.85E+01 1.69E-03 2.53E-01
Ecart-type 6.49E-06 6.18E-01 3.36E-02 3.83E-02
Comme les volatilités sont estimées comme des paramètres, pour observer les
volatilités extraites à partir de cet ensemble de paramètres, on doit utiliser les
moyennes des 25 000 dernières itérations pour chacune des 92 volatilités de
l'échantillon. Les volatilités sont en fait les racines carrées des variances ht.
JTaux Canada 10 ans 02/08/2010 -10/12/2010 : Volatilités estimées]
70 80 90 100
Le graphique ci-haut montre les volatilités extraites du modèle de volatilité
stochastique comparées à celle calculées avec une moyenne mobile
exponentiellement pondérée comme celle utilisée par le système RiskMetrics
avec un paramètre de lissage de 0.94 dont l'usage est très répandue dans le
calcul de la VaR. Ce modèle s'apparente au modèle « Integrated GARCH»
(IGARCH).
On peut remarquer une différence importante entre les deux modèles soit la
capacité à capter les valeurs extrêmes dans la volatilité. C'est en effet ce qui
ressort souvent des comparaisons entre les deux classes de modèles comme
l'ont fait Kim, Shephard et Chib (1998). Cela porte à croire que le modèle de
volatilité stochastique peut ne pas être le meilleur outil de calcul de la VaR. En
effet, la grande sensibilité du modèle comparativement à un modèle de la famille
ARCH fait en sorte que la prédiction de la volatilité peut s'avérer n'être « pas
assez conservatrice » dans un contexte de gestion du risque de sorte que le
modèle est plus apte à capter les valeurs extrêmes mais qu'il n'arrive pas à bien
reproduire la « moyenne des valeurs extrêmes ». Dans le cas qui nous intéresse,
cette explication prend beaucoup de sens. Avec un coefficient d'autorégression
de moins de 0.0017, la log-volatilité prédite à la période suivante ne peut être
que très proche du coefficient constant. Une bonne façon de visualiser cette
capacité à capter les valeurs extrêmes est d'ordonner les volatilités observées
c'est-à-dire la racine carré des erreurs élevées au carré, et d'appliquer l'ordre
ainsi obtenu aux volatilités estimées. Voici la représentation graphique de cet
exercice auquel a été ajouté l'estimation de la moyenne mobile
exponentiellement pondérée (EWMA) de RiskMetrics.
Volatil ité» observés classées en ordre décroissant. Volatilité estimées associées'
-•-EWMA -«-Volatilité Stochastique -r-Volatilités observées
On peut facilement remarquer que le modèle de volatilité stochastique réagit
bien dans les grandes variations mais qu'en contrepartie il admet de plus
grandes erreurs dans les cas moins extrêmes. Dans un contexte de VaR, cette
capacité de rejoindre les valeurs extrêmes est un atout remarquable. En effet,
l'objectif de la VaR est de reproduire une distribution de profits et pertes qui
englobent les cas les plus extrêmes et surtout lorsqu'il existe peu
d'autocorrélation dans la volatilité.
6.3 Calcul de la Valeur-à-Risque Monte Carlo 99% pour le 13/12/2010
Les modèles de volatilité généralement utilisés pour le calcul de la VaR sont des
modèles déterministes, ce qui implique donc qu'on suppose connaître d'avance
les volatilités des périodes subséquentes. Dans le cas de la volatilité
stochastique, on va chercher la volatilité extrême sur la distribution de la
volatilité. En d'autres termes, on peut aller chercher une variation extrême dans
la variabilité du niveau d'un facteur de risque comme on le fait déjà pour les
variations du niveau de ce facteur elles-mêmes.
La méthode de calcul est la même que celle expliquée dans la section 4.1 en
considérant préalablement une volatilité extrême suivant la distribution estimée.
Dans notre cas, nous choisissons la volatilité correspondant à notre niveau de
confiance c'est-à-dire une probabilité de 99%. Concrètement, on prend la
prédiction de la log-volatilité en t+1 que nous multiplions par le facteur
approprié. Avec la volatilité obtenu, on peut simuler les rendements et réévaluer
l'actif étudié pour chaque variation du niveau du facteur de risque pour obtenir
une distribution de profits et de pertes de laquelle on extrait la perte
correspondant à notre niveau de confiance.
Pour calculer la VaR du 13 décembre 2010, nous utilisons donc la volatilité du 10
décembre (le 13 décembre était un lundi) pour prédire la volatilité de la
prochaine période. La volatilité prédite pour le 13 décembre est donc 0.0095%.
Par contre, comme nous voulons la volatilité pour un niveau de confiance de
99%, nous devons ajouter 2.33 fois l'écart-type de la volatilité. Par la suite, nous
faisons 25000 simulation de variation du taux d'intérêt en prenant la moyenne
estimée et la volatilité prédite. On prendra ensuite la 250eme plus forte valeur et
on appliquera cette variation au taux d'intérêt observé le 10 décembre. Voici la
représentation graphique des 25000 simulations.
Variations simulées du taux d'intérêt Canada 10 ans : 25000 itérations
La 250eme plus forte valeur pour cette ensemble est de 3,4549 points de base. Le
taux 10 ans zéro-coupon pour le 10 décembre était de 3,4264%. Le taux
d'intérêt « choqué » sera donc de 3,4610%. Si on suppose une obligation zéro-
coupon payant 1000$ canadien à l'échéance, la Valeur-à-risque 99% pour la
journée de négociation du 13 décembre était donc de :
[ EXP(-10*0.034264)*1000 ] - [ EXP(-(10-3/365)*0.034610)*1000 ] = 2,2507$
Il y aurait donc une probabilité de 1% que le détenteur de cette obligation perde
2,2507$ entre le 10 décembre et le 13 décembre 2010.
7.0 Conclusion
L'objectif de ce texte était de montrer l'efficacité des méthodes bayesiennes dans
le traitement des modèles à variables latente dans le cas plus précis de
l'estimation des modèles de volatilité stochastique univarié et multivarié et
d'ensuite discuté de l'application du modèle univarié dans un contexte de VaR.
Cet exercice a également permis d'observer que d'incorporer la notion de risque
au niveau de la volatilité et non plus seulement au rendement permet une
analyse plus approfondie de la VaR. De plus, la capacité du modèle de volatilité
stochastique de capter les variations extrêmes dans la variation du niveau d'un
facteur de risque le rend très attrayant comparativement aux techniques
couramment utilisées dans l'industrie.
Le cas du modèle multivarié, bien qu'il n'ait pas été testé ici, pourrait s'avérer
également très intéressant, notamment lorsqu'il s'agit d'analyser les variations
extrêmes dans les corrélations dans les périodes de crash. Cela permettrait
d'évaluer plus en profondeur la réactivité du portefeuille à une situation de crise
que ne le font les moyennes mobiles utilisées en ce moment par l'industrie. Il
pourrait également être utilisé pour estimer les coefficients d'un modèle de
régression linéaire généralisé utilisé pour construire des simulations de crises.
Bien qu'on puisse constater les nombreux avantages de ces modèles au niveau
théorique, il est pour l'instant difficile d'imaginer I' « opérationalisation » de ceux-
ci. En effet, les instititutions financières comptent dans leurs portefeuilles de très
grandes quantités de positions qui sont dépendantes d'un nombre presqu'aussi
grand de facteurs de risque. Cela implique la manipulation d'énorme matrices de
covariance, un nombre exponentiel de paramètres à valider et un temps de
calcul certainement trop long pour l'industrie. De plus, l'automatisation de
l'analyse des résultats serait également un défi considérable. Par contre, la
croissance importante de la vitesse de calcul des ordinateurs ainsi que la plus en
plus grande efficacité des algorithmes développés pour automatiser les
processus, permet de croire que l'avenir réserve une place de choix aux
méthodes bayesiennes dans la pratique de l'économétrie financière.
8.0 Références
[1] Andersen, T.G. et Sorensen, B., 1986. «GMM estimation of stochastic
volatility models : a Monte Carlo study». Journal of business and economic
statistic, 14, pp.328-352.
[2] Bollerslev, T., 1986. «Generalized autoregressive conditional
heteroskedasticity». Journal of econometrics, pp.307-327.
[3] Broto, C. et Ruiz, E., 2004. «Estimation methods for stochastic volatility
models ». Journal of economic surveys, vol.18, no.5.
[4] Clark, P.K., 1973. «A subordinated stochastic process model with fixed
variance for speculative prices». Econometrica, 41, pp. 135-156.
[5] Engle, R.F., 1982. «Autoregressive conditional heteroskedasticity with
estimation of the United Kingdom inflation». Econometrica, pp.987-1007.
[6] Geman, D. et Geman, S., 1984. «Stochastic relaxation, Gibbs distribution,
and the Bayesian restoration of images». IEEE Transaction on Pattern analysis
and Machine Intelligence, 6, pp.721-741.
[7] Hamilton, J.D., 1994. Time series analysis. Princeton University press.
[8] Hull, J.C., 2002. Fundamentals of futures and options markets. Prentice-Hall.
[9] Jorion, P. , 1996. «Risk2 : Measuring the risk in Value at Risk». Financial
analysts journal, November/December 1996, pp. 47-55.
[10] JP Morgan/Reuters , 1996. «RiskMetrics - Technical document, fourth
edition». Morgan Guaranty Trust Company of New York.
[11] Kim, S., Shephard, N. et Chib, S., 1998. «Stochastic volatility : Likelihood
inference and comparison with ARCH models». The review of economic studies,
Vol.65, no.3 pp.361-393.
[12] Mina, J. et Xiao, J.Y., 2001. «Return to RiskMetrics : The evolution of a
standard». RiskMetrics Group Inc.
[13] Nelson, CR. et Siegel, A.F., 1987. «Parsimonious modeling of yield
curves». Journal of business, Vol.60, pp.473-489.
[14] Philipov, A. et Glickman, M.E., 2006. «Multivariate stochastic volatility via
Wishart process ». Journal of business and economic statistics, 24(3) pp.313-
328.
[15] Pitt, M.K. et Shephard, N., 1999. «Filtering via simulation : Auxiliary particle
filters». Journal of the American statistical association, Vol.94, no. 446 pp.590-
599.
[16] Svensson, L., 1994. «Estimating and interpreting foreward rates : Sweden
1992-1994». IMF Working Paper No. 94/114.
[17] Vasicek, O. et Fong, H.G., 1982. «Term structure modeling using
exponential splines ». Journal of the finance, Vol.37, pp.339-348.