zaleŻnoŚĆ – fakty i mity - strona główna ... · o macierzy korelacji r, a Φ jest...
TRANSCRIPT
Stanisław Heilpern
Uniwersytet Ekonomiczny we Wrocławiu Wydział Zarządzania, Informatyki i Finansów Katedra Statystyki stanisł[email protected]
ZALEŻNOŚĆ – FAKTY I MITY Streszczenie: Artykuł poświęcony jest wybranym zagadnieniom zależności zmiennych losowych, które można opisać za pomocą funkcji łączących (kopula). Opisano związek dwuwymiarowego rozkładu normalnego z gaussowską funkcją łączącą wraz z najczęściej stosowaną miarą zależności: współczynnikiem korelacji Pearsona. Wnioski odniesiono do przypadku wielowymiarowych rozkładów eliptycznych, w szczególności rozkładów nor-malnych. Zbadano także rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokazano, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności. Słowa kluczowe: wielowymiarowe rozkłady normalne, funkcje łączące. Wprowadzenie
Obecnie coraz częściej w modelach związanych z finansami czy ubezpiecze-niami rozpatruje się zależne procesy czy zmienne losowe [Denuit, Genest, Marceau, 1999; Embrechts, McNeil, Straumann, 2001; McNeil, Frey, Embrechts, 2005; Wang, 1999]. Praca poświęcona jest wybranym zagadnieniom dotyczącym zależ-ności zmiennych losowych. Przedstawiono w niej pewne fakty, które w pierw-szym momencie mogą się kłócić z intuicją, z pewnymi ustalonymi poglądami związanymi z wielowymiarowymi rozkładami zmiennych losowych. Fakty te dotyczą wielowymiarowego rozkładu normalnego oraz najczęściej stosowanych w praktyce miar zależności i ryzyka: współczynnika korelacji Pearsona i wartości narażonej na ryzyko VaR.
Strukturę zależności zmiennych losowych X1, …, Xn można opisać za po-mocą funkcji łączących (kopula). Funkcja łącząca C jest łącznikiem między dystrybuantami brzegowymi Fi(x) zmiennych Xi a dystrybuantą F(x1, …, xn) rozkładu łącznego [Heilpern, 2007; Nelsen, 1999]:
F(x1, …, xn) = C(F1(x1), …, Fn(xn)). (1)
Stanisław Heilpern 86
Funkcja łącząca nie zależy od rozkładów brzegowych. Jest ona dystrybuan-tą rozkładu łącznego na [0, 1]n, którego rozkłady brzegowe mają rozkład jedno-stajny. Gęstość f rozkładu łącznego określona jest wzorem: ( , … , ) = ( ), … , ( ) ( )… ( ),
gdzie c jest gęstością funkcji łączącej C, a fi gęstością zmiennej losowej Xi. Niezależności odpowiada funkcja łącząca Π(u1, … , un) = u1·… ·un, a ścisłej do-
datniej zależności (współmonotoniczności) funkcja M(u1, … , un) = min(u1,…, un). Oznaczmy symbolem ℱ(F1, … , Fn) zbiór wszystkich dystrybuant łącznych o tych samych dystrybuantach brzegowych Fi. Jest to tzw. klasa Frecheta−Hoeffdinga. Dla każdej dystrybuanty F∈ ℱ(F1, … , Fn) zachodzą tzw. nierówności Frecheta [Nel-sen, 1999]:
max{F1(x) + … + Fn(x) – n + 1, 0} ≤ F(x, y) ≤ min{F1(x), … , Fn(x)}.
Funkcja max{F1(x) + … + Fn(x) – n + 1, 0} dla n > 2 nie musi być dystrybuantą. W przypadku dwuwymiarowym W(u, v) = max(u + v – 1, 0) jest funkcją łą-
czącą odpowiadającą ścisłej, ujemnej zależności (przeciwmonotoniczności). Zmienne losowe X i Y są współmonotoniczne, gdy Y = ( ( )) i przeciw-monotoniczne, gdy Y = (1 − ( )).
W pracy będziemy wykorzystywać gaussowską funkcję łączącą określoną wzorem: ( , … , ) = Φ( )(Φ ( ), … ,Φ ( )),
gdzie Φ( ) dystrybuanta n-wymiarowego standardowego rozkładu normalnego o macierzy korelacji R, a Φ jest dystrybuantą jednowymiarowego, standardowe-go rozkładu normalnego.
Punkt 1 poświęcony jest dwuwymiarowemu rozkładowi normalnemu. Po-każemy, że jest on ściśle związany z gaussowską funkcją łączącą. Następnie omówimy najczęściej stosowaną miarę zależności: współczynnik korelacji Pear-sona. Pokażemy jego wady: zależność od rozkładów brzegowych, brak nie-zmienniczości względem rosnących przekształceń oraz fakt, że dla ustalonych rozkładów brzegowych nie muszą być osiągalne wszystkie możliwe wartości tego współczynnika. W przypadku wielowymiarowych rozkładów eliptycznych, np. normalnych, współczynnik korelacji Pearsona nie ma tych wad. Na zakoń-czenie badamy rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokażemy, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności. Niestety, z takim poglądem można się niekiedy spotkać na wystąpieniach konfe-rencyjnych czy w publikacjach związanych z analizą portfelową.
1
s
a
p
rnngznr
R Ź
1. R
stan
a m
para
rozknie nymgowzaleniż row
Rys.
Źród
RozW
ndar
maci
Dame
Brkładmu
m. Zwymeżnonor
wego
. 1. W
dło: O
zkłW d
rdow
erz
wuwetru rzed nusi wZacmi joścrmao ro
Wyk
Opra
ładdalszwy
z ko
wymr. Wgow
normwyn
chodjestci zaalneozkł
kres
cowa
d nozychroz
orela
miaWykwe rmalnnikdzi t opadae władu
dwu
anie
ormh r
zkła
( )acji
arowkresrozny. ać, tak
pisaana wielo
u n
uwy
wła
malrozwad n
)( ,i prz
wy, s gę
zkłaNiże
k jeana
jesowyorm
ymia
sne.
lnyważnorm, )zyjm
stanęstoady iestroz
edyngau
st zaymi
maln
arow
y żanimaln=muj
ndaości
wietetyzkłanie,ussa piaroneg
wego
Z
iachny.
2uje p
ardotegelow
y, z ad ł, gdowomowego.
o roz
Zależ
h bęJeg1√1post
owy o rowymfakłączdy ską
mocąe ro
zkład
żno
ędzgo g1−tać:=roz
ozkłmiaktu,zny struą fuą inozkł
du n
ość –
ziemgęsto
: =zkłaładuarow, żejes
uktuunkcnnycłady
norm
– fak
my jość exp1
ad nu dlwege rost wura cją ch y. N
maln
kty i
jedokrp −1
normla rgo rozkłwielo
załącfunNaw
nego
i mi
dynireśl−.
maln= 0
rozkładyowy
ależnczącnkcjwet
ity
ie rlona−2ny z
0,6 pkłady bymnoścą. ji łąist
rozpa jes− 2(1zaleprzedu nbrze
miarości W ączątotn
patrst w
−eży wedstnormegowowymięprzący
nie r
rywwzor+)więtawimalwe ym ędzzypych,różn
ać rem
ęc jeionylnegsą rozy r
padk, otne
dwm [W,
edyny jego mnor
zkłarozkku trzyod
wuwWan
nie st nmajrmaademkładgdy
ymuwie
wymng, 1
od jna ryją ralnem ndamy stujemelow
miaro199
jednys. 1rówe wnorm
mi btrukmy wym
8
owy99]:
neg1.
wniewcalmalbrzekturinnmia
87
y,
go
eż le l-e-ra ne a-
8
Pa
R Ź b
88
Prza. N
o
gm
ał
Rys.
Źród
b. Pn
zykłNieo st
gdzman
a 1A
łącz
Ry
. 2. G
dło: O
Prznyc
ładech tand
zie nn,
A(t)zne
ysu
Gęst
Opra
ykłch [N
d 1 stru
dard
fun200
jesgo
unek
tość
cowa
ład Nel
uktudow
nkcj01]
st inopi
k 2
ć roz
anie
synlsen
ura wym
je f:
ndyisan
prz
zkład
wła
ngun, 1
zalm ro
f(t)
ykatna je
zeds
du łą
sne n
ularn999
leżnozk
,ora
(( )toreest
staw
ączn
na po
neg9].
nośkład
( ,az g
) =) =em zwz
F
wia
nego
odsta
go r
ści zdzie
, )g(t)
== −zbio
zore
F(x,
a gę
o z p
awie
rozk
Sta
zachnor
= za
( ,(
oruem:
y)
sto
przyk
e [Em
kład
anis
hodrma
adan
; ,, ; ,
u A.
= C
ść t
kład
mbrec
du ł
sław
dzącalny
+ne s
)(, )(Wt
Cf,g(tego
du 1a
chts,
łącz
w He
cej ym
są w
) −( ) +tedy
(Φ(o ro
a
, Mc
zneg
eilp
mięopi
( )wzo
− 23+ 23y d
( ),ozkł
cNeil
go
ern
ędzisan
)oram
(23 (dystr
, Φ(ładu
l, Str
o b
zy dna j
mi
, ;( , ;ryb
( )u.
raum
brze
dwojest
([Em
, ), )
buan
).
mann]
egow
omafun
)mbr
( )) (nta
].
wyc
a zmnkcj
, rech
), ), otr
ch r
miencją ł
hts,
zym
roz
nnyłącz
, M
man
zkła
ymi zącą
McN
nego
adac
losą po
Neil,
o ro
ch n
sowosta
, St
ozk
norm
wymaci:
trau
kład
mal
mi
u-
du
l-
Zależność – fakty i mity 89
Niech C(u, v) będzie funkcją łączącą będącą dystrybuantą rozkładu jed-nostajnego skupionego na brzegu kwadratu utworzonego przez wykresy linii v = u + 0,5 i v = –u + 0,5 dla 0 ≤ u ≤ 0,5 oraz v = u – 0,5 i v = –u + 1,5 dla 0,5 ≤ u ≤ 1 (rys. 3a). Wtedy rozkład łączny z dystrybuantą opisaną wzorem:
F(x, y) = C(Φ( ), Φ( ))
skupiony jest na krzywych określonych równaniem (rys. 3b): |Φ( ) − 0,5| + |Φ( ) − 0,5| = 0,5.
Z drugiej strony, sama gaussowska funkcja łącząca nie wyznacza nam wielowymiarowego rozkładu normalnego. Wstawiając do wzoru (1) gaus-sowską funkcję łączącą oraz inne niż normalne brzegowe dystrybuanty, nie otrzymamy dystrybuanty wielowymiarowego rozkładu normalnego.
a) b) Rys. 3. Krzywe, na których skupiona jest funkcja łącząca (a) oraz rozkład łączny (b) z przykładu 1b Źródło: Opracowanie własne na podstawie [Nelsen, 1999]. Przykład 2. Rozpatrzmy dwuwymiarowy rozkład o dystrybuancie: ( , ) = , ( ), ( ) ,
gdzie H(x) jest dystrybuantą rozkładu jednostajnego na odcinku [−3, 3]. Na rys. 4 przedstawiona jest gęstość f(x, y) tego rozkładu. Widzimy, że wykres ten istotnie różni się od wykresu gęstości dwuwymiarowego rozkładu normalnego (rys. 1). W punktach (−3, −3) oraz (3, 3) graniczna wartość gęstości jest równa nieskoń-czoności.
Gęstość f(x, y) z przykładu 2 została wyznaczona z następującego wzoru: ( , ) = , ( ), ( ) ℎ( )ℎ( ),
0
1
0 1-3
0
3
-3 0 3
9
gs
R
Ź 2
s
gnzP
90
gdzsow
Rys.
Źród
2. M
son
gdziniemzalePrzy
zie hwski
4. Ww
dło: O
MiaN
a r
ie cm seżnoykła
h(x)iej f
Wykwyz
Opra
aryNajc
okr
cov(tandościadow
) gęfun
kresznac
cowa
y zazęśreśl
(X, dardi linwo
ęstonkcj
gęszon
anie
ależciejlony
Y) =dow
niowzac
ościi łą
stoścej pr
wła
żnoj sty w
= Ewymwej. chod
ią rączą
ci rorzez
sne.
ośctoso
wzor
E(XYm zm
Niedzi
ozkącej
ozkłaz gau
ci owarem
Y) –miee jezale
r
kładj
adu usso
aną m:
– EXenneest oeżn
(Φ(
du j m
Φ
łączowsk
mi
XEYej Xon ność
(X),
Sta
ednoże( )
znegką fu
iarą
( ,Y jesX. Nniezmć [Em
, Φ(
anis
nostemy),Φ
go dwunkc
ą za
, )st k
Nalemiembr
(Y))
sław
tajny ob( )
wóchcję ł
ależ
) =kowaeży ennirech
) =
w He
negoblic) =
h roączą
żnoścovariajed
iczyhts, a
eilp
o nzyć
=
ozkłaącą
ści v(ancjdnaky zeMcarcs
ern
na [−ć ko( )( )
adów
jes,ą zm
k pae wzcNesin
−3, orzy( ,) (
w je
st w), mieamizglęeil, S(
3].ysta)( )
dno
wspó
ennyiętaćędu Stra, )
. Nając
.
stajn
ółcz
ych ć, żna
aum) .
atomc z z
nych
zyn
X iże jerosn
mann
miazale
h o s
nnik
i Y,est nącn, 20
ast eżno
struk
k ko
a sX
on ce pr001
gęsośc
kturz
orel
X jejedrzek
1]:
stości:
ze z
lacj
est odynikszt
ść g
zależ
ji P
odchie mtałc
gaus
żnośc
Pear
hylemiarenia
s-
ci
r-
e-rą a.
Zależność – fakty i mity 91
Współczynnik korelacji Pearsona jest jedynie niezmienniczy ze względu na rosnące przekształcenia liniowe, tzn. dla a, c > 0 zachodzi zależność:
r(aX + b, cY + d) = r(X, Y).
Kowariancję można zapisać w języku funkcji łączących wzorem [Em-brechts, McNeil, Straumann, 2001]: cov( , ) = ( ( ( ), ( ))∞
∞
− Π( ( ), ( ))) .
Widzimy, że na wielkość kowariancji, jak i współczynnika korelacji Pearsona r wpływa nie tylko funkcja łącząca, ale i dystrybuanty rozkładów brzegowych. Nato-miast inne współczynniki korelacji: Kendalla τ i Spearmana ρ są jednoznacznie wy-znaczone przez funkcje łączące [Embrechts, McNeil, Straumann, 2001]: ( , ) = 4 ( , ) ( , ) − 1,
( , ) = 12 ( ( , ) − ) .
Należy też pamiętać, że gdy wariancje nie istnieją, to nie można wyznaczyć współczynnika korelacji Pearsona r. Ponadto dla ustalonych rozkładów brzego-wych X i Y nie wszystkie wartości współczynnika korelacji Pearsona r są osią-galne dla wszystkich możliwych rozkładów łącznych, czyli elementów rodziny ℱ(FX, FY). Mówi o tym poniższe twierdzenie pochodzące od Höffdinga i Frecheta.
Twierdzenie 1 [Embrechts, McNeil, Straumann, 2001]. Jeżeli X, Y są zmienny-mi losowymi o dowolnej strukturze zależności z dystrybuantami FX, FY oraz 0 < σX < ∞, 0 < σY < ∞, to: a. Zbiór wszystkich możliwych wartości współczynnika korelacji Pearsona jest
domkniętym przedziałem [rmin, rmax] oraz rmin < 0 < rmax. b. Najmniejszą wartość współczynnika korelacji rmin otrzymujemy wtedy i tylko
wtedy, gdy zmienne X, Y są przeciwmonotoniczne, a największą rmax dla współmonotonicznych.
c. rmin = –1 wtedy i tylko wtedy, gdy zmienne X, –Y mają rozkłady tego samego typu. Natomiast rmax = 1, gdy X, Y mają rozkłady tego samego typu.
d. Gdy sup{x: FX(x) < 1} = sup{x: FY(x) < 1} = ∞ oraz X, Y ≥ 0, to nigdy nie otrzymamy r = –1.
Stanisław Heilpern 92
Ekstremalne wartości współczynnika korelacji Pearsona występują jedynie, gdy zmienne są zależne liniowo, czyli Y = aX + b. Wartość r = 1 otrzymamy, gdy a > 0 oraz r = –1 gdy a < 0.
Przykład 3 a. Niech zmienne losowe X i Y mają rozkład wykładniczy o dystrybuantach
FX(x) = 1 – e-ax oraz FY(y) = 1 – e-by, gdzie a, b > 0. Największą wartość współczynnika korelacji otrzymamy dla współmonotonicznych zmiennych losowych. Wtedy Y = X oraz r(XY) = 1. Natomiast gdy zmienne te są prze-
ciwmonotoniczne, to Y = − (1 − ) oraz: ( ) = − (1 − )∞ = 12 −6 .
Współczynnik korelacji jest wtedy równy: ( , ) = 12 −6 − 11 = 1 − 6 .
Podsumowując, otrzymujemy:
rmin = 1 − ≈ −0,6449, rmax = 1.
b. Załóżmy teraz, że zmienne mają rozkład logarytmiczno-normalny: zmienna X z parametrami 0 i 1, a Y z parametrami 0 i σ > 0. Wtedy [Embrechts, McNeil, Straumann, 2001]:
rmin = r(eZ, e-σZ) = ( ) ,
gdzie zmienna losowa Z ma rozkład standardowy normalny oraz:
rmax = r(eZ, eσZ) = ( ) .
R Ź
wcNzσW
ww 3
z
w
g
Rys.
Źród
warczyNatzaleσ = Wy
w awsp
3. S
zale
wte
gdz
. 5. W
dło: O
Z rtośm wtomeży 1,
ykreR
anapółc
Sum
Zbeżno
edy
zie:
War
Opra
twści wwar
miasoda d
esy ozk
aliziczyn
my
badośc
dys
rtośc
cowa
wierdwsprtośt w
d wadla σwar
kładie pnni
y zm
damci za
stry
ci rm
anie
dzepółcść dw prartoσ > rtoś
d lopork k
mie
my tadan
ybua
, (A
min i r
wła
eniaczyndolnrzyości
3,5ści
ogarrtfelkore
enn
erana j
anta
) =A(s)
rmax
sne n
a 1dnni
nej ypadi pa5 wtychrytmlowelacj
nyc
z rojest
a su
=) =
dla
na po
d wka gradkuaram
wspóh g
miczwej.
ji P
ch
ozkt fun
umy
( )K(s{(u
róż
odsta
wynikor
anicu rometółczgranzno
NPear
los
kładnkc
y SC
s) =u1, …
Z
nych
awie
ika,relacy rozkłtru zynnnic: o-noależrson
sow
d sumcją ł
C ok
= {(…,
Zależ
h wa
e [Em
, żeacji rmin
ładuσ. Mnikrmin
ormży na.
wyc
myłącz
SC
kreś
((x1, un)
żno
arto
mbrec
e w r =nie
u loMa
k kon i r
malnwi
ch,
y zmząc
= X
ślon
),…,:
ość –
ści p
chts,
ob= –1e zaoga
aksyorelarmax
ny węc
, w
mieną C
X1 +
na j
… ,, xn)(
– fak
para
, Mc
bydw1. Dależarytmymaacji
x zowyk
w
wyz
nnyC. N
+ …
est
(): x( )
kty i
amet
cNeil
wu Dla ży omicalnąi jes
ostałkorz
tym
nac
ych Niec
… +
wz
(1 + ) +
i mi
tru σ
l, Str
przzm
od wczną wst zły pzystm
cza
losch:
Xn,
zore
)… …
ity
σ
raum
zypmien
waro-n
wartozawprzetywprz
ani
ow
,
em
=+ x+
mann,
padknnycrtośnormość
wszeedst
wanyzypa
ie V
wych
[He
( )xn ≤
, 200
kachch oci w
malnotr
e rótawy jeadk
VaR
h X
eilp
≤ s}(
01].
h no rowspnegrzymwn
wionest ku o
R
X1, …
pern
(, ) ≤
nie mozkłpółcgo smam
ny wne nczęostr
…, X
n, 20
, …≤ s}
możładzczynsytumy
w prna ryęstorożn
Xn,
011
… ,}.
żnazie nniuacj
y jedrzybys.
o w nie
gdy
1]:
),
a otwyków
cja dynbliż5. finst
y st
trzyykław aisto
nie, żeni
nansoso
truk
9
ymaadnia i botnigd
iu 0
sachowa
ktur
93
ać i-b. ie
dy 0.
h, ać
ra
Stanisław Heilpern 94
Dystrybuanta sumy zmiennych losowych jest ograniczona z dołu i z góry przez dystrybuanty Fmin i Fmax. Ich postać podana jest w twierdzeniu 2.
Twierdzenie 2 [Denuit, Genest, Marceau, 1999]. Niech X1, …, Xn będą dowol-nymi zmiennymi losowymi o strukturze zależności opisanej funkcją łączącą C. Jeżeli FS,C(s) jest dystrybuantą ich sumy SC = X1 + … + Xn, to
Fmin(s) ≤ FS,C(s) ≤ Fmax(s),
gdzie: ( ) = sup∈Σ( )max ( ) − + 1, 0 ,
( ) = inf∈Σ( )min ( ), 1 ,
oraz Σ(s) = {(x1, …, xn): x1 + … + xn = s} i ( ) = ( < ). Ponadto, nie istnieje też funkcja łącząca C, taka że graniczne dystrybuanty
Fmin i Fmax są dystrybuantami sumy SC, ale dla każdego x0 istnieje funkcja łącząca C0, taka że , ( ) = ( ). Podobnie jest dla ograniczenia Fmax.
Przejdźmy teraz do zbadania podstawowych miar ryzyka dotyczących sumy zależnych zmiennych losowych S. Taką miarę ryzyka będziemy oznaczać sym-bolem γ(S; C), gdzie C jest funkcją łączącą opisującą strukturę zależności zmiennych losowych Xi.
Koherentna miara ryzyka powinna spełniać cztery, pożądane w praktyce aksjomaty [McNeil, Frey, Embrechts, 2005]. Powinna być niezmiennicza względem transformacji, dodatnio jednorodna, monotoniczna i subaddytywna. Ostatnia własność, subaddytywność: γ(X + Y) ≤ γ(X) + γ(Y) zachodzi dla każdej zmiennej X i Y, związana jest z dywersyfikacją ryzyka. Najczęściej stosowaną w praktyce miarą ryzyka jest wartość narażona na ryzyko (Value-at-Risk) VaRα(X). Jest to prosta miara ryzyka będąca kwantylem zmiennej X:
VaRα(X) = inf{x: FX(x) ≤ α}.
Nie jest ona jednak koherentną miarą ryzyka. Nie spełnia warunku subad-dytywności. Można też pokazać [McNeil, Frey, Embrechts, 2005], że dla współmonotonicznych zmiennych losowych jest ona addytywna:
VaRα(S; M) = VaRα(X1) + … + VaRα(Xn).
Zależność – fakty i mity 95
Miara VaRα nie jest subaddytywna. Istnieje więc funkcja łącząca C, taka że VaRα(S; C) > VaRα(X1) + … + VaRα(Xn), czyli zachodzi relacja:
VaRα(S; M) < VaRα(S; C).
Współmonotoniczne zmienne losowe wcale nie muszą więc dawać naj-większej wartości VaRα dla ich sumy.
W przypadku gdy zmienne X1, ..., Xn mają łączny rozkład eliptyczny, to miara VaRα jest koherentna [McNeil, Frey, Embrechts, 2005]. Wtedy VaRα(S; M) ≥ ≥ VaRα(S; C) dla każdej struktury zależności. Podobna sytuacja zachodzi dla innej miary ryzyka: średniego niedoboru (expected shortfall) określonego wzorem: ES ( ) = 11 − VaR ( )d .
Dla ciągłych zmiennych losowych zachodzi zależność: ESα( ) = E( | > VaRα( )).
Średni niedobór jest koherentną miarą ryzyka również addytywną dla współmonotonicznych zmiennych losowych [McNeil, Frey, Embrechts, 2005]. Tak więc współmonotoniczne zmienne gwarantują nam największą wartość tej miary ryzyka:
VaRα(S; C) ≤ VaRα(S; M).
Ponadto, wcale nie jest prawdą, że wartość miary VaRα jest zawsze większa dla zmiennych współmonotonicznych niż dla przecimonotonicznych czy nieza-leżnych. Zagadnienie to poruszają przykłady 4 oraz 5. Przedstawiają one dwie przeciwstawne sytuacje.
Przykład 4 [Heilpern, 2011]. Niech zmienne losowe X1 i X2 mają rozkład wy-kładniczy o dystrybuancie Fi(x) = 1 – e-x. Na rys. 6 przedstawione są wykresy dystrybuant sumy przeciwmonotonicznych, niezależnych i współmonotonicz-nych tych zmiennych losowych oraz dolnego ograniczenia Fmin(x).
9
R Ź
omt
g=r
Po
Nb
96
Rys.
Źród
otrzmonto, ż
gdz=rozk
Przo dy
Natbień
. 6. W
dło: O
Wzymnotoże d
zie
Okład
zykłystr
tomństw
Wyk
Opra
Widzmuje
onidla
Cα (dmdu P
ładrybu
miasw b
kresy
cowa
zimemycznwa
je)mien
Par
d 5 [uan
t rylisk
y dy
anie
my, y dlnychrtoś
Va
st =nną reto
[Hencie
ys. kich
ystry
wła
że la zh. Nści
aRα(
fun.
syt.
eilpFi(
7b h 1.
ybua
sne n
dlzmiNatoα b
(S,
nkcj
tuac
ern(x) =
prz
ant s
na po
la mennom
blisk
W)
ją
cję
n, 20= 1zeds
sumy
odsta
małnychiastkich
< V
łącz
otr
0111 −staw
y zm
awie
łychh wt dlh 1
VaR
ząc
rzym
]. N√ .
wia
Sta
mien
e [He
h wwspóa duotrz
Rα(S
cą,
muj
Nie W
a te
anis
nnyc
eilper
warółmużyzym
S, Π
dla
jem
ch zWykr
sam
sław
ch lo
rn, 2
rtośmonych muj
Π) <
a k
my d
zmiresy
me
w He
osow
2011]
ci noto
waem
< Va
tóre
dla
ienny dy
dy
eilp
wych
].
x nonicarto
my z
aRα
ej
roz
ne lystry
stry
ern
h o r
najwcznyości ależ
α(S,
istn
zkła
losoybu
ybu
rozkł
więychx rżno
M)
niej
adów
oweuant
uant
ładz
ększh, a relaości
) <
e x
w g
e Xt pr
ty d
zie w
zą najcje i:
Va
xα,
grub
X1 i Xrzed
dla
wykł
wajmnsą
aRα(
tak
boo
X2 mdsta
war
ładn
artoniejodw
(S, C
kie
ogo
majawio
rtoś
niczy
ść sząwro
Cα)
że
now
ją roone
ści
ych
dyą dlaotne
,
wyc
ozksą
pra
strya pre. O
,ch,
kładna
awd
yburze
Ozn
(np.
d Parys
dopo
uantciwacz
) =. dl
arets. 7a
odo
ty w-za
=la
to a.
o-
R Ź
wnbpnsww
Rys.
Źród
więnycbuaprawnie sze wrowię
. 7. W
dło: O
Wększch, aantywiewiędla
otnaększ
Wyk
Opra
W prze wa na
y ne róęksa α a jaza d
kresy
cowa
rzypwarajmiezawn
sze =
ak dla w
y dy
anie
padrtoś
mnieależ
ne. Wniż0,9w wsp
ystry
wła
dku ci d
ejszżnyWarż dl97 o
przpółm
ybua
sne n
gddys
ze dych rtośa w
od dzypamon
ant s
na po
dy ztryb
dla pi
ści wspódolnadknoto
sumy
odsta
zmibuaprzeprzVaRółmnej
ku roni
Z
y zm
awie
iennantyeciwzeciRα
mongra
rozczn
Zależ
mien
e [He
ne Xy otwmiwmdla
notoanickła
nych
żno
nnyc
eilper
Xi mtrzy
monomona przoniccy F
adu h zm
ość –
a
b
ch lo
rn, 2
majymuoton
notozec
cznyFmi
wymie
– fak
a)
b)
osow
2011]
ją rujemnicz
onicciwmychin(x)ykłaenny
kty i
wych
].
rozkmy znycznymon
h, je) (padnych
i mi
h o r
kładdla
ych.ychnotoednapatrniczh los
ity
rozkł
d Pa w. Dl
h zmoniak rz rzegosow
ładz
arewspó
la xmiecznaż
rys. o, gwyc
zie P
to, ółmx wiennynychpon7b
gdzch.
Paret
to mono
ięksychh zmnadb). Jzie
to
dlaotonszyh lomie
d dwJestwa
a kanicz
ych osoennywukt toartoś
ażdznyod wyych
kroto syść
egoych 60
ych h sątnieytua
Va
o x zmdyssą
ą zn mn
acjaaRα
9
najmien
stryju
naczniej
a odjes
97
j-n-y-uż z-j-d-st
Stanisław Heilpern 98
Literatura Denuit M., Genest C., Marceau E. (1999), Stochastic Bounds on Sums of Dependent Risks,
„Insurance: Mathematics and Economics”, No. 25, s. 85-104.
Embrechts P., McNeil A., Straumann D. (2001), Correlation and Dependence in Risk Management: Properties and Pitfalls [w:] Dempster M., Moffatt H.K. (eds.), Risk Management: Value at Risk and Beyond, Cambridge University Press, Cambridge.
Heilpern S. (2007), Funkcje łączące, Wydawnictwo AE, Wrocław.
Heilpern S. (2011), Aggregate Dependent Risk − Risk Measure Calculation, „Mathematical Economics”, No. 7(14), s. 93-110.
McNeil J.A., Frey R., Embrechts P. (2005), Quantitative Risk Management. Concepts, Techniques and Tools, Princeton University Press, Princeton.
Nelsen R.B. (1999), An Introduction to Copulas, Springer, New York.
Wang S.S. (1999), Aggregation of Correlated Risk Portfolios: Models & Algorithms, CAS Committee on Theory of Risk, Working Paper.
DEPENDENCE – FACTS AND MYTHS Summary: The main aim of the article is to show chosen issues of random variables which can be described in the form of copula functions. In the first part the relationship between two-dimensional normal distribution with Gaussian copula function was shown together with the most common measure – Pearson correlation coefficient. Conclusions were referred to multivariate elliptical distributions, mainly to normal distributions with major focus on generally used risk measure – value at risk (VaR). It was shown that the highest values of this measure need not appear for close dependence as well as for independence. Keywords: multivariate normal distribution, copula functions.