zaleŻnoŚĆ – fakty i mity - strona główna ... · o macierzy korelacji r, a Φ jest...

14
Stanisław Heilpern Uniwersytet Ekonomiczny we Wrocł awiu Wydział Zarządzania, Informatyki i Finansów Katedra Statystyki stanisł [email protected] ZALEŻNOŚĆ – FAKTY I MITY Streszczenie: Artykuł poświęcony jest wybranym zagadnieniom zależności zmiennych losowych, które można opisać za pomocą funkcji łączących (kopula). Opisano związek dwuwymiarowego rozkładu normalnego z gaussowską funkcją łączącą wraz z najczęściej stosowaną miarą zależności: współczynnikiem korelacji Pearsona. Wnioski odniesiono do przypadku wielowymiarowych rozkładów eliptycznych, w szczególności rozkładów nor- malnych. Zbadano także rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokazano, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności. Sł owa kluczowe: wielowymiarowe rozkłady normalne, funkcje łączące. Wprowadzenie Obecnie coraz częściej w modelach związanych z finansami czy ubezpiecze- niami rozpatruje się zależne procesy czy zmienne losowe [Denuit, Genest, Marceau, 1999; Embrechts, McNeil, Straumann, 2001; McNeil, Frey, Embrechts, 2005; Wang, 1999]. Praca poświęcona jest wybranym zagadnieniom dotyczącym zależ- ności zmiennych losowych. Przedstawiono w niej pewne fakty, które w pierw- szym momencie mogą się kłócić z intuicją, z pewnymi ustalonymi poglądami związanymi z wielowymiarowymi rozkładami zmiennych losowych. Fakty te dotyczą wielowymiarowego rozkładu normalnego oraz najczęściej stosowanych w praktyce miar zależności i ryzyka: współczynnika korelacji Pearsona i wartości narażonej na ryzyko VaR. Strukturę zależności zmiennych losowych X 1 , …, X n można opisać za po- mocą funkcji łączących (kopula). Funkcja łącząca C jest łącznikiem między dystrybuantami brzegowymi F i (x) zmiennych X i a dystrybuantą F(x 1 , …, x n ) rozkładu łącznego [Heilpern, 2007; Nelsen, 1999]: F(x 1 , …, x n ) = C(F 1 (x 1 ), …, F n (x n )). (1)

Upload: lyphuc

Post on 28-Feb-2019

216 views

Category:

Documents


0 download

TRANSCRIPT

Stanisław Heilpern

Uniwersytet Ekonomiczny we Wrocławiu Wydział Zarządzania, Informatyki i Finansów Katedra Statystyki stanisł[email protected]

ZALEŻNOŚĆ – FAKTY I MITY Streszczenie: Artykuł poświęcony jest wybranym zagadnieniom zależności zmiennych losowych, które można opisać za pomocą funkcji łączących (kopula). Opisano związek dwuwymiarowego rozkładu normalnego z gaussowską funkcją łączącą wraz z najczęściej stosowaną miarą zależności: współczynnikiem korelacji Pearsona. Wnioski odniesiono do przypadku wielowymiarowych rozkładów eliptycznych, w szczególności rozkładów nor-malnych. Zbadano także rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokazano, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności. Słowa kluczowe: wielowymiarowe rozkłady normalne, funkcje łączące. Wprowadzenie

Obecnie coraz częściej w modelach związanych z finansami czy ubezpiecze-niami rozpatruje się zależne procesy czy zmienne losowe [Denuit, Genest, Marceau, 1999; Embrechts, McNeil, Straumann, 2001; McNeil, Frey, Embrechts, 2005; Wang, 1999]. Praca poświęcona jest wybranym zagadnieniom dotyczącym zależ-ności zmiennych losowych. Przedstawiono w niej pewne fakty, które w pierw-szym momencie mogą się kłócić z intuicją, z pewnymi ustalonymi poglądami związanymi z wielowymiarowymi rozkładami zmiennych losowych. Fakty te dotyczą wielowymiarowego rozkładu normalnego oraz najczęściej stosowanych w praktyce miar zależności i ryzyka: współczynnika korelacji Pearsona i wartości narażonej na ryzyko VaR.

Strukturę zależności zmiennych losowych X1, …, Xn można opisać za po-mocą funkcji łączących (kopula). Funkcja łącząca C jest łącznikiem między dystrybuantami brzegowymi Fi(x) zmiennych Xi a dystrybuantą F(x1, …, xn) rozkładu łącznego [Heilpern, 2007; Nelsen, 1999]:

F(x1, …, xn) = C(F1(x1), …, Fn(xn)). (1)

Stanisław Heilpern 86

Funkcja łącząca nie zależy od rozkładów brzegowych. Jest ona dystrybuan-tą rozkładu łącznego na [0, 1]n, którego rozkłady brzegowe mają rozkład jedno-stajny. Gęstość f rozkładu łącznego określona jest wzorem: ( , … , ) = ( ), … , ( ) ( )… ( ),

gdzie c jest gęstością funkcji łączącej C, a fi gęstością zmiennej losowej Xi. Niezależności odpowiada funkcja łącząca Π(u1, … , un) = u1·… ·un, a ścisłej do-

datniej zależności (współmonotoniczności) funkcja M(u1, … , un) = min(u1,…, un). Oznaczmy symbolem ℱ(F1, … , Fn) zbiór wszystkich dystrybuant łącznych o tych samych dystrybuantach brzegowych Fi. Jest to tzw. klasa Frecheta−Hoeffdinga. Dla każdej dystrybuanty F∈ ℱ(F1, … , Fn) zachodzą tzw. nierówności Frecheta [Nel-sen, 1999]:

max{F1(x) + … + Fn(x) – n + 1, 0} ≤ F(x, y) ≤ min{F1(x), … , Fn(x)}.

Funkcja max{F1(x) + … + Fn(x) – n + 1, 0} dla n > 2 nie musi być dystrybuantą. W przypadku dwuwymiarowym W(u, v) = max(u + v – 1, 0) jest funkcją łą-

czącą odpowiadającą ścisłej, ujemnej zależności (przeciwmonotoniczności). Zmienne losowe X i Y są współmonotoniczne, gdy Y = ( ( )) i przeciw-monotoniczne, gdy Y = (1 − ( )).

W pracy będziemy wykorzystywać gaussowską funkcję łączącą określoną wzorem: ( , … , ) = Φ( )(Φ ( ), … ,Φ ( )),

gdzie Φ( ) dystrybuanta n-wymiarowego standardowego rozkładu normalnego o macierzy korelacji R, a Φ jest dystrybuantą jednowymiarowego, standardowe-go rozkładu normalnego.

Punkt 1 poświęcony jest dwuwymiarowemu rozkładowi normalnemu. Po-każemy, że jest on ściśle związany z gaussowską funkcją łączącą. Następnie omówimy najczęściej stosowaną miarę zależności: współczynnik korelacji Pear-sona. Pokażemy jego wady: zależność od rozkładów brzegowych, brak nie-zmienniczości względem rosnących przekształceń oraz fakt, że dla ustalonych rozkładów brzegowych nie muszą być osiągalne wszystkie możliwe wartości tego współczynnika. W przypadku wielowymiarowych rozkładów eliptycznych, np. normalnych, współczynnik korelacji Pearsona nie ma tych wad. Na zakoń-czenie badamy rozkład sumy zmiennych losowych pod względem najczęściej stosowanej miary ryzyka, jaką jest VaR. Pokażemy, że największe wartości tej miary wcale nie muszą zachodzić dla ścisłej zależności ani dla niezależności. Niestety, z takim poglądem można się niekiedy spotkać na wystąpieniach konfe-rencyjnych czy w publikacjach związanych z analizą portfelową.

1

s

a

p

rnngznr

R Ź

1. R

stan

a m

para

rozknie nymgowzaleniż row

Rys.

Źród

RozW

ndar

maci

Dame

Brkładmu

m. Zwymeżnonor

wego

. 1. W

dło: O

zkłW d

rdow

erz

wuwetru rzed nusi wZacmi joścrmao ro

Wyk

Opra

ładdalszwy

z ko

wymr. Wgow

normwyn

chodjestci zaalneozkł

kres

cowa

d nozychroz

orela

miaWykwe rmalnnikdzi t opadae władu

dwu

anie

ormh r

zkła

( )acji

arowkresrozny. ać, tak

pisaana wielo

u n

uwy

wła

malrozwad n

)( ,i prz

wy, s gę

zkłaNiże

k jeana

jesowyorm

ymia

sne.

lnyważnorm, )zyjm

stanęstoady iestroz

edyngau

st zaymi

maln

arow

y żanimaln=muj

ndaości

wietetyzkłanie,ussa piaroneg

wego

Z

iachny.

2uje p

ardotegelow

y, z ad ł, gdowomowego.

o roz

Zależ

h bęJeg1√1post

owy o rowymfakłączdy ską

mocąe ro

zkład

żno

ędzgo g1−tać:=roz

ozkłmiaktu,zny struą fuą inozkł

du n

ość –

ziemgęsto

: =zkłaładuarow, żejes

uktuunkcnnycłady

norm

– fak

my jość exp1

ad nu dlwege rost wura cją ch y. N

maln

kty i

jedokrp −1

normla rgo rozkłwielo

załącfunNaw

nego

i mi

dynireśl−.

maln= 0

rozkładyowy

ależnczącnkcjwet

ity

ie rlona−2ny z

0,6 pkłady bymnoścą. ji łąist

rozpa jes− 2(1zaleprzedu nbrze

miarości W ączątotn

patrst w

−eży wedstnormegowowymięprzący

nie r

rywwzor+)więtawimalwe ym ędzzypych,różn

ać rem

ęc jeionylnegsą rozy r

padk, otne

dwm [W,

edyny jego mnor

zkłarozkku trzyod

wuwWan

nie st nmajrmaademkładgdy

ymuwie

wymng, 1

od jna ryją ralnem ndamy stujemelow

miaro199

jednys. 1rówe wnorm

mi btrukmy wym

8

owy99]:

neg1.

wniewcalmalbrzekturinnmia

87

y,

go

eż le l-e-ra ne a-

8

Pa

R Ź b

88

Prza. N

o

gm

Rys.

Źród

b. Pn

zykłNieo st

gdzman

a 1A

łącz

Ry

. 2. G

dło: O

Prznyc

ładech tand

zie nn,

A(t)zne

ysu

Gęst

Opra

ykłch [N

d 1 stru

dard

fun200

jesgo

unek

tość

cowa

ład Nel

uktudow

nkcj01]

st inopi

k 2

ć roz

anie

synlsen

ura wym

je f:

ndyisan

prz

zkład

wła

ngun, 1

zalm ro

f(t)

ykatna je

zeds

du łą

sne n

ularn999

leżnozk

,ora

(( )toreest

staw

ączn

na po

neg9].

nośkład

( ,az g

) =) =em zwz

F

wia

nego

odsta

go r

ści zdzie

, )g(t)

== −zbio

zore

F(x,

a gę

o z p

awie

rozk

Sta

zachnor

= za

( ,(

oruem:

y)

sto

przyk

e [Em

kład

anis

hodrma

adan

; ,, ; ,

u A.

= C

ść t

kład

mbrec

du ł

sław

dzącalny

+ne s

)(, )(Wt

Cf,g(tego

du 1a

chts,

łącz

w He

cej ym

są w

) −( ) +tedy

(Φ(o ro

a

, Mc

zneg

eilp

mięopi

( )wzo

− 23+ 23y d

( ),ozkł

cNeil

go

ern

ędzisan

)oram

(23 (dystr

, Φ(ładu

l, Str

o b

zy dna j

mi

, ;( , ;ryb

( )u.

raum

brze

dwojest

([Em

, ), )

buan

).

mann]

egow

omafun

)mbr

( )) (nta

].

wyc

a zmnkcj

, rech

), ), otr

ch r

miencją ł

hts,

zym

roz

nnyłącz

, M

man

zkła

ymi zącą

McN

nego

adac

losą po

Neil,

o ro

ch n

sowosta

, St

ozk

norm

wymaci:

trau

kład

mal

mi

u-

du

l-

Zależność – fakty i mity 89

Niech C(u, v) będzie funkcją łączącą będącą dystrybuantą rozkładu jed-nostajnego skupionego na brzegu kwadratu utworzonego przez wykresy linii v = u + 0,5 i v = –u + 0,5 dla 0 ≤ u ≤ 0,5 oraz v = u – 0,5 i v = –u + 1,5 dla 0,5 ≤ u ≤ 1 (rys. 3a). Wtedy rozkład łączny z dystrybuantą opisaną wzorem:

F(x, y) = C(Φ( ), Φ( ))

skupiony jest na krzywych określonych równaniem (rys. 3b): |Φ( ) − 0,5| + |Φ( ) − 0,5| = 0,5.

Z drugiej strony, sama gaussowska funkcja łącząca nie wyznacza nam wielowymiarowego rozkładu normalnego. Wstawiając do wzoru (1) gaus-sowską funkcję łączącą oraz inne niż normalne brzegowe dystrybuanty, nie otrzymamy dystrybuanty wielowymiarowego rozkładu normalnego.

a) b) Rys. 3. Krzywe, na których skupiona jest funkcja łącząca (a) oraz rozkład łączny (b) z przykładu 1b Źródło: Opracowanie własne na podstawie [Nelsen, 1999]. Przykład 2. Rozpatrzmy dwuwymiarowy rozkład o dystrybuancie: ( , ) = , ( ), ( ) ,

gdzie H(x) jest dystrybuantą rozkładu jednostajnego na odcinku [−3, 3]. Na rys. 4 przedstawiona jest gęstość f(x, y) tego rozkładu. Widzimy, że wykres ten istotnie różni się od wykresu gęstości dwuwymiarowego rozkładu normalnego (rys. 1). W punktach (−3, −3) oraz (3, 3) graniczna wartość gęstości jest równa nieskoń-czoności.

Gęstość f(x, y) z przykładu 2 została wyznaczona z następującego wzoru: ( , ) = , ( ), ( ) ℎ( )ℎ( ),

0

1

0 1-3

0

3

-3 0 3

9

gs

R

Ź 2

s

gnzP

90

gdzsow

Rys.

Źród

2. M

son

gdziniemzalePrzy

zie hwski

4. Ww

dło: O

MiaN

a r

ie cm seżnoykła

h(x)iej f

Wykwyz

Opra

aryNajc

okr

cov(tandościadow

) gęfun

kresznac

cowa

y zazęśreśl

(X, dardi linwo

ęstonkcj

gęszon

anie

ależciejlony

Y) =dow

niowzac

ościi łą

stoścej pr

wła

żnoj sty w

= Ewymwej. chod

ią rączą

ci rorzez

sne.

ośctoso

wzor

E(XYm zm

Niedzi

ozkącej

ozkłaz gau

ci owarem

Y) –miee jezale

r

kładj

adu usso

aną m:

– EXenneest oeżn

(Φ(

du j m

Φ

łączowsk

mi

XEYej Xon ność

(X),

Sta

ednoże( )

znegką fu

iarą

( ,Y jesX. Nniezmć [Em

, Φ(

anis

nostemy),Φ

go dwunkc

ą za

, )st k

Nalemiembr

(Y))

sław

tajny ob( )

wóchcję ł

ależ

) =kowaeży ennirech

) =

w He

negoblic) =

h roączą

żnoścovariajed

iczyhts, a

eilp

o nzyć

=

ozkłaącą

ści v(ancjdnaky zeMcarcs

ern

na [−ć ko( )( )

adów

jes,ą zm

k pae wzcNesin

−3, orzy( ,) (

w je

st w), mieamizglęeil, S(

3].ysta)( )

dno

wspó

ennyiętaćędu Stra, )

. Nając

.

stajn

ółcz

ych ć, żna

aum) .

atomc z z

nych

zyn

X iże jerosn

mann

miazale

h o s

nnik

i Y,est nącn, 20

ast eżno

struk

k ko

a sX

on ce pr001

gęsośc

kturz

orel

X jejedrzek

1]:

stości:

ze z

lacj

est odynikszt

ść g

zależ

ji P

odchie mtałc

gaus

żnośc

Pear

hylemiarenia

s-

ci

r-

e-rą a.

Zależność – fakty i mity 91

Współczynnik korelacji Pearsona jest jedynie niezmienniczy ze względu na rosnące przekształcenia liniowe, tzn. dla a, c > 0 zachodzi zależność:

r(aX + b, cY + d) = r(X, Y).

Kowariancję można zapisać w języku funkcji łączących wzorem [Em-brechts, McNeil, Straumann, 2001]: cov( , ) = ( ( ( ), ( ))∞

− Π( ( ), ( ))) .

Widzimy, że na wielkość kowariancji, jak i współczynnika korelacji Pearsona r wpływa nie tylko funkcja łącząca, ale i dystrybuanty rozkładów brzegowych. Nato-miast inne współczynniki korelacji: Kendalla τ i Spearmana ρ są jednoznacznie wy-znaczone przez funkcje łączące [Embrechts, McNeil, Straumann, 2001]: ( , ) = 4 ( , ) ( , ) − 1,

( , ) = 12 ( ( , ) − ) .

Należy też pamiętać, że gdy wariancje nie istnieją, to nie można wyznaczyć współczynnika korelacji Pearsona r. Ponadto dla ustalonych rozkładów brzego-wych X i Y nie wszystkie wartości współczynnika korelacji Pearsona r są osią-galne dla wszystkich możliwych rozkładów łącznych, czyli elementów rodziny ℱ(FX, FY). Mówi o tym poniższe twierdzenie pochodzące od Höffdinga i Frecheta.

Twierdzenie 1 [Embrechts, McNeil, Straumann, 2001]. Jeżeli X, Y są zmienny-mi losowymi o dowolnej strukturze zależności z dystrybuantami FX, FY oraz 0 < σX < ∞, 0 < σY < ∞, to: a. Zbiór wszystkich możliwych wartości współczynnika korelacji Pearsona jest

domkniętym przedziałem [rmin, rmax] oraz rmin < 0 < rmax. b. Najmniejszą wartość współczynnika korelacji rmin otrzymujemy wtedy i tylko

wtedy, gdy zmienne X, Y są przeciwmonotoniczne, a największą rmax dla współmonotonicznych.

c. rmin = –1 wtedy i tylko wtedy, gdy zmienne X, –Y mają rozkłady tego samego typu. Natomiast rmax = 1, gdy X, Y mają rozkłady tego samego typu.

d. Gdy sup{x: FX(x) < 1} = sup{x: FY(x) < 1} = ∞ oraz X, Y ≥ 0, to nigdy nie otrzymamy r = –1.

Stanisław Heilpern 92

Ekstremalne wartości współczynnika korelacji Pearsona występują jedynie, gdy zmienne są zależne liniowo, czyli Y = aX + b. Wartość r = 1 otrzymamy, gdy a > 0 oraz r = –1 gdy a < 0.

Przykład 3 a. Niech zmienne losowe X i Y mają rozkład wykładniczy o dystrybuantach

FX(x) = 1 – e-ax oraz FY(y) = 1 – e-by, gdzie a, b > 0. Największą wartość współczynnika korelacji otrzymamy dla współmonotonicznych zmiennych losowych. Wtedy Y = X oraz r(XY) = 1. Natomiast gdy zmienne te są prze-

ciwmonotoniczne, to Y = − (1 − ) oraz: ( ) = − (1 − )∞ = 12 −6 .

Współczynnik korelacji jest wtedy równy: ( , ) = 12 −6 − 11 = 1 − 6 .

Podsumowując, otrzymujemy:

rmin = 1 − ≈ −0,6449, rmax = 1.

b. Załóżmy teraz, że zmienne mają rozkład logarytmiczno-normalny: zmienna X z parametrami 0 i 1, a Y z parametrami 0 i σ > 0. Wtedy [Embrechts, McNeil, Straumann, 2001]:

rmin = r(eZ, e-σZ) = ( ) ,

gdzie zmienna losowa Z ma rozkład standardowy normalny oraz:

rmax = r(eZ, eσZ) = ( ) .

R Ź

wcNzσW

ww 3

z

w

g

Rys.

Źród

warczyNatzaleσ = Wy

w awsp

3. S

zale

wte

gdz

. 5. W

dło: O

Z rtośm wtomeży 1,

ykreR

anapółc

Sum

Zbeżno

edy

zie:

War

Opra

twści wwar

miasoda d

esy ozk

aliziczyn

my

badośc

dys

rtośc

cowa

wierdwsprtośt w

d wadla σwar

kładie pnni

y zm

damci za

stry

ci rm

anie

dzepółcść dw prartoσ > rtoś

d lopork k

mie

my tadan

ybua

, (A

min i r

wła

eniaczyndolnrzyości

3,5ści

ogarrtfelkore

enn

erana j

anta

) =A(s)

rmax

sne n

a 1dnni

nej ypadi pa5 wtychrytmlowelacj

nyc

z rojest

a su

=) =

dla

na po

d wka gradkuaram

wspóh g

miczwej.

ji P

ch

ozkt fun

umy

( )K(s{(u

róż

odsta

wynikor

anicu rometółczgranzno

NPear

los

kładnkc

y SC

s) =u1, …

Z

nych

awie

ika,relacy rozkłtru zynnnic: o-noależrson

sow

d sumcją ł

C ok

= {(…,

Zależ

h wa

e [Em

, żeacji rmin

ładuσ. Mnikrmin

ormży na.

wyc

myłącz

SC

kreś

((x1, un)

żno

arto

mbrec

e w r =nie

u loMa

k kon i r

malnwi

ch,

y zmząc

= X

ślon

),…,:

ość –

ści p

chts,

ob= –1e zaoga

aksyorelarmax

ny węc

, w

mieną C

X1 +

na j

… ,, xn)(

– fak

para

, Mc

bydw1. Dależarytmymaacji

x zowyk

w

wyz

nnyC. N

+ …

est

(): x( )

kty i

amet

cNeil

wu Dla ży omicalnąi jes

ostałkorz

tym

nac

ych Niec

… +

wz

(1 + ) +

i mi

tru σ

l, Str

przzm

od wczną wst zły pzystm

cza

losch:

Xn,

zore

)… …

ity

σ

raum

zypmien

waro-n

wartozawprzetywprz

ani

ow

,

em

=+ x+

mann,

padknnycrtośnormość

wszeedst

wanyzypa

ie V

wych

[He

( )xn ≤

, 200

kachch oci w

malnotr

e rótawy jeadk

VaR

h X

eilp

≤ s}(

01].

h no rowspnegrzymwn

wionest ku o

R

X1, …

pern

(, ) ≤

nie mozkłpółcgo smam

ny wne nczęostr

…, X

n, 20

, …≤ s}

możładzczynsytumy

w prna ryęstorożn

Xn,

011

… ,}.

żnazie nniuacj

y jedrzybys.

o w nie

gdy

1]:

),

a otwyków

cja dynbliż5. finst

y st

trzyykław aisto

nie, żeni

nansoso

truk

9

ymaadnia i botnigd

iu 0

sachowa

ktur

93

ać i-b. ie

dy 0.

h, ać

ra

Stanisław Heilpern 94

Dystrybuanta sumy zmiennych losowych jest ograniczona z dołu i z góry przez dystrybuanty Fmin i Fmax. Ich postać podana jest w twierdzeniu 2.

Twierdzenie 2 [Denuit, Genest, Marceau, 1999]. Niech X1, …, Xn będą dowol-nymi zmiennymi losowymi o strukturze zależności opisanej funkcją łączącą C. Jeżeli FS,C(s) jest dystrybuantą ich sumy SC = X1 + … + Xn, to

Fmin(s) ≤ FS,C(s) ≤ Fmax(s),

gdzie: ( ) = sup∈Σ( )max ( ) − + 1, 0 ,

( ) = inf∈Σ( )min ( ), 1 ,

oraz Σ(s) = {(x1, …, xn): x1 + … + xn = s} i ( ) = ( < ). Ponadto, nie istnieje też funkcja łącząca C, taka że graniczne dystrybuanty

Fmin i Fmax są dystrybuantami sumy SC, ale dla każdego x0 istnieje funkcja łącząca C0, taka że , ( ) = ( ). Podobnie jest dla ograniczenia Fmax.

Przejdźmy teraz do zbadania podstawowych miar ryzyka dotyczących sumy zależnych zmiennych losowych S. Taką miarę ryzyka będziemy oznaczać sym-bolem γ(S; C), gdzie C jest funkcją łączącą opisującą strukturę zależności zmiennych losowych Xi.

Koherentna miara ryzyka powinna spełniać cztery, pożądane w praktyce aksjomaty [McNeil, Frey, Embrechts, 2005]. Powinna być niezmiennicza względem transformacji, dodatnio jednorodna, monotoniczna i subaddytywna. Ostatnia własność, subaddytywność: γ(X + Y) ≤ γ(X) + γ(Y) zachodzi dla każdej zmiennej X i Y, związana jest z dywersyfikacją ryzyka. Najczęściej stosowaną w praktyce miarą ryzyka jest wartość narażona na ryzyko (Value-at-Risk) VaRα(X). Jest to prosta miara ryzyka będąca kwantylem zmiennej X:

VaRα(X) = inf{x: FX(x) ≤ α}.

Nie jest ona jednak koherentną miarą ryzyka. Nie spełnia warunku subad-dytywności. Można też pokazać [McNeil, Frey, Embrechts, 2005], że dla współmonotonicznych zmiennych losowych jest ona addytywna:

VaRα(S; M) = VaRα(X1) + … + VaRα(Xn).

Zależność – fakty i mity 95

Miara VaRα nie jest subaddytywna. Istnieje więc funkcja łącząca C, taka że VaRα(S; C) > VaRα(X1) + … + VaRα(Xn), czyli zachodzi relacja:

VaRα(S; M) < VaRα(S; C).

Współmonotoniczne zmienne losowe wcale nie muszą więc dawać naj-większej wartości VaRα dla ich sumy.

W przypadku gdy zmienne X1, ..., Xn mają łączny rozkład eliptyczny, to miara VaRα jest koherentna [McNeil, Frey, Embrechts, 2005]. Wtedy VaRα(S; M) ≥ ≥ VaRα(S; C) dla każdej struktury zależności. Podobna sytuacja zachodzi dla innej miary ryzyka: średniego niedoboru (expected shortfall) określonego wzorem: ES ( ) = 11 − VaR ( )d .

Dla ciągłych zmiennych losowych zachodzi zależność: ESα( ) = E( | > VaRα( )).

Średni niedobór jest koherentną miarą ryzyka również addytywną dla współmonotonicznych zmiennych losowych [McNeil, Frey, Embrechts, 2005]. Tak więc współmonotoniczne zmienne gwarantują nam największą wartość tej miary ryzyka:

VaRα(S; C) ≤ VaRα(S; M).

Ponadto, wcale nie jest prawdą, że wartość miary VaRα jest zawsze większa dla zmiennych współmonotonicznych niż dla przecimonotonicznych czy nieza-leżnych. Zagadnienie to poruszają przykłady 4 oraz 5. Przedstawiają one dwie przeciwstawne sytuacje.

Przykład 4 [Heilpern, 2011]. Niech zmienne losowe X1 i X2 mają rozkład wy-kładniczy o dystrybuancie Fi(x) = 1 – e-x. Na rys. 6 przedstawione są wykresy dystrybuant sumy przeciwmonotonicznych, niezależnych i współmonotonicz-nych tych zmiennych losowych oraz dolnego ograniczenia Fmin(x).

9

R Ź

omt

g=r

Po

Nb

96

Rys.

Źród

otrzmonto, ż

gdz=rozk

Przo dy

Natbień

. 6. W

dło: O

Wzymnotoże d

zie

Okład

zykłystr

tomństw

Wyk

Opra

Widzmuje

onidla

Cα (dmdu P

ładrybu

miasw b

kresy

cowa

zimemycznwa

je)mien

Par

d 5 [uan

t rylisk

y dy

anie

my, y dlnychrtoś

Va

st =nną reto

[Hencie

ys. kich

ystry

wła

że la zh. Nści

aRα(

fun.

syt.

eilpFi(

7b h 1.

ybua

sne n

dlzmiNatoα b

(S,

nkcj

tuac

ern(x) =

prz

ant s

na po

la mennom

blisk

W)

cję

n, 20= 1zeds

sumy

odsta

małnychiastkich

< V

łącz

otr

0111 −staw

y zm

awie

łychh wt dlh 1

VaR

ząc

rzym

]. N√ .

wia

Sta

mien

e [He

h wwspóa duotrz

Rα(S

cą,

muj

Nie W

a te

anis

nnyc

eilper

warółmużyzym

S, Π

dla

jem

ch zWykr

sam

sław

ch lo

rn, 2

rtośmonych muj

Π) <

a k

my d

zmiresy

me

w He

osow

2011]

ci noto

waem

< Va

tóre

dla

ienny dy

dy

eilp

wych

].

x nonicarto

my z

aRα

ej

roz

ne lystry

stry

ern

h o r

najwcznyości ależ

α(S,

istn

zkła

losoybu

ybu

rozkł

więychx rżno

M)

niej

adów

oweuant

uant

ładz

ększh, a relaości

) <

e x

w g

e Xt pr

ty d

zie w

zą najcje i:

Va

xα,

grub

X1 i Xrzed

dla

wykł

wajmnsą

aRα(

tak

boo

X2 mdsta

war

ładn

artoniejodw

(S, C

kie

ogo

majawio

rtoś

niczy

ść sząwro

Cα)

że

now

ją roone

ści

ych

dyą dlaotne

,

wyc

ozksą

pra

strya pre. O

,ch,

kładna

awd

yburze

Ozn

(np.

d Parys

dopo

uantciwacz

) =. dl

arets. 7a

odo

ty w-za

=la

to a.

o-

R Ź

wnbpnsww

Rys.

Źród

więnycbuaprawnie sze wrowię

. 7. W

dło: O

Wększch, aantywiewiędla

otnaększ

Wyk

Opra

W prze wa na

y ne róęksa α a jaza d

kresy

cowa

rzypwarajmiezawn

sze =

ak dla w

y dy

anie

padrtoś

mnieależ

ne. Wniż0,9w wsp

ystry

wła

dku ci d

ejszżnyWarż dl97 o

przpółm

ybua

sne n

gddys

ze dych rtośa w

od dzypamon

ant s

na po

dy ztryb

dla pi

ści wspódolnadknoto

sumy

odsta

zmibuaprzeprzVaRółmnej

ku roni

Z

y zm

awie

iennantyeciwzeciRα

mongra

rozczn

Zależ

mien

e [He

ne Xy otwmiwmdla

notoanickła

nych

żno

nnyc

eilper

Xi mtrzy

monomona przoniccy F

adu h zm

ość –

a

b

ch lo

rn, 2

majymuoton

notozec

cznyFmi

wymie

– fak

a)

b)

osow

2011]

ją rujemnicz

onicciwmychin(x)ykłaenny

kty i

wych

].

rozkmy znycznymon

h, je) (padnych

i mi

h o r

kładdla

ych.ychnotoednapatrniczh los

ity

rozkł

d Pa w. Dl

h zmoniak rz rzegosow

ładz

arewspó

la xmiecznaż

rys. o, gwyc

zie P

to, ółmx wiennynychpon7b

gdzch.

Paret

to mono

ięksychh zmnadb). Jzie

to

dlaotonszyh lomie

d dwJestwa

a kanicz

ych osoennywukt toartoś

ażdznyod wyych

kroto syść

egoych 60

ych h sątnieytua

Va

o x zmdyssą

ą zn mn

acjaaRα

9

najmien

stryju

naczniej

a odjes

97

j-n-y-uż z-j-d-st

Stanisław Heilpern 98

Literatura Denuit M., Genest C., Marceau E. (1999), Stochastic Bounds on Sums of Dependent Risks,

„Insurance: Mathematics and Economics”, No. 25, s. 85-104.

Embrechts P., McNeil A., Straumann D. (2001), Correlation and Dependence in Risk Management: Properties and Pitfalls [w:] Dempster M., Moffatt H.K. (eds.), Risk Management: Value at Risk and Beyond, Cambridge University Press, Cambridge.

Heilpern S. (2007), Funkcje łączące, Wydawnictwo AE, Wrocław.

Heilpern S. (2011), Aggregate Dependent Risk − Risk Measure Calculation, „Mathematical Economics”, No. 7(14), s. 93-110.

McNeil J.A., Frey R., Embrechts P. (2005), Quantitative Risk Management. Concepts, Techniques and Tools, Princeton University Press, Princeton.

Nelsen R.B. (1999), An Introduction to Copulas, Springer, New York.

Wang S.S. (1999), Aggregation of Correlated Risk Portfolios: Models & Algorithms, CAS Committee on Theory of Risk, Working Paper.

DEPENDENCE – FACTS AND MYTHS Summary: The main aim of the article is to show chosen issues of random variables which can be described in the form of copula functions. In the first part the relationship between two-dimensional normal distribution with Gaussian copula function was shown together with the most common measure – Pearson correlation coefficient. Conclusions were referred to multivariate elliptical distributions, mainly to normal distributions with major focus on generally used risk measure – value at risk (VaR). It was shown that the highest values of this measure need not appear for close dependence as well as for independence. Keywords: multivariate normal distribution, copula functions.