matematická statistika ii přednášky · 2006-11-25 · matematická statistika ii přednášky -...

63
Matematická statistika II přednášky - 1 - Christy Ing. Pavla Hošková, Ph.D. Pef 3. Patro č. 419 [email protected] Konzultační hodiny: út 11-12 14:30-15:30 Předmět je zakončen zápočtem a zkouškou Podmínky pro udělení zápočtu: - Řádná účast an cvičení (s tolerancí 3 absencí) - 2 kontrolní testy – výsledky jsou započítávány do výsledné známky u zkoušky - Vypracování projektu s využitím statistického programu SAS (projekt je oznámkován a známka se započítává do známky u zkoušky) Studenti kteří si zvol bakalářskou práci na katedře statistiky, mohou projekt zpracovávat v rámci své bakalářské práce. Ostatní studenti si sami navrhnou téma, které jim msí vyučující schválit Zkouška - Písemná a ústní - Součástí konečného hodnocení, tzn. Do výsledné známky, jsou započítávány také dílčí známky a to: o Z předmětu MSI o Z kontrolních testů o Z projektu Cíl předmětu Prohloubit znalosti ze základního kurzu matematické statistiky, zvládnout samostatné používání metodického aparátu analýzy datových souborů s využitím statistického softwaru Obsah předmětu - Regresní a korelační analýza - Analýza kategoriálních dat - Metody analýzy časových řad Doporučená literatura Statistika – Kába, Svatošová Regresní a korelační analýza Analýza závislostí Korelační analýza se zabývá vzájemnými (většinou lineárními) závislostmi, kdy se klade důraz především na intenzitu (sílu) vzájemného vztahu než na zkoumání veličin ve směru příčina – následek. Regresní analýza se zabývá jednostrannými závislostmi. Jedná se o situaci, kdy proti sobě stojí vysvětlující (nezávisle) proměnná v úloze „příčin“ a vysvětlovaná (závisle) proměnná v úloze „následků“. Dává odpovědi na otázky typu: jaký vztah existuje mezi proměnnými X a Y (lineární, kvadratický atd.), lze proměnnou Y odhadnout pormocí proměnné X a s jakou chybou? Statistická analýza má v těchto souvislostech následující cíle: - Poskytnout číselné míry vztahu dvou proměnných podobným způsobem, jako průměr a směrodatná odchylka popisjící chování jedné proměnné - Najít vzorce pro optimální predikci proměnné, kterou považujeme za závisle proměnnou - Ohodnotit chybu predikce - Ověřovat různé hypotézy o zkoumaném vztahu Dvourozměrná analýza dat Základní postup dvourozměrné analýzy je podobný jako v jednorozměrném případě: - Nejdříve se pokusíme zobrazit data graficky - Hledáme základní konfigurace a tendence v datech - Přidáváme numerické charakteristiky různých aspektů dat - Často se nám podaří vystihnout stručným způsobem základní konfiguraci dat pomocí pravděpodobnostního modelu

Upload: others

Post on 25-Dec-2019

6 views

Category:

Documents


0 download

TRANSCRIPT

Matematická statistika II přednášky

- 1 - Christy

Ing. Pavla Hošková, Ph.D. Pef 3. Patro č. 419 [email protected] Konzultační hodiny: út 11-12 14:30-15:30 Předmět je zakončen zápočtem a zkouškou Podmínky pro udělení zápočtu:

- Řádná účast an cvičení (s tolerancí 3 absencí) - 2 kontrolní testy – výsledky jsou započítávány do výsledné známky u zkoušky - Vypracování projektu s využitím statistického programu SAS (projekt je oznámkován a známka se započítává

do známky u zkoušky) Studenti kteří si zvol bakalářskou práci na katedře statistiky, mohou projekt zpracovávat v rámci své bakalářské práce. Ostatní studenti si sami navrhnou téma, které jim msí vyučující schválit Zkouška

- Písemná a ústní - Součástí konečného hodnocení, tzn. Do výsledné známky, jsou započítávány také dílčí známky a to:

o Z předmětu MSI o Z kontrolních testů o Z projektu

Cíl předmětu Prohloubit znalosti ze základního kurzu matematické statistiky, zvládnout samostatné používání metodického aparátu analýzy datových souborů s využitím statistického softwaru Obsah předmětu

- Regresní a korelační analýza - Analýza kategoriálních dat - Metody analýzy časových řad

Doporučená literatura Statistika – Kába, Svatošová Regresní a korelační analýza Analýza závislostí Korelační analýza se zabývá vzájemnými (většinou lineárními) závislostmi, kdy se klade důraz především na intenzitu (sílu) vzájemného vztahu než na zkoumání veličin ve směru příčina – následek. Regresní analýza se zabývá jednostrannými závislostmi. Jedná se o situaci, kdy proti sobě stojí vysvětlující (nezávisle) proměnná v úloze „příčin“ a vysvětlovaná (závisle) proměnná v úloze „následků“. Dává odpovědi na otázky typu: jaký vztah existuje mezi proměnnými X a Y (lineární, kvadratický atd.), lze proměnnou Y odhadnout pormocí proměnné X a s jakou chybou? Statistická analýza má v těchto souvislostech následující cíle:

- Poskytnout číselné míry vztahu dvou proměnných podobným způsobem, jako průměr a směrodatná odchylka popisjící chování jedné proměnné

- Najít vzorce pro optimální predikci proměnné, kterou považujeme za závisle proměnnou - Ohodnotit chybu predikce - Ověřovat různé hypotézy o zkoumaném vztahu

Dvourozměrná analýza dat Základní postup dvourozměrné analýzy je podobný jako v jednorozměrném případě:

- Nejdříve se pokusíme zobrazit data graficky - Hledáme základní konfigurace a tendence v datech - Přidáváme numerické charakteristiky různých aspektů dat - Často se nám podaří vystihnout stručným způsobem základní konfiguraci dat pomocí pravděpodobnostního

modelu

Matematická statistika II přednášky

- 2 - Christy

Korelační tabulka pro znaky X a Y

Cílem regresní a korelační analýzy je popis statistických vlastností vztahu dvou nebo více proměnných. Dvojrozměrný bodový graf nebo korelační tabulka dávají první představu o rozdělení sledovaných proměnných. Graf často indikuje překvapivé vlastnosti dat jako nelinearitu vztahu, nehomogenitu nebo přítomnost odlehlých hodnot. Korelační analýza Korelace obecně označuje míru stupně závislosti dvou proměnných. Říká se, že dvě proměnné jsou korelované, jestliže určité hodnoty jedné proměnné mají tendenci se vyskytovat společně s určitými hodnotami druhé proměnné. Míra této tendence může sahat od neexistence korelace (všechny hodnoty proměné Y se vyskytují stejně pravděpodobně s každou hodnotou proměnné X) až po absolutní korelaci (s danou hodnotou proměnné X se vyskytuje právě jedna hodnota proměnné Y). Při zkoumání korelačních vzathů má rozhodující význam kvalitativní rozbor podkladových výdajů. Nemá smysl měřit závislot tam, kde na základě logické úvahy nemůže existovat.

Bodový graf pro posouzení závislosti Y na X

160

165

170

175

180

185

190

195

200

160 165 170 175 180 185 190 195 200 205

Hodnoty proměnné X

Hod

noty

pro

měnn

é Y

Y X

y1 y2 … yj … ym ni.

x1 n11 n12 … n1j … n1m n1.

x2 n21 n22 … n2j … n2m n2.

.

.

.

… … … … … . . .

xi ni1 ni2 … nij … nim ni.

.

.

.

… … … … … . . .

xk nk1 nk2 … nkj … nkm nk.

n.j n.1 n.2 … n.j … n.m n..

Matematická statistika II přednášky

- 3 - Christy

Často je zbytečné měřit závislost v případech, když je korelace způsobena: - Formálními vztahy mezi proměnnými - Nehomogenitou studovaného základního materiálu - Působením společné příčiny

Formální korelace vzniká např. tehdy, když se zjišťuje korelace procentuálních charakteristik, jež se navzájem doplňují do 100% (např. korelace procentního zastoupení bílkovin a tuku v potravinách) Jestliže populace, kterou studujeme, obsahuje subpopulace, pro něž se průměrné hodnoty proměnných X a Y liší, vypočtené korelační vztahy jsou touto nehomogenitou silěn ovlivněny a jejich hodntoy nepopisují skutečný vztah mezi uvažovanými proměnnými. Nehomogenita materiálu se projeví na bodovém grafu tak, že shluky bodů pro subpopulace se budou nacházet v různých oblastech souřadnicového systému.

Příkladem korelací způsobených společnou příčinou jsou vztahy mezi něterými mírami těla, např. mezi délkou pravé a levé ruky. Zdánlivé korelace – jsou způsobené časovým faktorem nebo faktorem modernizace u dvou řad údajů. Příklad zdánlivé korelace Počet televizních přístrojů na osobu koreluje s očekávanou délkou života. Ve státech, kde je mnoho televizních přístrojů, dosahují obyvatelé vysokého věku. Je možné změnou počtu televizních přístrojů dosáhnout prodloužení věku v oblastech světa, kde je nižší očekávaná délka života? Podobným korelacím se někdy říká „nesmyslné“ korelace. Hodnota korelace je vysoká. Nesmyslný by byl závěr o příčinném působení. Korelační závislost je zdůvodněna proměnnou „národní důchod“, jež je společnou příčinou obou proměnných. Kromě působení proměnné jako „společné příčiny“ mohou působit matoucí (rušivé) proměnné, které korelují jak s cílovou proměnnou, tak s proměnnou ovlivňující. Proměnná v tomto případě znesnadňuje interpretaci, protože nelze rozlišit vliv matoucí a sledované ovlivňující proměnné na cílovou proměnnou. Postup pro ověřování kauzálního vztahu Formální korelace? ANO NE Nehomogenita? ANO NE Působení třetí veličiny? (zdánlivá korelace) ANO NE Kauzální vztah Závislost příčinná (kauzální) Při této závislosti jeden jev (příčina) vyvolává existenci (vznik, změnu, zánik apod.) jevu druhého. Jeden jev (příčina) podmiňuje jev jiný (účinek, následek). Příčinná závislost jevů má všeobecný charakter, neboť každý jev je příčinou a současně účinkem jevů jiných, takže existuje všeobecné zřetězení příčin a účinků. Příčinou souvislostí mezi např. dvěma jevy se rozumí situace, kdy výskyt určiéh jevu souvisí (má za následek, vyvolává) existenci jiného jevu. Pearsonův korelační koeficient - nejdůležitější íra síly vztahu dvou náhodných spojitých proměnných X a Y Korelační koeficient r počítáme pomocí tzv. Kovariance syx a směrodatných odchylek sx a sy obou proměnných:

Matematická statistika II přednášky

- 4 - Christy

,),cov(

yxyx

xy

ss

yx

ss

sr ==

( )( ).1

n

yyxxs

n

iii

xy

∑=

−−=

kde

Důležité vlastnosti korelačního koeficientu

1. Platí -1 ≤ r ≤ +1 2. Jestliže |r| = 1, leží všechny body na nějaké přímce. 3. Jestliže r = 0, nazýváme X a Y nekorelované proměnné. Dvě náhodné proměnné jsou tím více korelovány, čím

blíže je hodnota r k číslům +1 nebo -1. V tom případě lze vztah obou proměnných dobře vyjádřit přímkou. 4. Jesltiže r < 0, resp. r > 0, tak se Y v průměru zmenšuje, resp. zvětšuje při zvětšování proměnné X. Říkáme, že

je korelace záporná, resp. kladná. 5. Pearsonův korelační koeficient vyjadřuje pouze sílu lieárního vztahu. Špatně měří jiné vztahy, ať jsou jakkoli

silné. 6. Korelační koeficient se nezmění, když změníme jednotky měrení proměnných X a Y. 7. Podobně jako průměr nebo směrodatná odchylka, je korelační koeficient r velmi ovlivněn odlehlými

hodnotami. 8. Korelační koeficient r nerozlišuje mezi závisle a nezávisle porměnnou. 9. Korelační koeficient r není úplnými popisem dat i při velmi silném lineárním vztahu. Pro úplnější popis

potřebujeme znát rovnici přímky, která vyjadřuje tvar vztahu. 10. Pokud jedna z proměnných nemá náhodný charakter (její hodnoty jsou pevně určeny), není vhodné korelační

koeficient použit. 11. Korelace, ať je jakkoli silná, neznamená sama o sobě průkaz příčinného vztahu, tedy toho, že změny proměnné

X skutečně působí změny proměnné Y. Těsnost závislosti lze podrobně hodnotit zhruba takto: r < 0,3 těsnost nízká 0,3 ≤ r ≤ 0,5 těsnost mírná 0,5 ≤ r ≤ 0,7 těsnost význačná 0,7 ≤ r < 0,7 těsnost velká 0,9 ≤ r ≤ 1,0 těsnost velmi vysoká Interpretace hodnot korelačního koeficientu není tak přímočará, jako je tomu u většiny jednorozměrných charakteristik. Proto se doporučuje dopočítat další charakteristiky, jako jsou parametry proložené přímky nebo směrodatná chyba odhadu při regresi. Druhou mocninou koeficientu korelace je koeficient determinace, který udává, jaké procento rozptýlení empirických hodnot závisle proměnné je důsledkem rozptylu teoretičkých hodnot závisle proměnné odhadnutých na základě regresní přímky. Stupnice těsnosti závislosti podle koeficientu determinace je zhruba tato:

r2 < 10 % těsnost nízká 10 % ≤ r2 < 25 % těsnost mírná 25 % ≤ r2 < 50 % těsnost význačná 50 % ≤ r2 < 80 % těsnost velká 80 % ≤ r2 těsnost velmi vysoká Koeficient determinace lze také vyjádřit jako poměr vysvětlené vyriability k celkové variabilitě Y: Poznámka: rozptyl vyrovnaných hodnot (teoretický rozptyl) – vysvětlená variabilita rozptyl empirických (skutečně zjištěných) hodnot y – celková variabilita

( )( ) .2

2

2

∑∑

−−′

=yy

yyr

i

i

∑ −′=′22 )(

1yy

ns iy

( )22 1∑ −= yy

ns iy

Matematická statistika II přednášky

- 5 - Christy

Příklad Hodnotíme závislost výšky (cm) a váhy (kg) u 10 studentů. Dále jsme zjistili: Význam exploračního zobrazení dvourozměrných dat Základní statistické charakteristiky jsou pro všechny série dat stejné:

.816,0ra03,2s;5,7y;31,3s;9x yx =====

Student č. x y xx − yy − ( )( )yyxx −− 1 187 72 8 2 16 2 170 60 -9 -10 90 3 180 73 1 3 3 4 184 74 5 4 20 5 178 72 -1 2 -2 6 180 70 1 0 0 7 172 62 -7 -8 56 8 176 70 -3 0 0 9 186 80 7 10 70 10 177 67 -2 -3 6

součet 1790 700 0 0 259

179=x 70=y

329165,5=xs 53172667,5=ys

( )( )9,25

10

2591 ==−−

=∑

=

n

yyxxs

n

iii

xy

878577,053172667,5*329165,5

9,25 ==r

%19,77771898,0r2 ==

x1 y1 x2 y2 x3 y3 x4 y4 10 8,04 10 9,14 10 7,46 8 6,58 8 6,95 8 8,14 8 6,77 8 5,76 13 7,58 13 8,74 13 12,74 8 7,71 9 8,81 9 8,77 9 7,11 8 8,84 11 8,33 11 9,26 11 7,81 8 8,47 14 9,96 14 8,1 14 8,84 8 7,04 6 7,24 6 6,13 6 6,08 8 5,25 4 4,26 4 3,1 4 5,39 19 12,5 12 10,84 12 9,13 12 8,15 8 5,56 7 4,82 7 7,26 7 6,42 8 7,91 5 5,68 5 4,74 5 5,73 8 6,89

První série

3,5

4,5

5,5

6,5

7,5

8,5

9,5

10,5

11,5

3 5 7 9 11 13 15

Druhá série

2,5

3,5

4,5

5,5

6,5

7,5

8,5

9,5

10,5

3 5 7 9 11 13 15

Matematická statistika II přednášky

- 6 - Christy

84,0)1100(10

26*61rs =

−−=

Spearmanův korelační koeficient pořadí Používá se u méně rozsáhlých souborů nebo v případě, že chceme získat rychlou představu o intenzitě závislosti. Koeficient zachycuje monotónní vztahy (ne pouze lineární, ale obecně rostoucí nebo klesající); je rezistentní vůči odlehlým hodnotám. Tímto koeficientem měříme sílu vztahu X a Y, když nemůžeme předpokládat linearitu očekávaného vztahu nebo normální rozdělení proměnných X a Y. Jestliže rs = 1, resp. rs = -1, párové hodnoty (xi, yi) leží na nějaké vzestupné, resp. klesající funkci. Koeficient korelace pořadových čísel rs (-1 ≤ rs ≤ 1) se vypočte podle vztahu kde di jsou rozdíly pořadí Rx a Ry hodnot xi a yi vzhledem k ostatním hodnotám seřazeného výběru podle velikosti. Spearmanův koeficient rs se někdy používá pro odhad Pearsonova korelačního koeficientu r . Pro dvourozměrně normálně rozdělené proměnné Y a Y platí přibližný vztah ρ = 2 sin (0,523 ρs). Spearmanův koeficient korelace lze s výhodou uplatnit v situacích, kdy - potřebujeme rychlý a rezistentní odhad korelačního koeficientu r - testujeme schopnost zkoumané osoby správně řadit objekty nebo vlastnosti podle určitých hledisek tak, že ji necháme seřadit tyto objekty nebo vlastnosti a toto seřazení pak srovnáme se standardem, - testujeme možnost přítomnosti monotónního trendu v časové řadě měření. Příklad postupu při výpočtu Spearmanova korelačního koeficientu pořadí r = 0,82; rs = 0,82 r = 0,82; rs = 0,69

Třetí série

5

6

7

8

9

10

11

12

13

3 5 7 9 11 13 15

Čtvrtá série

4,5

5,5

6,5

7,5

8,5

9,5

10,5

11,5

12,5

13,5

7 9 11 13 15 17 19

,)1(

*61

21

2

−−=

∑=

nn

dr

n

ii

s

x y Rx Ry di = Rx - Ry di2

187 72 10 6,5 3,5 12,25170 60 1 1 0 0180 73 6,5 8 -1,5 2,25184 74 8 9 -1 1178 72 5 6,5 -1,5 2,25180 70 6,5 4,5 2 4172 62 2 2 0 0176 70 3 4,5 -1,5 2,25186 80 9 10 -1 1177 67 4 3 1 1

26Součet

První série

3,5

4,5

5,5

6,5

7,5

8,5

9,5

10,5

11,5

3 5 7 9 11 13 15

Druhá série

2,5

3,5

4,5

5,5

6,5

7,5

8,5

9,5

10,5

3 5 7 9 11 13 15

Matematická statistika II přednášky

- 7 - Christy

r = 0,82; rs = 0,99 r = 0,82; rs = 0,5 r = 0; rs = 0 r = -0,77; rs = -1 monotónní vztah Odhad a testování korelačního koeficientu Provádí se za předpokladu, že společné rozdělení obou proměnných lze modelovat dvourozměrným normálním rozdělením nebo – jinak vyjádřeno – rozdělení obou proměnných je normální a jejich vztah je přibližně lineární. Testuje se hypotéza o nulové hodnotě korelačního koeficientu základního souboru, tedy H0: ρyx = 0. Hypotéza předpokládá, že korelace neexistuje, tzn. veličiny X a Y jsou nezávislé. Alternativní hypotéza je postavena na existenci korelace, tedy H1: ρyx ≠ 0. Test hypotézy se provádí pomocí testového kritéria které má za platnosti H0 Studentovo t-rozdělení f = n – 2 stupních volnosti. V případě, že vypočtená hodnota testového kritéria padne do kritického oboru, zamítá se nulová hypotéza a existence lineární korelační závislosti se považuje za prokázanou. Intervalový odhad korelačního koeficientu V případě, že výběrový soubor má dostatečně velký rozsah (n > 100), lze rozdělení výběrového korelačního koeficientu aproximovat normálním rozdělením. Oboustranný interval spolehlivosti je v daném případě možno psát: přičemž Ve většině případů (především, kdy n < 100) se však využívá Fisherovy transformace, neboť výběrový koeficient korelace neodpovídá kritériím bodového odhadu. Místo výběrového koeficientu korelace r se zavádí transformovaná veličina zr.

Třetí série

5

6

7

8

9

10

11

12

13

3 5 7 9 11 13 15

Čtvrtá série

4,5

5,5

6,5

7,5

8,5

9,5

10,5

11,5

12,5

13,5

7 9 11 13 15 17 19

Pátá série

3,5

4,5

5,5

6,5

7,5

8,5

9,5

10,5

1,5 3,5 5,5 7,5 9,5 11,5 13,5 15,5

Šestá série

0

2

4

6

8

10

3 5 7 9 11 13 15

,2*1 2

−−

= nr

rt

zamításeHtt n 0)2( ⇒−αf

( ) ,1** αρ αα −=+≤≤− rr sursurP .1 2

n

rsr

−=

−+==→

r

rrhzr r 1

1ln

2

1)(arctan

Matematická statistika II přednášky

- 8 - Christy

Touto transformací se rozšířil interval hodnot –1 ≤ r ≤ +1 na interval -∞ ≤ zr ≤ +∞. Nová proměnná má přibližně průměr µzr a směrodatnou odchylku szr Dvoustranný interval spolehlivosti pro transformovanou veličinu základního souboru má vyjádření: Zpět do měřítka korelačního koeficientu převedeme oba krajní body intervalu pomocí inverzní transformace zr-1: Získáme tak interval spolehlivosti pro korelační koeficient ρ. Příklad n = 30; r = 0,717078; t0,05(28) = 2,048 H0: ρyx = 0 H1: ρyx ≠ 0 Regresní analýza Jde o přesnější popis tvaru vztahu mezi proměnnými X a Y a charakterizování jeho vhodnosti pro predikci hodnot závisle proměnné pomocí hodnot nezávisle proměnné. Může jít např. o následující situace:

- Korelační koeficient i graf prokazují lineární vztah mezi spotřebou zemního plynu v bytě v závislosti na venkovní teplotě. Otázka zní, jak přesně můžeme predikovat spotřebu pomocí teploty.

- Ve sportovním výzkumu máme např. data o rychlosti skokanů na hraně můstku a dosažené délce skoku. Zajímá nás, jaký je mezi nimi vztah: lze pomocí rychlosti predikovat délku skoku, s jakou přesností, je vztah lineární?

V regresní analýze obecně analyzujeme vztah mezi jednou proměnnou zvanou cílová nebo závislá proměnná (Y) a několika dalšími, které nazýváme nezávislé nebo ovlivňující proměnné (X). Vztah reprezentujeme matematickým modelem, což je rovnice, jež svazuje závisle s nezávisle proměnnou a pravděpodobnostní předpoklady, které by měl vztah splňovat. Závisle proměnná se spojena s nezávisle proměnnými funkcí nazývanou regresní funkcí, jež obsahuje několik neznámých parametrů. Jestliže tato funkce je lineární v těchto parametrech (nemusí být lineární v proměnných), mluvíme o lineárním regresním modelu. Statistické problémy, která nás zajímají v regresní analýze, jsou:

- získání statistických odhadů neznámých parametrů regresní funkce, - testování hypotéz o těchto parametrech, - ověřování předpokladů regresního modelu.

,1

1ln

2

1

−+=

r

rrzµ .

3

1

−=

ns

rz

( ) ,1** )2()2( αµ αα −=+≤≤− −− rrr znrzznr stzstzP

1

12

2

+−=

z

z

e

er

44399,5230*717078,01

717078,02

=−−

=t

zamításeHtt 0⇒αf

9016,0717,01

717,01ln

2

1 =

−+=rz

19245,0330

1

3

1 =−

=−

=n

srz

19245,0*048,29016,019245,0*048,29016,0 +≤≤−rzµ

( ) 95,029574,1468,0 =≤≤rzP µ

( ) 95,08606,04680,0 =≤≤ ρP

Matematická statistika II přednášky

- 9 - Christy

Prokládání dat přímkou Máme k dispozici uspořádané dvojice číselných údajů (x1, y1), (x2, y2), …, (xn, yn) pro proměnné X a Y. Jestliže graf ukáže lineární vztah mezi proměnnými, usilujeme o zachycení vztahu tím, že body proložíme přímku. Hledáme přímku, jež je experimentálním bodům co možná nejblíže (žádná přímka neprotne všechny body). Snažíme se určit takovou přímku, která bude co nejlépe predikovat y-hodnoty pomocí x-hodnot. Základní model regresní závislosti s jednou nezávisle proměnnou X vyjadřuje libovolnou hodnotu závisle proměnné Y jako: kde f(xi) je tzv. regresní funkce a ei je náhodná (reziduální) odchylka i-tého pozorování proměnné Y. Reziduální odchylka (chyba predikce) – rozdíl mezi naměřenou a očekávanou hodnotou.

Dobře proložená přímka y = a + b*x minimalizuje velikosti reziduálních hodnot pro hodnoty (xi, yi), kterými přímku prokládáme. Pro stanovení parametrů se nejčastěji používá metoda nejmenších čtverců. Hodnoty parametrů a, b přímky y = a + b*x získáme touto metodou tak, aby součet druhých mocnin reziduálních hodnot byl minimální vzhledem k parametrům a, b. Minimalizuje sečtené čtverce úseček, které vyznačují vzdálenost bodu od proložené přímky ve směru osy Y. Výpočet tohoto minima vede k optimálním hodnotám kde r je korelace obou proměnných a sx, sy jsou směrodatné odchylky naměřených hodnot proměnných X a Y. Hodnota yi` je odhad cílové proměnné pomocí regresního vztahu (yi` = a + bxi): reziduální hodnota = naměřená hodnota y – predikovaná hodnota y`. Rozptýlenost bodů kolem přímky je charakterizována zbytkovým (reziduálním) rozptylem, případně směrodatnou chybou odhadu při regresi (lze také posoudit přesnost provedených regresních odhadů jako míru chyby)

Jednostranná závislost – proměnná X je nezávisle proměnná a Y pak závisle proměnná. Oboustranná závislost – nelze přesně rozhodnout, která proměnná je závislá a která nezávislá. Vztahy pro regresi X na Y získáme vhodnou záměnou ve vzorcích (např. bxy = r*sx/sy, kde r je korelační koeficient). Mezi směrnicemi obou regresních přímek byx a bxy existuje vztah

.b*br xyyx=

.2n

)yy(

2n

es

2ii

2i2

x.y −′−

=−

= ∑∑

,)( iii exfy +=′

( )∑ ∑ −−== 222iiir bxayes

,,* xbyas

srb

x

y −==

ixyxyi

iyxyxi

ybax

xbay

+=′+=′

Matematická statistika II přednášky

- 10 - Christy

Můžeme tedy nalézt dvě regresní přímky, které se budou protínat v bodě a tvoří jakési nůžky. Čím větší je korelace, tím více jsou nůžky stisknuty. Metoda nejmenších čtverců – postup stanovení parametrů u jednoduché lineární závislosti Z podmínky minimálnosti čtverců jsou vyvozeny normální rovnice, ze kterých se jejich řešením vypočtou neznámé parametry a a b. Má-li tato funkce f(a,b) minimum, musejí se její první parciální derivace podle konstant a a b rovnat nule.

Tedy platí Vynásobením každé z rovnic –1/2, rozvedením součtů a osamostatněním součtů obsahujících yi se získá soustava normálních rovnic. Řešením soustavy normálních rovnic obdržíme:

iii

n

1i

n

1iiii x)bxay(2)x00)(bxay(2

b

)b,a(f −−−=−−−−=∂

∂∑ ∑

= =

3,5

5,5

7,5

9,5

11,5

13,5

3,5 5,5 7,5 9,5 11,5 13,5

x; y

ii bxay +=′

min)( 2

1

=′−∑=

n

iii yy

[ ] min)(),(2

1

=+−=∑=

n

iii bxaybaf

)(2)010)((2),(

1 1ii

n

i

n

iii bxaybxay

a

baf −−−=−−−−=∂

∂∑ ∑

= =

0)(21

=−−− ∑=

n

iii bxay

0)(21

=−−− ∑=

n

iiii xbxay

∑ ∑∑

∑ ∑

= ==

= =

+=

+=

n

i

n

ii

n

iiii

n

i

n

iii

xbxayx

xbnay

1 1

2

1

1 1

∑ ∑

∑ ∑ ∑

= =

= = =

−=

n

i

n

iii

n

i

n

i

n

iiiii

xxn

yxyxnb

1

2

1

2

1 1 1 xbya *−=

Matematická statistika II přednášky

- 11 - Christy

β

ββ

=

k

1

0

Jednostranná závislost – proměnná X je nezávisle proměnná a Y pak závisle proměnná. Oboustranná závislost – nelze přesně rozhodnout, která proměnná je závislá a která nezávislá (sdružené přímky). Vztahy pro regresi X na Y získáme vhodnou záměnou ve vzorcích (např. bxy = r*sx/sy, kde r je korelační koeficient). Mezi směrnicemi obou regresních přímek byx a bxy existuje vztah

Můžeme tedy nalézt dvě regresní přímky, které se budou protínat v bodě a tvoří jakési nůžky. Čím větší je korelace, tím více jsou nůžky stisknuty. Maticové vyjádření regresního problému Lineární (teoretický) model lze zapsat jako y = Xββββ + εεεε, ve kterém: y – n-členný náhodný vektor napozorovaných (zjištěných) hodnot vysvětlované proměnné Y, X – nenáhodná matice typu n x (k+1) zvolených n kombinací hodnot vysvětlujících proměnných, ββββ – je (k+1)členný vektor neznámých parametrů modelu, εεεε – n-členný vektor nepozorovatelné rušivé (náhodné) složky. Pro lepší představu Z uvedeného zápisu je vidět, že v n lineárních rovnicích je p = k+1 neznámých regresních parametrů a n hodnot náhodné složky. Soustavu normálních rovnic pro hledanou funkci y = Xb + εεεε lze pak v maticovém tvaru vyjádřit takto: Za předpokladu, že k matici X`X existuje matice inverzní, dostaneme vektor odhadovaných parametrů podle vztahu

.b*br xyyx=

ixyxyi

iyxyxi

ybax

xbay

+=′+=′

3,5

5,5

7,5

9,5

11,5

13,5

3,5 5,5 7,5 9,5 11,5 13,5

x; y

=

ny

y

y

M

2

1

y

=

nkn

k

k

xx

xx

xx

L

MMMM

L

L

1

221

111

1

1

1

X

=

εε

M

2

1

ε

yXXbX ′=′

( ) .yXXXb 1 ′′= −

Matematická statistika II přednášky

- 12 - Christy

Maticově lze stanovit i hodnotu korelačního indexu. Předpoklady metody nejmenších čtverců Regresní parametry ββββ mohou nabývat libovolných hodnot. V technické praxi však často existují omezení parametrů, která vycházejí z jejich fyzikálního smyslu. Regresní model je lineární v parametrech a platí aditivní vztah y = Xββββ + εεεε. Vysvětlující proměnné X1, X2, …, Xk jsou nenáhodné a neexistuje mezi nimi funkční lineární závislost. Pro danou kombinaci hodnot vysvětlujících proměnných jsou hodnoty nepozorovatelné rušivé složky εi normálně rozdělené, nezávislé náhodné veličiny s nulovými středními hodnotami a se stejným (konstantním) rozptylem σ2. Neboli vektor hodnot rušivé složky εεεε má n-rozměrné normální rozdělení N(0, σ2) s vektorem středních hodnot E(ε) = 0 a s kovarianční maticí σ2 E, kde E je jednotková matice. Náhodné chyby εi mají nulovou střední hodnotu E(εi) = 0, konstantní a konečný rozptyl E(εi2) = σ2. Také podmíněný rozptyl D(y/x) = σ2 je konstantní a jde o homoskedastický případ. Náhodné chyby εi jsou vzájemně nekorelované a platí cov (εi, εj) = E(εi, εj) = 0. Pokud mají chyby normální rozdělení, jsou nezávislé. Odhady v regresní analýze Interpolace – předmětem zájmu je některá z použitých kombinací vysvětlujících proměnných Extrapolace – pozornost je upřena na hodnotu proměnné Y pro předpokládané budoucí nebo výzkumně zajímavé kombinace hodnot proměnné Y. Je nutné odlišit dva významově zásadně odlišné případy:

� Odhad průměrné hodnoty Y neboli odhad podmíněné střední (očekávané) proměnné Y vzhledem ke zvolené hodnotě (kombinaci hodnot) vysvětlující proměnné.

� Odhad konkrétní hodnoty y`i neboli předpověď y`i = a + bxi hodnoty proměnné Y vzhledem ke zvolené hodnotě (kombinaci hodnot) vysvětlující proměnné.

Pás spolehlivosti kolem regresní přímky Z rovnice regresní přímky zkoumaného souboru lze určovat teoretickou hodnotu závisle proměnné příslušející určité skutečné hodnotě nezávisle proměnné. Avšak skutečné konkrétní hodnoty závisle proměnné jsou více méně rozptýleny kolem stanovené regresní přímky. Se zvolenou pravděpodobností je možno určit tzv. pás spolehlivosti, v němž se tyto skutečné (empirické) hodnoty nacházejí jako sy.x je směrodatná chyba, která je rovna přičemž jsou 100 (1-α/2)% kvantily Studentova t-rozdělení s (n-2) stupni volnosti

( )

( )∑

−′

−′′=

2

2

1

1

i

i

yn

ynI

yy

yXb

( )( )

( )

=

=

2

2

2

21

2212

1211

00

00

00

)cov()cov(

)cov()cov(

)cov()cov(

)cov(

σ

σσ

εεεεε

εεεεεεεεεε

εε

L

MMMM

L

L

L

MMMM

L

L

nnn

n

n

ii

D

D

D

..

21

xyi sty •±′−α

,22

)(

211

2

1

2

1

2

. −

′−=

′−=

−=

∑∑∑∑====

n

yyy

n

yy

n

es

n

iii

n

ii

n

iii

n

ii

xy

( ) .1 111∑ ∑∑∑

= ===

+=+=′n

i

n

iiiyxiyx

n

iiyxyxi

n

iii yxbyaxbayyy

21

α−t

Matematická statistika II přednášky

- 13 - Christy

Příklad Pro závislost proměnné Y na proměnné X byla stanovena regresní přímka ve tvaru y`i = 4,375 + 0,01994 xi a pomocné výpočty

n = 12 t1-α/2 (10) = 2,228 yi (min, max) = 4,375 + 0,01994 xi ± 2,228 * 1,082 Znamená to, že dolní mez pro skutečné hodnoty je yi (min) = 1,96456 + 0,01994 xi a horní mez yi (max) = 6,78626 + 0,01994 xi Test významnosti regresního koeficientu Nulová hypotéza předpokládá, že výběrový koeficient regrese je odhadem regresního koeficientu ZS, o němž se předpokládá, že má nulovou hodnotu, tzn. že platí H0: βyx = 0. Testové kritérium má tvar V případě, že se zamítá H0, je existence lineární závislosti prokázána a odvozenou regresní funkci lze použít k provádění regresních odhadů. Intervalový odhad regresního koeficientu Oboustranný interval spolehlivosti pro regresní koeficient je vymezen následujícím způsobem: Příklad - y`i = 4,375 + 0,01994 xi H0: βyx = 0 t0,05(10) = 2,228

( )082,1

212

4,3200501998,01,117375,435,1162s x.y =

−•+•−=

4,3200535,11621,117 2 === ∑ ∑∑ iiii yxyy

5

6

7

8

9

10

11

12

13

14

190 210 230 250 270 290 310 330 350

kdes

bt

yxb

yx,= .

2

1*

2

−−=

n

r

s

ss

x

ybyx

zamításeHtt n 0)2( ⇒−αf

( ) .1** )2()2( αβ αα −=+≤≤− −− yxyx bnyxyxbnyx stbstbP

0076581,0212

635697,01*

6027,42

33652,1 2

=−

−=yxbs

Matematická statistika II přednášky

- 14 - Christy

Test významnosti regresní přímky K testování lze použít upravený model analýzy rozptylu.

p – počet parametrů ověřované funkce Jestliže F > Fα [(p-1); (n-p)], zamítáme H0. Příslušné součty čtverců se stanoví následujícím způsobem: pro variabilitu regrese pro variabilitu kolem regrese pro celkovou variabilitu Příklad Pro závislost proměnné Y na proměnné X byla stanovena regresní přímka ve tvaru y`i = 4,375 + 0,01994 xi.

60416,20076581,0

0199429,0 ==t zamításeHtt 0⇒αf

( ) 95,00076581,0*228,201994,00076581,0*228,201994,0 =+≤≤− yxP β( ) 95,0037,000288,0 =≤≤ yxP β

( )2

11 ∑

=

−′=n

ii yyS

( )2

1∑

=

′−=n

iiir yyS

( )2

1∑

=

−=n

ii yyS

xi yi y i yyi −′ yi - y i

268 8,7 9,720109 0,0015 1,0406 312 11,1 10,5976 0,7044 0,2524 223 8,8 8,822679 0,8754 0,0005 203 9,3 8,423821 1,7809 0,7677 248 8,7 9,321251 0,1910 0,3860 328 10,2 10,91668 1,3418 0,5136 303 9,3 10,41811 0,4353 1,2502 325 12,2 10,85685 1,2067 1,8040 275 11,4 9,85971 0,0103 2,3725 218 7,6 8,722964 1,0720 1,2610 248 10,5 9,321251 0,1910 1,3894 288 9,3 10,11897 0,1301 0,6707

celkem -- -- 7,9404 11,7087

Matematická statistika II přednášky

- 15 - Christy

S1 = 7,9404 Sr = 11,7087 S = 19,6492 F0,05 [(2-1); (12-2)] = 4,96 F > Fα [(p-1); (n-p)] ⇒ zamítáme H0 Intervalový odhad regresní přímky Interval spolehlivosti, který s danou pravděpodobností pokrývá hledanou regresní přímku základního souboru y`j = αyx + βyxxj, je určen na základě regresní přímky výběrového souboru y`i = ayx + byxxi a je vyjádřen takto:

sx2 – rozptyl proměnné X sy – směrodatná odchylka proměnné Y

75833,9=y7,9404

12

9404,7

112

1 =−

=−

=p

Ss

1,17087212

7087,112 =−

=−

=pn

Srsr

7816,617087,1

9404,72

21 ===rs

sF

( ) ( ).111

2

2

212

2

21

ααα −=

−+•+′≤′≤−+•−′−−

x

iyij

x

iyi s

xxsuyy

s

xxsuyP

( )2

2

21

),( 1x

iyiDHj s

xxstyy

−+•±′=′−α

n

ss y

y =

38582,012

33652,133652,16027,4292,269 ===== yyx sssx

( )9924,1814

92,269138582,0228,21994,03754,4

2

),(

−+•±+=′ iiDHj

xxy

xi y i y j(H) y j(D) 268 9,720 8,860 10,581 312 10,598 9,389 11,806 223 8,823 7,544 10,101 203 8,424 6,823 10,024 248 9,321 8,355 10,288 328 10,917 9,463 12,370 303 10,418 9,330 11,506 325 10,857 9,452 12,262 275 9,860 8,994 10,725 218 8,723 7,368 10,078 248 9,321 8,355 10,288 288 10,119 9,185 11,053

Matematická statistika II přednášky

- 16 - Christy

Standardním výstupem většiny programů regresní analýzy je závěr Fisherova-Snedecorova F-testu o významnosti regresní přímky a výsledky Studentova t-testu o významnosti jednotlivých parametrů vektoru ββββ (vektor regresních parametrů modelu). F-test určuje zároveň simultánní významnost všech složek vektoru ββββ kromě absolutního členu. Mohou tedy nastat tyto případy: - F-test vychází nevýznamný, všechny t-testy vychází rovněž jako nevýznamné. Model se pak považuje za nevhodný, protože nevystihuje variabilitu proměnné y. - F-test i všechny t-testy vychází významné. Model se považuje za vhodný k vystižení variability proměnné y. To však ještě neznamená, že je model navržen správně. - F-test vychází významný, ale t-testy nevýznamné u některých regresních parametrů. Model je považován za vhodný a provádí se případné vypouštění těch vysvětlujících proměnných xi, pro které jsou parametry βi nevýznamně odlišné od nuly. - F-test sice vychází významný, ale t-testy parametrů ββββ indikují nevýznamnost všech vysvětlujících proměnných. To je paradox, protože formálně sice model jako celek vyhovuje, ale žádná z vysvětlujících proměnných není sama o sobě významná. Jde o důsledek multikolinearity.

Matematická statistika II přednášky

- 17 - Christy

Hodnocení kvality regresního modelu Pro hodnocení kvality každého modelu je vždy rozhodujícím kritériem cíl analýzy, a tím i použitelnost výsledků. Vážné důsledky má nejen volba špatného typu regresního modelu a nedostatky použitých statistických údajů, jakož i výběr nevhodné metody odhadu parametrů, ale i neoprávněnost některých (někdy nevědomě učiněných) předpokladů a podmínek. Potíž je v tom, že nejrůznější vyskytující se narušení modelu, dat, metody či předpokladů bývají vzájemně natolik propojená, že izolovaný nebo postupný způsob hodnocení různých aspektů úlohy nemusí být dostatečný ani prospěšný. V této souvislosti nás mohou zajímat různé otázky, např.: - Jaké máme věcné nebo empirické informace. - Jakým způsobem byla data pořízena a jaká je jejich kvalita. - Které jsou rozhodující a méně důležité vysvětlující proměněné. - Doporučený nebo vyzkoušený typ modelu a regresní funkce. - Jak jsou splněné podmínky a předpoklady lineárního modelu. - Jaká je přesnost regresních odhadů. - Jaké jsou důvody případné nedostatečné přesnosti odhadu. Regresní diagnostika Provádí se v případě, kdy nejsou splněny předpoklady o datech a regresním modelu a kdy není metoda nejmenších čtverců vhodná ke stanovení regresních parametrů. Regresní diagnostika obsahuje postupy k identifikaci: - kvality dat pro navržený model, - kvality modelu pro daná data, - splnění základních předpokladů metody nejmenších čtverců. V rámci zvolených postupů lze do regresní diagnostiky zahrnout metody pro průzkumovou analýzu jednotlivých proměnných, metody pro analýzu vlivných bodů a metody pro odhalení porušení předpokladů MNČ. Základní rozdíl mezi regresní diagnostikou a klasickými testy spočívá v tom, že u regresní diagnostiky není třeba přesně formulovat alternativní hypotézu a jsou přitom odhaleny typy odchylek od ideální situace.

Matematická statistika II přednášky

- 18 - Christy

Využití pr ůzkumové analýzy V regresní analýze se využívá těchto metod: - pro určení statistických zvláštností jednotlivých proměnných nebo reziduí, - k posouzení „párových“ vztahů mezi všemi sledovanými proměnnými, - k ověření předpokladů o rozdělení proměnných nebo reziduí. Mezi základní techniky průzkumové analýzy patří i stanovení volby rozsahu a rozmezí dat, jejich variability a přítomnosti vybočujících pozorování. Přes svoji jednoduchost umožňuje průzkumová analýza identifikovat před vlastní regresní analýzou: - nevhodnost dat (malé rozmezí nebo přítomnost vybočujících bodů), - nesprávnost navrženého modelu (skryté proměnné – často souvisí s časem nebo pořadím měření), - multikolinearitu, - nenormalitu v případě, kdy jsou vysvětlující proměnné náhodné veličiny. Posouzení kvality dat - úzce souvisí s užitým regresním modelem Při posuzování se sleduje především výskyt vlivných bodů, které jsou hlavním zdrojem problémů, jako je zkreslení odhadů a růst rozptylů až k naprosté nepoužitelnosti regresních odhadů parametrů (ve zvláštních případech však zlepšují predikční schopnosti modelů). Vlivné body silně ovlivňují většinu výsledků regrese a lze je rozdělit do tří základních skupin: - Hrubé chyby, které jsou způsobeny měřenou veličinou – vybočující pozorování – nebo nevhodným nastavením vysvětlujících proměnných – extrémy. Jsou obyčejně důsledkem chyb při manipulaci s daty. - Body s vysokým vlivem jsou speciálně vybrané body, které byly přesně změřeny a které obvykle rozšiřují predikční schopnosti modelu. - Zdánlivě vlivné body vznikají jako důsledek nesprávně navrženého regresního modelu. Podle toho, kde se vlivné body vyskytují, lze provést dělení na: - vybočující pozorování, které se na ose y výrazně liší od ostatních, tzn. takové vysoké či nízké hodnoty yi, které se zásadně liší od ostatních hodnot vysvětlované proměnné Y - extrémy, které se liší v hodnotách na ose x nebo v jejich kombinaci (v případě multikolinearity) od ostatních bodů – představují zásadně odlišnou kombinaci hodnot vysvětlujících proměnných. Vyskytují se však i body, které jsou jak vybočující, tak i extrémní. O jejich výsledném vlivu však především rozhoduje to, že jsou extrémy. K identifikaci vlivných bodů typu vybočujícího pozorování se využívá zejména analýza reziduí a k identifikaci extrémů pak diagonálních prvků tzv. projekční matice. Statistická analýza reziduí Rezidua jsou základní diagnostickým nástrojem, a to nejen při hodnocení kvality regresní funkce a dat, ale i obecněji při posuzování oprávněnosti předpokladů zvoleného lineárního regresního modelu. Rezidua lze zjednodušeně charakterizovat jako lineární kombinaci všech chyb. Lze říci, že jakákoli systematičnost (nenáhodnost) zjištěná u reziduí indikuje nějaký (zatím neidentifikovaný) nedostatek odhadnutého regresního modelu. Může to být chybně zvolený typ regresní funkce, nevhodný plán experimentu, nenáhodný výběr, nesprávně zvolené vysvětlující proměnné, nesplnění předpokladů modelu, špatné představy o modelu, chybná nebo příliš vlivná pozorování, silná vzájemná závislost vysvětlujících proměnných, ale i jiná narušení regresní úlohy. Není tak podstatné, zda jde o vybočující pozorování nebo extrémy, ale každopádně obecně velkým problémem odhadů pořízených MNČ je jejich nesmírná citlivost na pozorování, která se od jiných v něčem důležitém výrazně liší.

Matematická statistika II přednášky

- 19 - Christy

Typy reziduí a jejich vlastnosti Klasická rezidua Jsou rozdíly mezi skutečnými a odhadnutými hodnotami vysvětlované proměnné Y (yi – y`i). Klasická rezidua jsou korelovaná, s nekonstantním rozptylem, jeví se normálnější a nemusí indikovat silně odchýlené body. Predikovaná rezidua Rezidua počítaná bez i-tého pozorování jsou zbavena vlivu tohoto pozorování. y`i(-i) je vyrovnaná hodnota získaná na základě n-1 pozorování při vypuštění i-tého pozorování. Odpovídající predikované reziduum je vypočteno jako rozdíl skutečné hodnoty yi a takto odhadnuté hodnoty y`i(-i) ei(-i) = yi - y`i(-i). Predikovaná rezidua jsou korelovaná, mají normální rozdělení s nulovou střední hodnotou a s nestejným rozptylem. Normovaná rezidua Soudí se o nich, že jsou to normálně rozdělené veličiny s nulovou střední hodnotou a jednotkovým rozptylem. K ocenění jejich vlivu se používá pravidla 3σ, tj. hodnoty větší než ± 3σ jsou brány za vybočující. Rozhodně je však nelze doporučit pro identifikaci odlehlých pozorování (silně vlivné extrémní body), protože snadno může dojít k vyloučení správných pozorování a zachování chybných značně odlehlých hodnot. Standardizovaná rezidua Mají konstantní rozptyl a vzniknou dělením reziduí jejich směrodatnou odchylkou, tzn. mají nulovou střední hodnotu a jednotkový rozptyl. Jackknife rezidua Jsou alternativou ke standardizovaným reziduím. Jejich výpočet je podobný jako u standardizovaných reziduí, místo směrodatné odchylky reziduí se však použije směrodatná odchylka získaná při vynechání i-tého bodu. Tato rezidua mají za předpokladu normality chyb Studentovo rozdělení s n – m – 1 stupni volnosti. Tato rezidua se využívají pro odhalení neznámých příliš vlivných či podezřelých pozorování (vybočujících bodů), nemusí však být spolehlivá v případě extrémů. Nekorelovaná rezidua V konkrétní regresní úloze je možné sestavit jen n – p nekorelovaných reziduí, která vždy existují. Nekorelovaná rezidua jsou lineární transformací klasických reziduí se stejným reziduálním součtem čtverců. Rekurzivní rezidua (dopředná nebo zpětná) Jsou typem nekorelovaných reziduí při využití rekurzivní MNČ, jejímž principem je opakovaný iterativní odhad parametrů regresního modelu MNČ s tím, že v každé iteraci se postupně přidává do výpočtu jeden bod (řádek xi matice X a hodnota yi). Odpovídající rekurzivní rezidua umožňují identifikovat nestabilitu modelu, např. v čase. Grafická analýza reziduálních hodnot Pomáhá ověřit kvalitu proložení dat přímkou a odhalit neobvyklé hodnoty (vybočující pozorování, extrém, vlivné body). Patří sem tři základní typy grafů: Typ I: Graf závislosti reziduí ei na indexu i Typ II: Graf závislosti reziduí ei na proměnné xi Typ III: Graf závislosti reziduí ei na predikci y`i Nedoporučuje se konstruovat graf závislosti reziduí ei na naměřených hodnotách yi, protože jde o korelované veličiny. Lze tvrdit, že předpoklad lineárního vztahu je dobře splněn.

Matematická statistika II přednášky

- 20 - Christy

Obrázek indikuje, že rozptyl bodů kolem regresní přímky se zvyšuje s rostoucím X.

Konfigurace naznačuje nutnost použití některé nelineární regresní křivky.

Při zobrazení párových hodnot (ti, ei), kde ti je časový okamžik i-tého měření, můžeme dostat konfiguraci, která upozorňuje na to, že časový faktor by měl být součástí regresního modelu.

Graf obsahuje dva neobvyklé body, jež mohou být klasifikovány jako odlehlá hodnota.

Matematická statistika II přednášky

- 21 - Christy

Odlehlý bod je takový, který leží mimo základní konfiguraci bodů v grafu. Údaj může být odlehlý ve směru Y, ve směru X nebo v obou směrech. Odlehlý údaj ve směru nezávisle proměnné se nazývá vybočující. Bod nazýváme vlivný , pokud se po jeho odstranění podstatně změní poloha regresní přímky. Body, jež jsou odlehlé ve směru X, jsou často vlivné. Na obrázku je takovým bodem bod b. Bod a představuje pak vybočující pozorování. Vlivná pozorování Vlivné body jsou takové body, jejichž vynecháním dochází k zásadní změně regresních charakteristik (odhadu parametrů, vyrovnaných hodnot, odhadů kovarianční matice či dalších). Tyto body je nutné identifikovat, protože jsou-li chybné, dochází ke značnému zkreslení regresních výsledků. Pro identifikaci vlivných bodů jsou nejvhodnější techniky, které jsou založené na hodnocení důsledků vypuštění i-tého bodu na regresní charakteristiky (např. grafické znázornění predikovaných reziduí). Postup při lineární regresní analýze Postup při vyšetřování a konstrukci lineárního regresního modelu se skládá z těchto fází: - Návrh modelu – začíná se od nejjednoduššího modelu, kde se nevyskytují žádné interakční členy (vztahy mezi proměnnými). V případě, kdy je předem známé, že model má obsahovat funkce vysvětlujících proměnných, může být výchozí model patřičně upraven dle těchto požadavků. - Předběžná analýza dat – sleduje se proměnlivost jednotlivých proměnných a možné párové vztahy. - Odhadování parametrů – provádí se klasickou MNČ, stejně jako i určení základních statistických charakteristik. Následuje test významnosti jednotlivých parametrů pomocí Studentova t-testu a koeficientu korelace. - Regresní diagnostika – je prováděna identifikace vlivných bodů a ověření, jsou-li splněny předpoklady metody nejmenších čtverců. Na základě nalezených vlivných bodů se rozhoduje, zda je nutné tyto body z dat eliminovat, nebo je možné tyto body v datech ponechat. Pokud dojde k úpravě dat, je třeba provést znovu regresní diagnostiku se zaměřením na porušení předpokladů MNČ. - Konstrukce zpřesněného modelu – např. využitím metody vážených nejmenších čtverců, metody zobecněných nejmenších čtverců, metody podmínkových nejmenších čtverců, metody rozšířených nejmenších čtverců, robustních metod pro jiná rozdělení dat než normální a data s vybočujícími hodnotami a extrémy. - Zhodnocení kvality modelu – využitím klasických testů, postupů regresní diagnostiky a doplňkových informací se provede zhodnocení kvality navrženého lineárního regresního modelu. - Testování různých hypotéz – ve zvláštních případech, jako je porovnání několika přímek atd., se provádí testování pomocí dalších testů k ověřování rozličných typů hypotéz. Nelineární regresní modely V některých případech vyplyne z úvahy nebo grafického znázornění bodů (xi, yi), že regresní vztah proměnných X a Y nelze popsat přímkou. Potom hledáme jiné jednoduché regresní křivky, které dokáží popsat sledovanou závislost. V některých případech předběžná znalost a teoretický rozbor situace vede k několika možným nelineárním vztahům, mezi kterými je třeba na základě pozorovaných hodnot vybrat. Na druhé straně v případě empirických modelů, konstruovaných pouze na základě pozorovaných dat, je vhodné uvážit možnost použití lineárního modelu, který umožňuje pracovat s postupy známými z lineární regrese a vyhnout se problémům spojených s aplikací nelineárního modelu. Jde hlavně o případy nedostatečné představy o vhodném modelu nebo velkého počtu vysvětlujících proměnných. Je třeba si uvědomit, že na rozdíl od lineárních parametrů mají v modelech vznikajících v nejrůznějších oblastech technických, chemických či ekonomických aplikací parametry jasný význam a přesnou interpretaci – určují rychlostní konstanty, materiálové charakteristiky, rychlosti růstu apod. Vzhledem k průběhu regresních funkcí, kterými je závislost popsána, mohou mít parametry význam pro určení tvaru regresní funkce – jsou to např. asymptoty, směrnice, inflexní body. Proto jsou často cílem analýzy hodnoty parametrů (v případě regresního modelu ovšem jejich bodový odhad). Na druhé straně je třeba při interpretaci odhadů modelových parametrů brát v úvahu, že jde o náhodné veličiny, které mají nejenom svůj rozptyl, ale bývají často i silně korelované. Jednoduché nelineární modely tak mohou při zpracování přinášet řadu problémů, a to jak z hlediska správnosti odhadů parametrů, tak i jejich interpretace. Často se lze setkat s přeceňováním možností nelineárních modelů. Modely bývají používány i mimo rozsah své platnosti a předpokládá se, že mohou doplňovat chybějící informace v datech. Výsledek nelineární regrese závisí na kvalitě regresního tripletu data – model – kritérium regrese. Jejich správné zadání vede k odhadům parametrů vyhovujícím po stránce formální, fyzikální i statistické (příp. jiné).

Matematická statistika II přednášky

- 22 - Christy

Nejpoužívanější typy jednorovnicových regresních modelů Zcela lineární model Je určitě správný v případě vícerozměrného normálního rozdělení uvažovaných náhodných veličin, ale lineární zjednodušení bývá úspěšné ve všech úlohách s větším počtem vysvětlujících proměnných, nenabízí-li teorie daného vědního oboru jiné rozumné alternativy. Ve zcela lineárním modelu se předpokládá součtový vliv všech činitelů a regresní funkcí je rovnice nadroviny Y = β0 + β1X1 + … + βkXk + ε, ve které β0 je absolutní člen a β1, β2, …, βk jsou strukturní parametry nebo též (dílčí) regresní koeficienty. Například parametr β1 je interpretován jako očekávaná změna veličiny Y při jednotkovém růstu veličiny X1 za předpokladu už uvažovaného, a tudíž statisticky konstantního vlivu vysvětlujících proměnných X2, X3, …, Xk (analogicky je hodnocen význam ostatních dílčích regresních koeficientů). Model regresní přímky Y = β0 + β1X1 + ε je speciální případ pro jednu vysvětlující proměnnou a model regresní roviny Y = β0 + β1X1 + β2X2 + ε je speciální případ pro dvě vysvětlující proměnné. Racionální celistvé a lomené funkce Velmi často se používá regresní model, který je lineární z hlediska všech parametrů, ale nelineární z hlediska vysvětlujících proměnných. Oblíbené jsou především modely s jednou vysvětlující proměnnou. V této skupině je asi nejznámější model regresní paraboly s-tého stupně Y = β0 + β1X1 + β2X2 + … + βsXs + ε a zvláště regresní parabola druhého stupně, kdy s = 2. Častý je i model regresní hyperboly s-tého stupně Y = β0 + β1X-1 + β2X-2 + … + βsX-s + ε a její speciální případ, kdy s = 1. Model lineární v parametrech Zobecněním předchozích dvou a dalších případů je model, který je lineární z hlediska všech parametrů Y = β0 + β1f1 + … + βRfr + ε, ve kterém f1 = f1(X1, X2, …, Xk), f2 = f2(X1, X2, …, Xk), …, fR = fR(X1, X2, …, Xk) jsou libovolné, ale známé funkce (tzv. regresory) vysvětlujících proměnných, neobsahující žádné další neznámé parametry. Předpokládá se, že každá z k vysvětlujících proměnných je v regresním modelu zastoupená aspoň jedním z R regresorů, takže R ≥ k. Používání pojmu regresor místo již zavedeného pojmu vysvětlující proměnná není formálně nutná, ale je to výhodné pro odlišení souboru původních (zvolených nebo zjištěných) hodnot proměnných od uměle vytvořených (vypočtených) hodnot regresorů. Ve zcela lineárním modelu je každá vysvětlující proměnná zastoupena právě jedním regresorem (R = k) a pro racionální celistvou nebo lomenou funkci s jednou vysvětlující proměnnou je k = 1, ale R = s. Modely převoditelné transformací na lineární model Pro exponenciální, mocninné, různě kombinované a další regresní funkce je rozumnější předpokládat obecně součinový (multiplikativní) typ regresního modelu ve tvaru Y = εεεεηηηη, ve kterém ηηηη je regresní funkce (hypotetická) a ε rušivá složka. Časté je použití lineární exponenciální regresní funkce η = β0β1X nebo zapsané jako η = exp(β0 + β1X), modelu kvadratické exponenciály ve tvaru η = exp(β0 + β1X + β2X2 + ε), jakož i obecného lineárně-exponenciálního regresního modelu s k vysvětlujícími proměnnými zapsaného ve tvaru exp(β0 + β1X + … + βkXk + ε). Oblíbené jsou rovněž různé typy mocninných regresních funkcí nebo další kombinace uvedených i jiných typů. Modely nelineární z hlediska parametrů Lineární modely jsou pro svou jednoduchost velmi oblíbené, ale skutečné vztahy mezi veličinami různých vědních oborů bývají většinou nelineární. Nelineární modely je možné třídit podle odlišných kritérií a tak dojít k velkému počtu rozmanitých typů, se kterými se lze setkat v přírodních, technických, společenských či ekonomických vědách (např. nelineární produkční funkce, funkce poptávky, investic). Nelineární modely je možné třídit např. podle stupně a formy nelinearity. Pro jednu vysvětlující proměnnou bývá zvykem nelineární regresní funkce třídit podle tvaru křivky. Jednou z možností je vyjít z geometrických vlastností funkcí získaných různou volbou konstant A, B, C v rovnici Y = XC(β1 + β2B)A. Jednotlivé typy se odlišují např. tím, zda jsou rostoucí nebo klesající, bez omezení nebo do určitého bodu, konvexní nebo konkávní, mají nebo nemají lokální extrémy či inflexní body atd.

Matematická statistika II přednášky

- 23 - Christy

Nelineární regresní model Budeme uvažovat regresní model popsaný nelineární regresní funkcí f(x, ββββ) v aditivním tvaru Y = f(x, ββββ) + ε, kde x je k-členný vektor vysvětlujících proměnných a ββββ je p-členný vektor neznámých regresních parametrů. Na náhodné chyby εεεεi (i = 1, 2, …, n) budeme klást předpoklady klasického regresního modelu, tedy E(εi) = 0 a D(εi) = σ2, kde εi jsou normálně rozdělené náhodné veličiny. V nelineární regresi je však často nutné uvažovat modely s náhodnými chybami v multiplikativním tvaru či smíšený model obsahující náhodné vlivy v aditivním i multiplikativním tvaru a předpokládat obecné pravděpodobnostní rozdělení náhodných chyb. Nelineární regresní modely, které lze vhodnou transformací nebo reparametrizací převést na lineární, nazveme vnitřně lineárními . Takovým je například model y = eθx + ε, který je zavedením nového parametru α = exp (θ) možné převést na lineární model bez absolutního členu y = αx+ε, nebo model y = θ1θ2x eε, který je lineární po logaritmické transformaci modelu a lze jej po reparametrizaci α = ln(θ1), β = ln(θ2) zapsat ve tvaru ln(y) = α + βx + ε. Uvedené modely se považují za linearizovatelné a patří sem i takové nelineární modely, u kterých lze převést na lineární jen regresní funkci f(x, ββββ) a model při zanedbání náhodné složky přibližně zapsat ve formě y ≈ f(x, ββββ). Příkladem jsou aditivní modely s regresními funkcemi které jsou při vynechání ε linearizovatelné logaritmem, druhou mocninnou či reciproční funkcí na lineární modely Tyto linearizační transformace sice neberou v úvahu náhodnou složku, ale poskytují jednoduchou možnost, jak využít lineární regresní odhady i v případě nelineárního modelu. Avšak pro nezanedbatelné chyby ε nejsou uvedené transformace správné a dochází ke vzniku heteroskedasticity. Při linearizaci je nejdříve třeba odhadnout parametry linearizovaného modelu a z jejich hodnot zpětnou transformací určit odhady parametrů původního modelu. Na základě odhadnutých rozptylů odhadů parametrů linearizovaného modelu (případně kovariancí odhadů) lze získat také odhady těchto charakteristik pro parametry původního nelineárního modelu. Takto získané odhady však nemají vlastnosti známé z lineárních regresních modelů (nejsou například nezkreslené). Přestože se tento postup často využívá, je lepší odhady parametrů z linearizovaných modelů vnímat jen jako první užitečnou informaci a používat je jako nultý odhad při dalších optimalizačních algoritmech. Typy jednoduchých nelineárních regresních funkcí Nejčastěji se při vyjádření nelineární regrese používají poměrně jednoduché typy křivek. Aditivní typ funkcí Kvadratická (parabola 2. stupně) Kubická (parabola 3. st.) Lineární lomená (hyperbola 1. st.) Kvadratická lomená (hyperbola 2. st.) Iracionální Logaritmická Multiplikativní typ funkcí Exponenciální Mocninná

( ) ,;; 1−++ xxx βαβαα β

( ) ( ) ( ) .,,lnlnln 12 xyxyxy βαβαβα +≈+≈+≈ −

2iii cxbxay ++=′

32iiii dxcxbxay +++=′

ii x

bay +=′

2ii

i x

c

x

bay ++=′

iii cxbxay ++=′

ii xbay log+=′

ixi bay •=′ b

ii xay •=′

Matematická statistika II přednášky

- 24 - Christy

Při výběru typu funkce je třeba vycházet nejen z formálního hlediska, podle něhož nejvýstižněji prokládá empirické hodnoty regresní funkce s nejmenším součtem čtverců odchylek teoretických od empirických hodnot závisle proměnné (nejvyšší hodnota indexu korelace), ale i z hlediska věcně logického, podle věcné podstaty zkoumané závislosti. Při odhadu neznámých parametrů v nelineárním modelu lze použít opět metodu nejmenších čtverců, i když se často volí i jiná kritéria či postupy (někdy se na základě předpokladu o typu rozdělení náhodných chyb hledají maximálně věrohodné odhady). V případě nelineární regrese vnímáme reziduální součet čtverců především jako funkci neznámých parametrů ββββ a minimalizovaný výraz zapíšeme ve tvaru vzhledem k vektoru neznámých parametrů ββββ. Je-li bod minima vnitřním bodem parametrického prostoru, ze kterého neznámé parametry vybíráme, je možné minimum funkce parametrů nalézt jako bod, ve které jsou parciální derivace podle parametrů nulové. Derivováním postupně podle parametrů βj (j = 1, 2, …, p) a jejich anulováním dostáváme soustavu p normálních rovnic. V případě nelineárních modelů je však nelineární vzhledem k parametrům i tato soustava a řešení (až na výjimky) nelze zapsat v explicitním maticovém tvaru tak, jak je to možné v případě modelu lineárního. Rovnice mají i pro jednoduché regresní funkce relativně složitý tvar, takže při řešení normálních rovnic je třeba použít nějakou vhodnou numerickou metodu (iterace). Navíc nemusí být řešení soustav rovnic jediné a nulovost parciálních derivací ještě nezaručuje, že v daném bodě existuje minimum. Případně nalezený extrém funkce nemusí být globální minimum, může to dokonce být i lokální maximum nebo sedlový bod. Některé statistické programy nabízí postupy založené na derivačních metodách pro metodu nejmenších čtverců. Jejich algoritmy vyžadují buď analytický výpočet derivací (prvních, případně druhých) regresní funkce, nebo v každém kroku používají relativní přírůstky funkce, a tedy numerické odhady hodnoty derivace. Samotné metody používají pak iterace, které konstruují posloupnost přiblížení tak, aby konvergovala k hledanému bodu minima. Na rozdíl od lineárních regresních modelů je třeba u nelineárních modelů počítat s řadou komplikací: - neodhadnutelností některých parametrů, - existencí minima funkce jen pro některé regresní modely, - výskytem lokálních minim a sedlových bodů, - špatnou podmíněností parametrů v regresním modelu, - smalým rozmezím experimentálních dat (zejména u parametrů vyjadřujících limitní chování modelu). Metoda nejmenších čtverců pro vybrané nelineární funkce Výpočet parametrů vychází z podmínky minimálnosti čtverců Dosazením do výrazu za y`i a derivováním podle jednotlivých parametrů funkce lze dospět k soustavě normálních rovnic, ze kterých se parametry vypočítají. Normální rovnice lze sestavovat mechanicky, aniž by jejich vyvození muselo být praktikováno prostřednictvím parciálních derivací. Sestavují se tak, že se každý člen rovnice postupně násobí příslušnou simultánní funkcí nezávisle proměnné u jednotlivých parametrů regresní rovnice a vždy po vynásobení jednotlivými simultánními funkcemi se provede součet. Předpokladem však je, aby regresní rovnice byla aditivního typu a simultánní funkce nezávisle proměnné bez neznámých parametrů. U závisle proměnné se uvádějí empirické hodnoty. Tak první normální rovnice pro funkci se získá vynásobením jedničkou, neboť při parametru a je simultánní funkce rovna 1 (= x0), a součtem, tedy

( )[ ]2

11

2 ,∑∑==

−=n

ii

n

ii fye βx i

min)( 2

1

=′−∑=

n

iii yy

ii x

bay +=′

.1

1 1∑ ∑

= =

+=n

i

n

i ii x

bnay

Matematická statistika II přednášky

- 25 - Christy

∑∑∑∑∑

∑ ∑∑∑

∑ ∑ ∑ ∑∑

∑ ∑ ∑ ∑

+++=

+++=

+++=

+++=

4i

2i

ii2

i2i

i

2i

iii

3iiii

ii3i

6i

3ii

3i

2i

i3ii

x

1d

x

xcxb

x

1a

x

y

x

xdxcxxbxayx

xdxxcxbxayx

x

1dxcxbnay

Druhá normální rovnice se obdrží vynásobením a následným součtem, tedy Podobným způsobem lze vytvořit soustavu normálních rovnic pro všechny ostatní regresní funkce aditivního tvaru. Polynomická regrese

Exponenciální funkce Odhad parametrů, které nejsou lineární v parametrech, neprovádíme MNČ přímo, protože její použití vede k soustavě nelineárních rovnic, z nichž zpravidla nedokážeme odhadnout přímo parametry ve formě vhodných výpočetních vzorců. Proto se při odhadu parametrů nelineárních regresních funkcí většinou postupuje tak, že se najde jejich vhodný počáteční odhad a postupným zlepšováním řešení nalezneme odhad s požadovanou přesností. Používá se tedy způsob, kdy určitou regresní funkci, která je nelineární z hlediska parametrů, převedeme pomocí linearizující transformace na funkci lineární v parametrech. Transformace spočívá vtom, že pomocí logaritmů, převrácením hodnot apod. dojdeme k takovému tvaru regresní funkce, že její parametry bude už možné odhadovat MNČ. Řešením jsou parametry ve tvaru log a a log b. Pokud chceme exponenciální funkci vyjádřit v původním tvaru, je potřeba provést odlogaritmování funkcí 10x.

2i

i3ii x

dxcbxay +++=′

.11

12

11∑∑∑

===

+=n

i i

n

i i

n

i i

i

xb

xa

x

y

ii xbay log+=′

∑∑∑

∑ ∑

===

= =

+=

+=

n

ii

n

ii

n

iii

n

i

n

iii

xbxaxy

xbnay

1

2

11

1 1

logloglog

log

2iii cxbxay ++=′

∑∑ ∑∑∑∑ ∑∑

∑ ∑∑

++=

++=

++=

4322

32

2

iiiii

iiiii

iii

xcxbxayx

xcxbxayx

xcxbnay

∑∑ ∑∑

∑∑ ∑∑∑ ∑∑

+++=

+++=

+++=

+

+

pip

pi

pii

pi

pipiiii

pipii

xbxbxbyx

xbxbxbyx

xbxbnby

2110

1210

10

....................................................................

K

K

K

ixi bay •=′ bxay ii logloglog +=′

∑∑∑∑∑

+=

+=2logloglog

logloglog

iiii

ii

xbxayx

xbany

Matematická statistika II přednášky

- 26 - Christy

Kvadratická regresní funkce

5

5,5

6

6,5

7

7,5

8

8,5

30 50 70 90 110 130 150

X

Y

Exponenciální funkce

0

10000

20000

30000

40000

50000

60000

70000

80000

90000

0 2 4 6 8 10 12 14 16

X

Y

Logaritmická funkce

0

100000

200000

300000

400000

500000

600000

0 2 4 6 8 10 12 14

X

Y

Matematická statistika II přednášky

- 27 - Christy

Charakteristiky korelace u nelineární regrese Pomáhají nám při posouzení kvality regresní funkce a ke zjištění síly závislosti. Posuzovaný vztah je tím silnější a regresní funkce tím lepší, čím více jsou empirické hodnoty vysvětlované proměnné soustředěné kolem odhadnuté regresní funkce, a naopak tím slabší, čím více jsou empirické hodnoty vzdáleny hodnotám vyrovnaným. Umožňuje také posoudit přesnost regresních odhadů – čím více se jednotlivé napozorované hodnoty soustřeďují kolem zvolené regresní čáry, tím je závislost těsnější a odhad přesnější. Při konstrukci míry ukazující na sílu závislosti vycházíme ze vztahu empirických a vyrovnaných hodnot, kdy pomocí těchto hodnot můžeme konstruovat tři rozptyly s různou vypovídací schopností: - rozptyl empirických (skutečně zjištěných) hodnot y - rozptyl vyrovnaných hodnot (teoretický rozptyl) - rozptyl skutečně zjištěných hodnot kolem regresní čáry, tj. rozptyl empirických hodnot od hodnot vyrovnaných (reziduální rozptyl)

Mocninná funkce

60,00

70,00

80,00

90,00

100,00

110,00

120,00

0 2 4 6 8 10 12 14 16X

Y

Lomená funkce

35

40

45

50

55

60

65

70

75

0 2 4 6 8 10 12 14 16

X

Y

( ) ,1 22 ∑ −= yyn

s iy

,)(1 22 ∑ −′=′ yyn

s iy

Matematická statistika II přednášky

- 28 - Christy

Lze dokázat, že při použití metody nejmenších čtverců mezi uvedenými rozptyly platí vztah Rozptyl empirických hodnot lze tedy rozložit na rozptyl vyrovnaných hodnot a rozptyl reziduálních hodnot. Podíl složek na empirickém rozptylu - teoretický rozptyl takže Jde o krajní případ, kdy je y`i nezávislé na xi, kdy jde vlastně o regresní přímku rovnoběžnou s osou x. v daném případě jde o nezávislost. - reziduální rozptyl takže Druhý krajní případ, kdy je každé y`i shodné s yi. Všechna empirická pozorování vyhovují teoretickým hodnotám na regresní přímce. Jde o pevnou závislost. - teoretický rozptyl takže Závislost proměnné Y na proměnné X bude zřejmě tím silnější, čím větší bude podíl rozptylu vyrovnaných hodnot na celkovém rozptylu, a tím slabší, čím bude podíl tohoto rozptylu menší. Sílu závislosti je tedy možné měřit poměrem V daném případě jde o volnou závislost. Tento poměr se nazývá index determinace. V případě funkční závislosti nabude hodnoty 1, v případě nezávislosti hodnoty 0. Čím více se bude blížit jedné, tím se závislost považuje za silnější, a tedy dobře vystiženou zvolenou regresní funkcí. Index determinace v procentickém vyjádření udává, jaké procento rozptýlení empirických hodnot závisle proměnné je důsledkem rozptylu teoretických hodnot závisle proměnné odhadnutých na základě příslušné regresní funkce. Kvalitu regresní funkce a intenzitu závislosti můžeme hodnotit podle toho, jak se podílí na rozptylu skutečně zjištěných hodnot rozptyl vyrovnaných hodnot, příp. rozptyl odchylek kolem regresní čáry. Je třeba mít na zřeteli, že velikost indexu determinace je zcela ovlivněna tím, zda se podařilo nalézt vhodný typ regresní funkce pro popis dané závislosti. Nízká hodnota indexu determinace nemusí ještě znamenat nízký stupeň závislosti mezi proměnnými, ale může to signalizovat chybnou volbu regresní funkce. Index determinace lze také konstruovat nepřímo, tj. ve tvaru K měření těsnosti závislosti se v praxi častěji používá odmocnina indexu determinace, která se nazývá index korelace. Index korelace poskytuje stejné informace o těsnosti závislosti jako index determinace, jinak však má menší vypovídací schopnost. Dosadíme-li do vzorce indexu korelace za oba rozptyly, dostaneme výpočetní vzorec ve formě Index korelace se používá k měření těsnosti závislosti pro libovolnou regresní funkcí, jejíž parametry byly odhadnuty metodou nejmenších čtverců. Pro dosazení do uvedených vzorců indexu korelace je potřebné vypočítat pro každou hodnotu xi podle konkrétní regresní funkce teoretické hodnoty y`i a pak teprve počítat příslušné součty čtverců pro teoretický či lépe reziduální rozptyl.

( ) .)(11 222

)( ∑∑ ′−=′−−′−=′− iiiiyy yyn

yyyyn

s

( ).222

yyyy sss ′−′ +=

,02 =′ys ( )22

yyy ss ′−=

,02)( =′− yys 22

yy ss ′=

,0,0 2)(

2 ≠≠ ′−′ yyy ss ( )222

yyyy sss ′−′ +=

.2

22

y

yyx s

sI ′=

.12

2)(

2

22

y

yy

y

yyx s

s

s

sI ′−′ −==

2

2

y

yyx s

sI ′=

( )( ) .2

2

∑∑

−−′

=yy

yyI

i

iyx

Matematická statistika II přednášky

- 29 - Christy

Snadnější a výhodnější je následující postup výpočtu

přičemž Např. v případě kvadratické funkce lze psát Korelační poměr Pokud nelze z jakýchkoliv důvodů určit konkrétní tvar vyrovnávající regresní funkce, používá se k určení těsnosti závislosti míry, která se nazývá korelační poměr . V určitém smyslu je to obecnější míra závislosti než index či koeficient korelace, protože na rozdíl od nich nezávisí na tvaru regresní funkce. Z definice korelační závislosti vyplývá, že se změnami hodnot vysvětlující proměnné se systematicky mění podmíněné průměry závisle proměnné. V takovém případě se v podmíněných průměrech projevuje určitá variabilita, kterou lze měřit rozptylem podmíněných průměrů Vliv ostatních činitelů na závisle proměnnou se pak projevuje tím, že v podmíněných rozděleních závisle proměnné dochází ke kolísání jednotlivých hodnot závisle proměnné okolo podmíněných průměrů. Toto kolísání se měří průměrem z podmíněných rozptylů . Závislost Y na X lze tedy zřejmě považovat za tím silnější, čím větší je variabilita podmíněných průměrů ve srovnání s variabilitou hodnot v podmíněných rozděleních. Protože platí je zřejmé, že lze tuto míru těsnosti závislosti konstruovat jako poměr Tento poměr udávaný v % se nazývá poměr determinace a udává, jaké % rozptylu závisle proměnné lze vysvětlit vlivem nezávisle proměnné X. Doplněk do 100 % pak udává vliv blíže nespecifikovaných činitelů. Čím více se blíží poměr determinace jedné, tím je závislost proměnné Y na proměnné X silnější. V případě, že variabilita hodnot v podmíněných rozděleních je nulová, je poměr determinace roven 1 a jde tedy o úplnou závislost mezi oběma proměnnými. Naopak v případě, že jsou všechny podmíněné průměry stejné, je poměr determinace nulový a jde tedy o korelační nezávislost Y na X. K měření těsnosti závislosti se pak používá odmocnina z poměru determinace, která se nazývá korelační poměr Korelační poměr lze také vypočítat nepřímo ve tvaru: Za předpokladu, že závislost mezi proměnnými byla zkoumána na dostatečně velkém počtu pozorování, kdy podmíněné průměry závisle proměnné Y nemohou být výrazněji ovlivňovány nahodilými vlivy, lze pak pozorováním velikosti korelačního poměru a indexu korelace (příp. koeficientu) usuzovat na vhodnost použité funkce. Čím více se budou hodnoty obou měr k sobě přibližovat, tím se bude použitá regresní funkce považovat za vhodnější zobrazení dané závislosti. Maticový způsob stanovení parametrů nelineárních funkcí

( )( )

( )( )

,y

n1

y

yn1

y

yy

yy

s

sI

2

i2i

2

i2

i

2i

2

i

2y

2y

yx

∑ ∑

∑ ∑

∑∑

−′=

−−′

== ′

.2iii yyy ′=′∑ ∑

( ) .222∑ ∑ ∑ ∑∑ ++=++=′ iiiiiiiii yxcyxbyacxbxayy

,222 sss yy +=

.12

2

2

22

2

2

yy

y

y

y

s

s

s

ss

s

s−=

−=

.2

2

y

yyx s

s=η

.12

2

2

22

yy

yyx s

s

s

ss−=

−=η

( ) .yXXXb 1 ′′= −

Matematická statistika II přednášky

- 30 - Christy

Kvadratická funkce Hyperbola (lomená) Odmocninná funkce Logaritmická funkce Exponenciální funkce Maticově lze stanovit i hodnotu korelačního indexu. Statistická analýza v nelineárním modelu Intervalové odhady parametrů Bodové odhady b regresních parametrů ββββ jsou ze statistického hlediska bezcenné, protože nic neuvádějí o tom, v jakých mezích lze očekávat výskyt skutečných hodnot ββββ. Odhady b jsou náhodné veličiny určené na základě výběru dat o velikosti n. U nelineárních regresních modelů se při konstrukci intervalů spolehlivosti používá převážně linearizace, která je však použitelná pouze v případech, kdy model není silně lineární a míry nelinearity, asymetrie a vychýlení odhadů jsou malé. Postup pro stanovení intervalových odhadů jednotlivých parametrů je analogický intervalovému odhadu regresního koeficientu v případě lineárních modelů. Zanedbává se zde vliv ostatních parametrů. Protože jsou však většinou prvky vektoru b (vektor regresních parametrů) vzájemně korelované, bývají intervaly takto stanovené podceněné, tj. příliš úzké. Pro nelineární modely je možné také stanovit intervaly spolehlivosti predikce, vyčíslené v celém rozmezí hodnot nezávisle proměnné, tzn. stanovit pásy spolehlivosti. Testy hypotéz o odhadech parametrů Testování hypotéz souvisí úzce s konstrukcí oblastí spolehlivosti. Pokud parametry β0 leží v 95% oblasti spolehlivosti kolem b, lze na hladině významnosti α = 0,05 považovat rozdíly (β - β0) za statisticky nevýznamné. Samotné testy pak lze konstruovat stejně jako v lineárním modelu (za předpokladu alespoň přibližné normality odhadu metodou nejmenších čtverců). Individuální testy o nulových hodnotách parametrů však nemají v nelineární regresní analýze dobrý význam, protože známe-li vhodnou regresní funkci, jsou případné zjednodušené modely těžko interpretovatelné. V jiných případech je třeba testovat jiné hodnoty parametrů než nulové.

=

ny

y

y

M

2

1

y

=

kb

b

b

M

1

0

b

=

εε

M

2

1

ε

=

2

222

211

1

1

1

nn xx

xx

xx

MMMX

=

nx

x

x

11

11

11

2

1

MM

X

=

nn xx

xx

xx

1

1

1

22

11

MMMX

=

nx

x

x

log1

log1

log1

2

1

MMX

=

nx

x

x

1

1

1

2

1

MMX

=

ny

y

y

log

log

log

2

1

My

=

b

a

log

logb

( )

( )∑

−′

−′′=

2

2

1

1

i

i

yn

ynI

yy

yXb

Matematická statistika II přednášky

- 31 - Christy

Těsnost proložení regresní křivky U lineárních regresních modelů slouží analýza reziduí k ověřování některých předpokladů o chybách ε, u nelineárních modelů pak především k posouzení dosažené těsnosti proložení vypočtené regresní křivky danými experimentálními body. Analýzou vlivných bodů se identifikují body, které silně ovlivňují odhadované regresní parametry v modelu, což umožňuje určit vybočující pozorování nebo extrémy. Statistická analýza reziduí Pro aditivní modely měření a užívanou NMČ jsou rezidua definována vztahem ei = yi – f(xi, b). K analýze reziduí se užívá jednak názorného grafického zobrazení vektoru reziduí a jednak numerické analýzy směřující ke statistickému testování. Grafická analýza reziduí Grafickou (předběžnou) analýzou reziduí spočívající v prostém zobrazení vektoru reziduí, lze snadno odhalit: - odlehlé (extrémní) hodnoty v souboru reziduí, - trend v reziduích, - nedostatečné střídání znaménka u reziduí, - chybný model nebo vzájemnou závislost reziduí, - heteroskedasticitu (nekonstantnost rozptylu) závisle proměnné veličiny Y, - náhlou změnu podmínek při měření hodnoty y. Statistická (numerická) analýza reziduí Analýza reziduí je hlavní diagnostickou pomůckou při hledání a rozlišení regresního modelu a navíc těsnost dosaženého proložení experimentálními body je mírou věrohodnosti nalezených odhadů. Mezi nejčastěji užívané statistiky patří především střední hodnota reziduí E(e), která by se měla rovnat nule, dále průměrné reziduum, směrodatná odchylka střední hodnoty reziduí a konečně koeficient šikmosti a koeficient špičatosti reziduí. Pro normální rozdělení reziduí by se měl koeficient šikmosti rovnat nule a koeficient špičatosti třem. Pozn. Diagnostické metody nejsou vždy spolehlivé, protože rezidua nemají nulovou střední hodnotu, jsou vychýlená, jsou přibližně lineární kombinací chyb a navíc závisejí na skutečných hodnotách parametrů β (které jsou uživateli neznámé). Příklad

Proměnná X 3 5 6 5 8 3 7 4 6 5 7 2

Proměnná Y 6 2,5 2 3 1,5 4,5 2 5,5 3 3,5 2,5 7

Matematická statistika II přednášky

- 32 - Christy

Černá čára – regresní funkce, červené čáry – intervalový odhad regresní funkce, fialová čára – pás spolehlivosti.

Matematická statistika II přednášky

- 33 - Christy

Vícenásobná regrese a korelace Kromě posouzení jednoduchých vztahů mezi dvěma proměnnými je mnohdy účelné vystihnout vliv více proměnných na jednu proměnnou. V tom případě tedy zkoumáme, jak závisí proměnná y nejen na vysvětlující proměnné x1, ale též na dalších proměnných x2, …, xk. Metody zkoumání tohoto typu se nazývají vícenásobnou (mnohonásobnou) korelační závislostí. Dílčí vliv každé ze zúčastněných nezávisle proměnných pak lze posoudit tzv. dílčí korelační závislostí. Obdobně jako u jednoduché korelační závislosti je možno rovněž u vícenásobné a dílčí korelační závislosti charakterizovat prostřednictvím regrese očekávanou úroveň, resp. změnu závisle proměnné podle úrovní, resp. změn nezávisle proměnných a prostřednictvím korelace stupeň (těsnost) vztahu. Mnohonásobná regrese je prostředkem zkoumání statistické závislosti pomocí modelu, jenž zahrnuje jednu závisle proměnnou a několik nezávislých proměnných. Data získáme tak, že u prvků výběru zjistíme hodnoty všech uvažovaných proměnných. Rozlišujeme tři druhy úlohy, pro jejichž řešení je vhodné aplikovat mnohonásobnou regresní analýzu: - Chceme poznat efekt, který má na cílovou proměnnou Y souhrn změn ovlivňujících parametrů X1, X2, …, Xk. - Chceme predikovat hodnotu závisle proměnné Y pro budoucí hodnoty proměnných X1, X2, …, Xk. - V rámci explorační statistické analýzy chceme vyhledat statistické vztahy mezi závisle proměnnou a několika nezávisle proměnnými. Vícenásobnou regresi lze vyjádřit jednak podmíněnými průměry závisle proměnné, jednak vícenásobnou regresní funkcí, která je častější. Je potřeba vždy zvolit takovou funkci, která co nejpřesněji vystihuje danou skutečnost z věcného přístupu a přitom která splňuje formální podmínky z přístupu matematicko-statistického a jejíž řešení je relativně nejjednodušší. Volba vhodného typu vícenásobné regresní funkce je v tomto případě obtížná (systém pokus – omyl). Odpadá zde totiž možnost zachycení grafického průběhu závislosti i logického posouzení vhodnosti určitého typu regresní funkce. Při hledání vhodného typu vícenásobné regresní funkce se proto opíráme hlavně o matematicko-statistická kritéria (míry těsnosti, směrodatné chyby regresních koeficientů, různé testy apod.), která nám zpravidla z velkého okruhu různých typů regresních funkcí umožní vybrat tu nejvhodnější. Velmi často se při hledání vhodného typu mnohonásobné regresní funkce postupuje tak, že se analyzuje zvlášť závislost mezi závisle proměnnou y a jednotlivými vysvětlujícími proměnnými x1, x2, …, xk a výslednou regresní funkci pak konstruujeme jako součet jednoduchých regresních funkcí. Vícenásobné funkce mohou být stanoveny buď jako lineární nebo jako nelineární. Data zachycujeme tabulkou, kde pro každý objekt uvádíme hodnoty nezávislých proměnných a závisle proměnné. Např. zjišťujeme u n žáků hodnoty k nezávisle proměnných X1, X2, …, Xk a závisle proměnnou Y. Matice měření X má pak tvar: Řádku v matici se říká vektor měření. Jestliže je závisle proměnná y lineárně závislá na každé z vysvětlujících proměnných x1, x2, …, xk (jednoduché závislosti jsou lineární) a jsou-li zároveň tyto vysvětlující proměnné vzájemně nezávislé (nebo alespoň ovlivňují změny závisle proměnné všechny jedním směrem), používáme pro vystižení vývoje závisle proměnnou vícenásobnou lineární funkci proměnných x1, x2, …, xk. Předpokládejme tedy v souladu s úvahami o jednoduché regresi, že závislost lze charakterizovat rovnicí y = Y + ε, kde ε jsou opět reziduální (nahodilé) odchylky, které lze interpretovat jako důsledek působení nahodilých vlivů včetně eventuální nedokonalosti zvolené funkce. Regresní funkci Y lze pak vyjádřit ve tvaru Y = β0 + β1x1 + β2x2 + … + βkxk, kde β0, β1, β2, …, βk jsou neznámé parametry a x1, …, xk jsou vysvětlující proměnné. Odhadnutou regresní funkci lze zapsat ve tvaru

),,,(:

),,,(:2

),,,(:1

21

222221

111211

nnknn

k

k

yxxxnžák

yxxxžák

yxxxžák

L

MMMMMM

L

L

Matematická statistika II přednášky

- 34 - Christy

k = počet nezávisle proměnných nebo jako y`i = b0 + b1x1 + b2x2 + … + bkxk, příp. ve snáze interpretovatelném tvaru Neznámé parametry v regresní funkci lze získat pomocí MNČ, kdy řešíme soustavu k +1 normálních rovnic. Parametry byx1.x2x3…xk, byx2.x1x3…xk, byxk.x1x2…xk-1 (nebo obecně br) se nazývají dílčí regresní koeficienty a udávají odhad toho, jak by se změnila v průměru vysvětlovaná (závisle) proměnná y při jednotkové změně vysvětlující proměnné před tečkou, za předpokladu konstantní úrovně proměnných uvedených za tečkou. Např. dílčí regresní koeficient byx2.x1x3 udává, jak se změní v průměru závisle proměnná y při jednotkové změně vysvětlující proměnné x2 za předpokladu, že proměnné x1 a x3 zůstanou konstantní. V případě, že jsou známy koeficienty dílčí regrese a průměrné hodnoty jednotlivých nezávisle proměnných, lze určit vícenásobnou lineární funkci prostřednictvím transformovaného tvaru. Podrobněji se podíváme na nejjednodušší případ vícenásobné regrese, tzv. dvojnásobné regrese, kdy předpokládáme, že na změny závisle proměnné y působí dvě vysvětlující proměnné x1 a x2, tj. že platí Y = β0 + β1x1 + β2x2, jejímž odhadem je

Protože se jedná o klasickou lineární regresi, je možné parametry funkcí s více vysvětlujícími proměnnými odhadovat metodou nejmenších čtverců. Dosadíme-li do základní podmínky, dostaneme Následně dostaneme normální rovnice ve tvaru Vydělíme-li první normální rovnici v soustavě n, dostaneme

.xbxbby 2x.yx1x.yx0i 1221++=′

∑=

+=′k

rriri xbby

10

kxxxyxxxxyxxxxyxi xbxbxbbykkkk 121312321 .2.1.0 −

++++=′KKK

K

∑∑ ∑∑∑

∑∑ ∑∑∑

∑∑∑ ∑∑

∑∑∑ ∑

== ===

== ===

=== ==

=== =

++++=

++++=

+++=

+++=

n

ikik

n

i

n

ikii

n

ikii

n

ikiiki

n

ikiik

n

i

n

ii

n

iii

n

iiii

n

ikii

n

ikii

n

i

n

ii

n

iiii

n

iki

n

iki

n

i

n

iii

xbxxbxxbxbyx

xxbxbxxbxbyx

xxbxxbxbxbyx

xbxbxbnby

1

2

1 12

1211

10

12

1 1

22

12211

1202

11

1212

1 1

211

1101

1122

1 1110

K

M

K

K

K

)(

)()(

121

312321

.

22.11.

kkixxxyx

ixxxyxixxxyxi

xxb

xxbxxbyy

kk

kk

−+

+−+−+=′

−K

KK

K

K

( ) .min2

2.1.02

1221=−−−=∑ ∑ ixyxixyxii xxy βββε

∑ ∑∑∑

∑∑ ∑∑

∑∑ ∑

= ===

== ==

== =

++=

++=

++=

n

i

n

ii

n

iii

n

iiii

n

iii

n

i

n

ii

n

iiii

n

ii

n

i

n

iii

xbxxbxbyx

xxbxbxbyx

xbxbnby

1 1

22

12211

1202

1212

1 1

211

1101

122

1 1110

,2.

1.

0221 n

xb

n

xb

n

bn

n

y ixyx

ixyx

i

n

∑∑∑ ++•=

Matematická statistika II přednášky

- 35 - Christy

Dosadíme-li za b0, dostaneme regresní funkci ve výpočtovém tvaru Při zkoumání závislosti prostřednictvím jednoduché regrese a korelace se vliv nezávisle proměnné na závisle proměnnou neprojevuje v „čisté“ formě, nýbrž odráží v sobě kladné i záporné vlivy ostatních jevů, jež rovněž na závisle proměnlivý jev působí. Často je však třeba objasnit závislost dvou jevů tak, aby vliv ostatních faktorů byl vyloučen. To je úkolem dílčí regrese a korelace. Průměrnou změnu závisle proměnné y odpovídající jednotkové změně nezávisle proměnné x1 za předpokladu, že ostatní sledované nezávisle proměnné x2, x3, …, xk jsou konstantní (je tedy vyloučen vliv jejich různých úrovní), udává koeficient dílčí regrese, jehož rekurentní vzorec je

Rekurentní vzorce představují postup, ve kterém se vždy dílčí regresní koeficient určitého řádu vyjadřuje pomocí několika koeficientů o řád nižších. Pro případ dvounásobné regresní funkce lze dílčí regresní koeficienty vyjadřovat pomocí koeficientů prvního řádu. Při výpočtu dílčí regrese je třeba mít na paměti, že je vyloučen vliv zbývajících zúčastněných proměnných (jsou uvedeny v indexu za tečkou), že však spolupůsobí další nezúčastněné zjistitelné i prakticky nezjistitelné faktory. Jde-li nám tedy o postihnutí skutečného vlivu kteréhokoliv nezávisle proměnlivého jevu, měly by být do výpočtu vzaty všechny nezávisle proměnné (koeficient vícenásobné korelace se bud v daném případě blížit jedné). V indexu koeficientu dílčí regrese jsou před tečkou uvedeny dvě proměnné, přičemž na prvním místě vždy závisle proměnná, jejíž změnu koeficient vyjadřuje, a na druhém místě nezávisle proměnná, u níž je uvažována změna o příslušnou měrnou jednotku. Za tečkou jsou uváděny další zúčastněné nezávisle proměnné, jejichž vliv je vyloučen, přičemž nezáleží na pořadí. Např. dvěma regresním koeficientům jednoduché závislosti pro proměnné y a x2 odpovídají obdobné regresní koeficienty dílčí závislosti byx2 → byx2.x1x3x4…xk bx2y → bx2y.x1x3x4…xk. Stanovení regresních koeficientů pomocí rekurentních vzorců je náročnou prací, zvláště na numerické výpočty, které musí být prováděno s vysokou přesností, takže tento postup se příliš často nepoužívá. Ke stanovení regresních koeficientů lze využít také postup založený na znalosti charakteristik korelace. Vedle dalších charakteristik používáme pro účely srovnání a posouzení individuálního vlivu jednotlivých vysvětlujících proměnných na závisle proměnnou rovněž normalizované regresní koeficienty, tzv. ββββ-koeficienty. Jestliže provedeme následující transformace (s využitím směrodatných odchylek proměnných y, xi, i = 1, 2, …, k) lze konkrétně regresní funkci zapsat pro k =2 ve tvaru Regresní koeficienty v této funkci se nazývají právě β-koeficienty a mohli bychom je odhadnout pomocí metody nejmenších čtverců. Lze je však rovněž vypočítat z dílčích regresních koeficientů, přičemž platí následující vztah Známe-li jednoduché korelační koeficienty, můžeme β-koeficienty vypočítat následujícím způsobem

.bb1

bbbb

1k321k1k32k1

1k321k1k32k1k321

k321

xxxxxxxxxx

xxxxxxxxyxxxxyxxxxyx

−−

−−−

••

•••• −

−=

KK

KKK

K

.2.1.0 1221xbxbyb xyxxyx •−•−=

).()( 22.11. 1221xxbxxbyy xyxxyxi −+−+=′

1221

1221

21 1 xxxx

xxyxyxxyx bb

bbbb

−−

=•1221

2112

12 1 xxxx

xxyxyxxyx bb

bbbb

−−

=•

2.

21

2121

1

21 1 xx

xxyxyx

x

yxyx r

rrr

s

sb

−−

•=2.

21

2112

2

12 1 xx

xxyxyx

x

yxyx r

rrr

s

sb

−−

•= 2.1.0 1221xbxbyb xyxxyx •−•−=

,,, ,...,2,1 ki

ix

iki

y

i

s

xxx

s

yyy =

−=′−′=′

.2.1. 1221xxy xyxxyxi ′+′=′ ββ

.;12

2

1221

1

21 .... xyxy

xxyxxyx

y

xxyx b

s

sb

s

s== ββ

.1

;1 2.2.

21

2112

12

21

2121

21

xx

xxyxyxxyx

xx

xxyxyxxyx r

rrr

r

rrr

−−

=−−

= ββ

Matematická statistika II přednášky

- 36 - Christy

Velikost dílčích regresních koeficientů je ovlivněna volbou měrné jednotky. Většinou jsou regresní koeficienty uváděny v jednotkách závisle proměnné y připadající na jednotku vysvětlující proměnné xk. Tím, že provedeme standardizaci, dostaneme bezrozměrné β-koeficienty v tom smyslu, že jsou nezávislé na měrných jednotkách, v nichž jsou jednotlivé proměnné uvažovány. Tím je možné jejich vzájemné srovnání, které u regresních koeficientů dosti dobře provést nelze. Toto srovnání slouží především k určení intenzity vlivů jednotlivých vysvětlujících proměnných na závisle proměnnou (posuzujeme relativní přínos proměnných X k predikci proměnné Y). Numerické výpočty u vícenásobné regrese jsou poměrně náročné. K řešení lze i tady použít maticový počet. Obecné řešení je zcela totožné s maticovým vyjádřením u jednoduché lineární regrese, stačí konkretizovat pro případ vícenásobné regresní funkce matici X`X a vektor X`y. Vektor odhadovaných parametrů pak dostaneme obdobně jako v případě jednoduché lineární regrese. Vícenásobná a dílčí lineární korelace Zatímco prostřednictvím regrese byl charakterizován vliv změn nezávisle proměnných na teoretickou úroveň závisle proměnné, pomocí korelace je hodnocen stupeň (těsnost) závislosti, a to jak pro případ společného vlivu všech zúčastněných proměnných, tak i pro případ jejich dílčího vlivu. Společný vliv nezávisle proměnných x1, x2, …, xk na závisle proměnnou y z hlediska síly vztahu udává koeficient vícenásobné korelace, tzn. měří těsnost závisle proměnné y na všech vysvětlujících proměnných. Měří jednak těsnost závislosti mezi proměnnými a umožňuje tím posoudit kvalitu regresního odhadu zkonstruovaného na základě vícenásobné regresní funkce, jednak jej lze použít při hodnocení volby vysvětlujících proměnných. V případě, že jeho hodnota je malá, znamená to, že vybrané vysvětlující proměnné nepostačují vysvětlit změny analyzované závisle proměnné. V případě, že měříme těsnost závislosti proměnné y na dvou vysvětlujících proměnných x1 a x2, lze stanovit koeficient vícenásobné korelace (někdy se označuje symbolem R) pomocí jednoduchého vzorce V případě, že známe korelační koeficienty, lze koeficient vícenásobné korelace vyjádřit nepřímo ve formě rekurentního vzorce Z uvedeného rekurentního vzorce vyplývá, že koeficient vícenásobné korelace je vyjadřován jako součin jednoduchého a dílčího koeficientu korelace. Uvedený rekurentní vzorec se dá zobecnit i pro k vysvětlujících proměnných. Koeficient vícenásobné korelace vždy leží v intervalu a je vždy větší než největší z jednoduchých korelačních koeficientů. Maticové vyjádření Máme matici korelačních koeficientů mezi vysvětlujícími proměnnými, kde na hlavní diagonále leží korelační koeficienty rii = 1, a vektor korelačních koeficientů mezi vysvětlujícími proměnnými a závisle proměnnou:

=′

∑∑∑∑∑∑∑∑

22212

21211

21

iiii

iiii

ii

xxxx

xxxx

xxn

XX

2

22

.

21

221211

21 1

2

xx

yxxxyxyxyxxxy r

rrrrrr

−+−

=

( ) ( )( ).111 2.

22. 12121 xyxyxxxy rrr −−=−

( ) ( )( )( )( )( ) ( )2

....2

.2

.2

2....

2....

2....

121213121

12112121

1111

111

−−

−−−−=

=−−=−

kk

kkkk

xxxyxxxyxxyxyx

xxxyxxxxyxxxy

rrrr

rrr

K

10 .... 21≤≤

kxxxyr

=

1

1

1

21

212

121

L

MLMM

L

L

xxxx

xxxx

xxxx

kk

k

k

rr

rr

rr

R

Matematická statistika II přednášky

- 37 - Christy

Pak čtverec koeficientu vícenásobné korelace vypočítáme podle vzorce K výpočtu lze také použít případ, kdy se vychází z rozkladu rozptylu závisle proměnné. Koeficient dílčí (parciální) korelace ryx1.x2…xk měří intenzitu lineární závislosti proměnné y na vysvětlující proměnné x1 (obecně na proměnné uvedené před tečkou) za předpokladu, že všechny ostatní proměnné za tečkou, tj. x2, x3, …, xk jsou konstantní. Podobně jako u jednoduché regrese lze koeficient dílčí korelace vyjádřit jako odmocninu ze součinu sdružených regresních koeficientů. Pro dvě vysvětlující proměnné pak platí Dosadíme-li do vzorců dílčích regresních koeficientů, pak po úpravě dostaneme rekurentní vzorec pro výpočet dílčího korelačního koeficientu. Koeficient ryx1.x2 měří tedy těsnost závislosti mezi závisle proměnnou y a vysvětlující proměnnou x1 oproštěnou od vlivu druhé vysvětlující proměnné x2. Analogicky lze zkonstruovat i druhý dílčí korelační koeficient, který měří těsnost závisle proměnné y na vysvětlující proměnné x2 a předpokladu vyloučení vlivu proměnné x1. Uvedené vzorce jsou zvláštním případem obecného rekurentního vzorce pro výpočet koeficientu dílčí korelace libovolného řádu. Pro sdružené vícenásobné regresní funkce pak také platí, že hodnoty dílčích korelačních koeficientů jsou shodné. Parciální korelační koeficienty nám také pomáhají při řešení tzv. problému třetí proměnné, tedy problému možného efektu rušivých proměnných. Při závislosti musíme zohlednit, že korelace dvou proměnných může být ovlivněna několika dalšími proměnnými. Mnoho atributů – jako např. výška, váha, síla, mentální schopnost, slovní zásoba, dovednost číst atd. – roste v rozmezí 6 až 18 let s věkem. Korelace těchto proměnných budou určitě pozitivní. Když z nich však vyloučíme působení věku, pravděpodobně klesnou k nule. Vliv rušivého faktoru „věk“ kontrolujeme dvěma způsoby - buď měříme vztah proměnných pouze pro vybranou věkovou kategorii nebo použijeme parciální korelační koeficient. Předpokládáme lineární závislost mezi proměnnými X, Y a Z zachycenou korelačními koeficienty ryx, ryz a rxz. Hodnoty jednotlivých koeficientů stanovíme pomocí naměřených hodnot (xi, yi, zi). Následně stanovíme hodnoty parciálních korelačních koeficientů ryx.z, ryz.x a rxz.y. Při testování nulové hodnoty parciálního korelačního koeficientu postupujeme stejně jako v případě jednoduchého korelačního koeficientu. Abychom však nalezli správnou kritickou mez, použijeme počet stupňů volnosti n – 3, kde n je počet trojic dat ve výběru.

.rRr 1−′=2.... 21 kxxxyr

2

2

.... 21

y

yxxxy s

sr

k

′=

.212121 ... xyxxyxxyx bbr •=

( )( )22.

212

2121

2111 xxyx

xxyxyxxyx

rr

rrrr

−−

•−=

( )( )22.

211

2112

1211 xxyx

xxyxyxxyx

rr

rrrr

−−

•−=

( )( )2....

2....

................

1321132

13211321321

32111

−−

−−−

−−

•−=

kkkk

kkkkk

k

xxxxxxxxyx

xxxxxxxxyxxxxyxxxxyx

rr

rrrr

kk xxyxxxyx rr ........ 2121=

Matematická statistika II přednášky

- 38 - Christy

Příklad V rámci screeningové akce bylo vyšetřeno 142 starších žen, u kterých byly také zaznamenávány parametry věk (v), krevní tlak (t) a koncentrace cholesterolu v krvi (c). Pro ně se vypočítaly korelační koeficienty rvt = 0,33; rvc = 0,5; rtc = 0,25. Protože zvýšené hodnoty krevního tlaku by mohly souviset se zvýšeným množstvím cholesterolu na stěnách cév, byla tato otázka důkladněji statisticky zkoumána. Parametry t a c s věkem rostou, tážeme se proto, zda jejich poměrně slabší korelace není způsobena efektem parametru věk. Vliv věku jako rušivého parametru se eliminuje zjištěním parciálního korelačního koeficientu rtc.v:

( )( ) 1,050,0133,01

50,033,025,022. =

−−•−=vtcr

Pro 139 = (142 – 3) stupňů volnosti se nedá na hladině významnosti 5 % prokázat významnost tohoto korelačního koeficientu. Tímto statistickým zkoumáním jsme neukázali, že pro každou věkovou kategorii je krevní tlak pozitivně korelován s hladinou cholesterolu v krvi. Výpočet parciálního korelačního koeficientu provádíme ve studiích, v nichž nás zajímá hlubší analýza vztahu mezi proměnnými a ověřování hypotéz o příčinných vztazích. V této souvislosti je možné nalézt různé konfigurace korelačních vztahů proměnných X, Y a Z, přičemž je nutné uvažovat i o směru možné kauzality. Varianta A X, Y, Z jsou nekorelovány rxy = 0 ryz = 0 rxz = 0 Varianta B X a Y jsou dvě nekorelované příčiny pro proměnnou Z rxy = 0 ryz ≠ 0 rxz ≠ 0 Varianta C Z je společná příčina X a Y rxy ≠ 0 ryz ≠ 0 rxz ≠ 0 ale rxy.z = 0 Varianta D Vztah X a Y je zprostředkován Z rxz ≠ 0 ryz ≠ 0 rxy = rxz ryz ale rxy.z = 0 Uvedená schémata implikují hodnoty korelačních koeficientů (v praxi ovšem předpokládáme rovnost nule pouze přibližnou). Naopak to jednoznačně neplatí. Například X → Z → Y má stejné koeficienty jako Y → Z → X. Stejně tak situace C a D jsou empiricky neodlišitelné. V těchto případech interpretujeme vztahy na základě dosavadních teoretických poznatků a pomocí základních kritérií pro ověřování kauzálního vztahu:

a) silná závislost mezi proměnnými, b) prokázání této závislosti v různých podmínkách, c) prokázání změny hodnoty jedné proměnné při změně hodnoty druhé proměnné, d) působení proměnné klasifikované jako příčina předchází efektu v čase, e) existence věrohodného teoretického modelu působení.

Vliv t řetí proměnné lze prokázat i z grafu reziduí. Jestliže zobrazení párových hodnot (zi; ei) odhalí závislost regrese na třetí proměnné Z, můžeme si toto tvrzení ověřit vypočtením příslušného vícenásobného korelačního koeficientu a testem významnosti zlepšení predikce F-testem. Testovací F-statistika má tvar

Matematická statistika II přednášky

- 39 - Christy

přičemž F-testovací hodnotu srovnáme s kritickou mezí F-rozdělení se stupni volnosti 1 a n-3. Testování průkaznosti koeficientu vícenásobné a dílčí korelace a vícenásobné regresní funkce Statistická průkaznost koeficientu vícenásobné korelace se ověřuje testováním nulové hypotézy H0: ρy.x1x2…xk = 0. Alternativní hypotéza předpokládá, že H1: ρy.x1x2…xk ≠ 0, tzn. že výběrový koeficient vícenásobné korelace ry.x1x2…xk je odhadem koeficientu vícenásobné korelace základního souboru ρy.x1x2…xk, který má hodnotu rozdílnou od nuly, a tím je tedy korelace prokázána. Za předpokladu, že jde o výběr z (k+1)-rozměrného normálního rozdělení, má při platnosti nulové hypotézy statistika rozdělení F o k a (n – k – 1) stupních volnosti. H0 se zamítá, jestliže hodnota testového kritéria je větší než tabulková hodnota F-rozdělení. V případě zamítnutí H0 je koeficient vícenásobné korelace ry.x1x2…xk statisticky průkazný, závislost tedy byla prokázána (lze se přiklonit k hypotéze, že alespoň jeden regresní koeficient je různý od nuly). Při testování průkaznosti koeficientu dílčí korelace se testuje nulová hypotéza H0: ρyxr . x1x2…xr-1xr+1…xk = 0. Testové kritérium je v případě alternativní hypotézy H1: ρyxr . x1x2…xr-1xr+1…xk ≠ 0 rovno výrazu Kritická hodnota testového kritéria, která je veličinou Studentova rozdělení, se hledá pro stanovenou pravděpodobnost a stupně volnosti (n – k – 1). Zamítnutím H0 je průkaznost koeficientu dílčí korelace prokázána. Statistická průkaznost vícenásobné regresní funkce je ověřována pomocí analýzy rozptylu. H0 předpokládá, že testovaná regresní funkce je statisticky neprůkazná. Testové kritérium F je podílem teoretického rozptylu (rozptylu regrese) k reziduálnímu rozptylu (rozptylu kolem regrese) přičemž kritická hodnota se hledá při stanové pravděpodobnosti pro stupně volnosti (k; n – k – 1). Regrese vystihnutá testovanou regresní funkcí je staticky průkazná na uvažované hladině významnosti, pokud vypočtená hodnota F je větší než hodnota F tabulková. Výpočet testového kritéria F vychází z tabulky analýzy rozptylu.

( )( )( ) ,1

32.

22.

xzy

yxxzy

r

nrrF

−−−

=

( )( ) kr

knrF

k

k

xxxy

xxxy

•−−−•

=2

....

2....

21

21

1

1

( ) .1

12

..............1

1121

1121

krrr

krrr

xxxxxyxxxxxxyxkn r

knrt

+−

+− −−−•=−−

( ) ,2

21

1;r

knk s

sF =−−

Zdroj

variability Součet čtverců

Stupně

volnosti Rozptyl

Regrese S1 = Sc – Sr k k

Ss 12

1 =

Reziduum ( )∑=

′−=n

1i

2iir yyS

n – k –

1 1kn

Ss r2

r −−=

Celkem ( )∑=

−=n

1i

2ic yyS n – 1

Matematická statistika II přednášky

- 40 - Christy

Vícenásobná nelineární regrese a korelace Při zkoumání vícenásobných funkcí, kdy vztahy nelze aproximovat jako lineární, se využívají různé typy vícenásobných nelineárních funkcí. Po formální stránce lze těchto funkcí zkonstruovat celou řadu, velmi obtížně se však hledají věcně-ekonomická kritéria zdůvodňující volbu takových typů funkcí. Jako příklad je možné uvést funkci kvadratickou, lomenou, exponenciální, logaritmickou apod. Např. tvar vícenásobné lomené funkce lze zapsat v rozepsaném tvaru Vícenásobná exponenciální funkce

V některých případech se také uvažuje o násobení proměnných X mezi sebou, tzn. uvažuje se o možnosti interakce vysvětlujících proměnných.

Ve všech případech se při výpočtu parametrů funkcí využívá metody nejmenších čtverců pro stanovení soustavy normálních rovnic: u aditivních tvarů u multiplikativních tvarů Těsnost závislosti závisle proměnné na k nezávisle proměnných je charakterizována indexem korelace nebo korelačním poměrem. Největšího praktického použití doznaly vícenásobné nelineární regresní funkce při charakterizování reprodukčního procesu – tzv. produkční funkce. Ty charakterizují a zároveň kvantifikují vztah mezi výrobou (produkcí) a příslušnými produkčními faktory. Produkční funkce dělíme na jednofaktorové, tj. takové, kde jde o vtah mezi produkcí (y) a jedním produkčním faktorem (x1), a vícefaktorové, tj. takové, kde jde o vztah mezi produkcí (y) a x1, x2, …, xk produkčními faktory, které byly vzaty v úvahu při analýze reprodukčního procesu. Při volbě příslušného tvaru produkční funkce je třeba znát vztahy uvnitř modelovaného procesu nebo mít o těchto vztazích alespoň učiněnou určitou ekonomickou teorii. Předpoklady lineárního modelu Na začátku je zapotřebí zjistit scházející údaje v matici dat a zkoumat přítomnost extrémních hodnot u jednotlivých proměnných. V průběhu tvorby a ověřování vhodnosti vytvořeného modelu je nutné ověřit pět specifických předpokladů: - Reziduální hodnoty ei = yi – y`i mají normální rozdělení s nulovou střední hodnotou. - Rozptyl reziduálních hodnot je stejný pro uvažované rozsahy nezávislých proměnných. - Hodnoty predikované proměnné jsou na sobě nezávislé. - Vztahy mezi prediktory (X) a závisle proměnnou jsou lineární. - Neexistuje multikolinearita mezi prediktory (X).

( )∑ ∑ ∑∑= =

= =

+++=′k

1r

k

1r

1k

1r

k

1sisirsr

2irrirri srkdexxdxcxbay p

kki2i21i10i blogx...blogxblogxblogy ++++=′

kii2i1 xk

x2

x10i b...bbby ••••=′

,1

0 ∑=

+=′k

r ir

ri x

bby

.2

2

1

10

ik

k

iii x

b

x

b

x

bby K+++=′

∏=

=′k

r

xri

irbby1

0

kiikkkiiiikik

iikikiii

xxdxxdxxdxc

xcxcxbxbxbay

)1(,1313,1212,12

222

2112211

...

......

−−+++++

++++++++=′

( ) min,1

2 =′−∑=

n

iii yy

( ) .minloglog1

2 =′−∑=

n

iii yy

Matematická statistika II přednášky

- 41 - Christy

Provedení většiny kontrol – viz. jednoduchá regrese. Abychom ověřili tyto předpoklady, musíme specificky provést následující kontroly: - Zobrazíme reziduální hodnoty pomocí grafu stonku a listu nebo pomocí normálního grafu a zkontrolujeme normalitu jejich rozdělení. - Zobrazíme vztah mezi reziduálními hodnotami a prediktory a zkontrolujeme, zda rozptýlenost reziduálních hodnot je homogenní. - Někdy je závislost mezi měřeními závisle proměnné způsobena efektem pořadí, v němž byly objekty měřeny. Zobrazíme reziduální hodnoty proti pořadí měření a kontrolujeme přítomnost rozlišitelné konfigurace nebo cyklu. - Zobrazujeme bodové dvourozměrné grafy závisle a nezávisle proměnné. - Multikolinearita znamená, že nezávisle proměnné nebo jejich podmnožina jsou vzájemně silně korelovány. Odhady regresních koeficientů jsou pak velice nestabilní – když změníme několik málo hodnot měření, odhady regresních koeficientů se mohou dramaticky změnit. Také zjišťujeme tzv. vybočující a odlehlá pozorování při regresi, zda mají charakter vlivných bodů. Vlivné body jsou takové, jež podstatně ovlivňují odhady regresních koeficientů. Vybočující pozorování jsou nezvyklé konfigurace hodnot týkající se společného rozdělení nezávislých proměnných. Odlehlé hodnoty při regresi jsou nápadně velké reziduální hodnoty, upozorňující na špatnou predikci závisle proměnné. Multikolinearita Vysvětlující proměnné regresního modelu mohou být vzájemně nezávislé nebo mezi nimi může existovat závislost. Pojem multikolinearity je velmi úzce svázán se silnou vzájemnou lineární závislosti vysvětlujících proměnných, jejímž důsledkem je špatně podmíněná matice X (tzn. úzce souvisí s vlastnostmi matice X, takže v tomto smyslu jde o spíše datový problém). Lze ji také předpokládat v případě, kdy F-test vícenásobné regresní funkce je významný a všechny t-testy jednotlivých parametrů jsou nevýznamné (svědčí to o silné multikolinearitě mezi sloupci matice X). Přesnou multikolinearitou se tedy rozumí případ, kdy jednotlivé sloupce xj (j = 1, 2, …, k) matice X jsou lineárně závislé, takže pro alespoň jednu nenulovou konstantu cj platí c1x1 + c2x2 + … + ckxk = 0n a vektory hodnot vysvětlujících proměnných lze vyjádřit jako lineární kombinace vektorů hodnot jiných vysvětlujících proměnných. Průvodním znakem multikolinearity je tedy přibližná rovnoběžnost vektorů xj a xk (j ≠ k), které jsou ve sloupci matice X. Tato situace může vzniknout z toho důvodu, že některé vysvětlující proměnné jsou zbytečné, protože je lze nahradit lineární funkcí některých ostatních nebo všech vysvětlujících proměnných. K tomuto případu může dojít špatnou volbou kombinací hodnot vysvětlujících proměnných, ale i shodou okolností nebo náhodou při malém rozsahu výběru. V přítomnosti multikolinearity nelze odděleně sledovat vliv jednotlivých vysvětlujících proměnných. Multikolinearita se často vyskytuje i u modelů dobře popisujících data. Problémem tedy není běžně se vyskytující vzájemná závislost vysvětlujících proměnných, ale její síla. Právě silné (avšak nikoli funkční) vzájemné lineární závislosti všech nebo některých vysvětlujících proměnných se říká multikolinearita. Vzájemná lineární závislost je dána povahou zkoumaných veličin a většinou ji nelze mechanicky eliminovat pouhou opravou některých chybných údajů anebo vyloučením některých vysvětlujících proměnných z regresní funkce. Kritéria pro identifikaci multikolinearity - Jednoduché korelační koeficienty dvojic vysvětlujících proměnných Hodnoty blízké ±1 jednoduchých korelačních koeficientů r(xj, xj`), j ≠ j` = 1, 2, …, k naznačují možnost existence multikolinearity. Obecně platí, že multikolinearita je škodlivá (identifikována), když některý z korelačních koeficientů překročí hodnotu 0,7 (0,8). - Determinant korelační matice R Jsou-li všechny dvojice vysvětlujících proměnných párově nekorelované, tj. všechny korelační koeficienty jsou rovny nule a multikolinearita neexistuje, pak má matice R podobu jednotkové matice a její determinant je roven 1. Jakmile jsou korelační koeficienty různé od nuly, hovoříme o multikolinearitě. Determinant korelační matice vysvětlujících proměnných je potom menší než jedna a s narůstající multikolinearitou se přibližuje nule. Rovná-li se nule, hovoříme někdy o úplné multikolinearitě (prakticky jde o vzácný jev, kdy nejde použít MNČ).

Matematická statistika II přednášky

- 42 - Christy

- Použití kritéria M To se opírá o skutečnost, že při silné multikolinearitě vzniká (zdánlivý) rozpor mezi výsledky individuálních t-testů o regresních parametrech a celkovým F-testem. Kritérium M má tvar ve kterém tj = bj/sbj jsou testová kritéria pro individuální testy a F je testové kritérium pro celkový test. Při nezávislosti vysvětlujících proměnných se rovná nule. Čím větší jsou hodnoty kritéria M, tím silnější je multikolinearita. Orientačně pro M větší než 0,8 se lineární závislost vysvětlujících proměnných označuje za silnou. Test pomocí kritéria M je vhodný především tam, kde je zapotřebí stanovit ty vysvětlující proměnné, které významně přispívají k objasnění variability proměnné y. - Farrarův – Glauberův test Jeho testovým kritériem je výraz

n – rozsah výběru, k – počet vysvětlujících proměnných zařazených do modelu, |R| - determinant korelační matice. Testovaná nulová hypotéza H0 zní na nezávislost vysvětlujících proměnných. Testové kritérium má při platnosti hypotézy H0 rozdělení χ2 s k(k-1)/2 stupni volnosti. Kritickým oborem jsou ty hodnoty testového kritéria B, kdy B překročí příslušný kvantil χ2 – rozdělení, tj. V tomto případě již multikolinearitu považujeme za statisticky významnou. Shrnutí důsledků multikolinearity - Multikolinearita má za následek nadhodnocení součtu čtverců regresních koeficientů, takže se pak lze mylně domnívat, že některé vysvětlující proměnné jsou důležitější než ve skutečnosti jsou. - Multikolinearita zvyšuje rozptyly odhadů, což má za následek:

- snížení přesnosti odhadů ve smyslu delších individuálních intervalů spolehlivosti, - nízké hodnoty tj pro individuální t-testy, při kterých se některé (nebo dokonce všechny) regresní koeficienty ukazují jako statisticky nevýznamně odlišné od nuly i v případě jinak velmi kvalitního regresního modelu. - zdánlivý rozpor mezi nevýznamnými výsledky t-testů a významným výsledkem celkového F-testu, - nestabilní odhady regresních koeficientů.

- Multikolinearita komplikuje a často úplně znemožňuje rozumnou interpretaci individuálního vlivu jednotlivých proměnných na vysvětlovanou proměnnou. - Multikolinearita způsobuje numerické obtíže, které úzce souvisí s malou stabilitou některých regresních odhadů. Možnosti odstranění multikolinearity - Je možné ji odstranit v případě přeurčeného regresního modelu, neboli v případě výskytu zbytečných vysvětlujících proměnných, jejich identifikací a vypuštěním z regresní rovnice. V takové situaci mohou být prospěšné metody hledající nejlepší podmnožinu vysvětlujících proměnných, regresní grafy apod. - Je-li způsobena nevhodnou volbou kombinací hodnot vysvětlujících proměnných (tj. nevhodným plánem experimentu), je možné nedostatky napravit a pořídit si kvalitnější, nová data.

( ) ( ) ,ln5k26

11nB R•

+−−−=

=

1

1

1

21

212

121

L

MLMM

L

L

xxxx

xxxx

xxxx

kk

k

k

rr

rr

rr

R

,1

1

1

2

1

2

+

=

=

=

k

jj

k

jj

t

F

t

F

M

2

1

−−≥

21)k(kα

χB

Matematická statistika II přednášky

- 43 - Christy

- Nejkomplikovanějším, ale zároveň asi nejčastějším případem, je věcně zdůvodněná závislost vzájemně propojených veličin. V takovém případě vypuštění proměnných z modelu může vést k systematickým chybám a ani pořízení nových dat většinou nepomůže. Jedinou rozumnou možností je maximálně využít všechny věcné a empirické informace o regresním modelu a jeho parametrech, což většinou vede ke zvýšení kvality modelu i ke zlepšení vlastností regresních odhadů. Extrémní či jinak příliš vlivné hodnoty mohou zkomplikovat nebo dokonce znemožnit správnou identifikaci multikolinearity. Vlivná pozorování mohou způsobit, že některé nebo dokonce všechny charakteristiky neumožňují multikolinearitu odhalit a popsat. V tomto smyslu mohou vlivná pozorování maskovat nebo zakrýt existenci multikolinearity. V takovém případě je třeba nejdříve identifikovat a případně vyloučit příliš vlivná pozorování a teprve pak se zabývat problémem případné multikolinearity. Na druhé straně ale může být multikolinearita také žádoucí a to v případě, kdy koeficient determinace vychází vysoký a regresní model dobře popisuje experimentální data. Pro účely aproximace dat a konstrukce modelů, které mají „vyhladit“ experimentální závislosti, není multikolinearita na obtíž. Podobně je tomu i v případě, kdy provádíme odhady závisle proměnné na základě hodnot vysvětlujících proměnných. Hledání optimální množiny vysvětlujících proměnných Jednou z nejdůležitějších podmínek klasického lineárního modelu je předpoklad, že vysvětlovanou proměnnou Y lze vysvětlit jako součet lineární funkce k vysvětlujících proměnných X1, X2, …, Xk a nepozorovatelné náhodné složky. Souběžně s tím se předpokládá, že jiné proměnné, které (i když možná ovlivňují Y) nebyly zařazeny do regresního modelu, jsou nezávislé na proměnných X1, X2, …, Xk a jsou tedy součástí náhodné složky ε. Je běžné, že nelze jednoznačně rozdělit v úvahu přicházející vysvětlující proměnné na podstatné a nedůležité. V regresních úlohách máme často k dispozici velký počet kandidujících vysvětlujících proměnných, o kterých se předpokládá, že nějakým způsobem ovlivňují či vysvětlují variabilitu proměnné Y. Úkolem je vybrat ze všech v úvahu přicházejících vysvětlujících proměnných X1, X2, …, Xk jejich vhodnou (vyhovující, nejlepší) podmnožinu, která vychází zejména z obsahové znalosti zkoumané problematiky (statistická analýza se zaměřuje jen na možnost snížení počtu vysvětlujících proměnných ve smyslu vypuštění nedůležitých proměnných z modelu či na možnost vyloučit předem vliv silné vzájemné závislosti mezi vysvětlujícími proměnnými). Z metod volby podmnožiny vysvětlujících proměnných lze využít metodu postupného přidávání vysvětlujících proměnných do modelu, pokud způsobují na zvolené hladině významnosti statisticky významný růst součtu čtverců Nejdříve se vypočítají korelační koeficienty mezi závisle proměnnou a jednotlivými vysvětlujícími proměnnými ryx1, ryx2, …, ryxk a do regresní funkce se zařadí jako první ta proměnná, jejíž korelační koeficient je nejvyšší. Pak vypočítáme dílčí koeficient korelace závisle proměnné vůči zbylým vysvětlujícím proměnným za předpokladu, že vysvětlující proměnná zařazená do regresní funkce v prvním kroku je konstantní. Pomocí F-testu ověříme, zda přínos nezávisle proměnné s nejvyšším dílčím korelačním koeficientem je statisticky významný. Postup opakujeme tak dlouho, pokud zařazení další vysvětlující proměnné již nevede k významnému zlepšení predikce a velikosti teoretického součtu čtverců. V popsaném algoritmu se využívá statistický test nulového efektu dodatečné proměnné nebo nulového efektu skupiny dodatečných proměnných na závisle proměnnou. Opírá se o testovací F-statistiku, jež má tvar Dodatečná je množina prediktorů Xr+1, …, Xk, kterou přidáváme k množině prediktorů X1, X2, …, Xr. Uvedená statistika má za předpokladu nulového přídavného efektu F-rozdělení se stupni volnosti (k – r) a (n – k – 1). Algoritmus postupné regrese vybírá nejlepší podskupinu prediktorů následujícím způsobem:

- V prvním kroku vybere jako nejlepší prediktor proměnnou s největším korelačním koeficientem s Y a zařadí ji do vytvořené množiny prediktorů. - V následujícím kroku se přibere proměnná, která nejlépe zlepšuje predikční mohutnost těch proměnných, které již byly do predikce zařazeny (má největší parciální korelační koeficient s Y). - Z predikce je odstraněna ta proměnná, jejíž příspěvek pro predikci Y klesl pod určitou úroveň (její parciální korelační koeficient s Y klesl pod mez významnosti). Přejde se k předchozímu kroku.

Proces přibírání prediktorů skončí, když již žádný další prediktor významně nezlepší predikci.

( )( )( )( ) .

1

12

....

2....

2....

21

2121

k

rk

xxxy

xxxyxxxy

rrk

rrknF

−−−−−

=

Matematická statistika II přednášky

- 44 - Christy

Tento algoritmus však nevede nutně k nejlepší skupině prediktorů. Tímto postupem se obvykle „podaří“ seřadit prediktory podle velikosti jejich predikční schopnosti. Při použití této metody existuje jisté nebezpečí v tom, že hodnocení vhodnosti zařazení jednotlivých prediktorů do regresní funkce je ovlivněno pořadím, ve kterém prediktory do regresní funkce vstoupily. Rozlišujeme regresi - dopřednou (forward)– proměnné se do modelu postupně přidávají, - zpětnou (backward) – proměnné se z modelu postupně odebírají. Stepwisse regrese (stupňovitá regrese) Při této se metodě se na každém kroku sleduje, co by se stalo, kdyby vysvětlující proměnné byly vybírány do regresní funkce v jiném pořadí. Nejprve se vypočte odhad regresní funkce obsahující tu vysvětlující proměnnou, která má nejvyšší koeficient korelace ryxi , i = 1, 2, …, k. Pak se určí rezidua yi – y`i = ei, která se považují za novou závisle proměnnou, a hledá se další vysvětlující proměnná s nejvyšším koeficientem korelace mezi novou závisle proměnnou ei a některou ze zbývajících vysvětlujících proměnných xj, tedy rexj. Vypočítané rovnice se postupně slučují, tzn. že se opět určí nová rezidua, která se dále považují za novou závisle proměnnou, a hledá se další vysvětlující proměnná stejným způsobem. Postup končí, když již žádná závislost rezidua proti zbývajícím vysvětlujícím proměnným není statisticky významná. Výsledný model pak představuje „optimální“ podmnožinu vysvětlujících proměnných za předpokladu, že tvar modelu je správný, žádná podstatná vysvětlující proměnná nebyla opomenuta, stupeň multikolinearity je únosný a data mají dobrou vypovídací schopnost.

Matematická statistika II přednášky

- 45 - Christy

Matematická statistika II přednášky

- 46 - Christy

Mnohonásobná regrese a analýza rozptylu Zatím jsme vždy předpokládali, že všechny proměnné jsou spojité a mají metrický charakter. Od poloviny šedesátých let 20. století se začaly objevovat stále častěji aplikace regresní úlohy při řešení úloh analýzy rozptylu, v nichž vystupují jako nezávisle proměnné kvalitativní diskrétní proměnné. Podstata těžkostí je zřejmá již v situaci jednoduché analýzy rozptylu, kdy faktor má více hladin (např. když porovnáváme pět nebo více intervencí). Nestačí totiž přiřadit úrovním faktoru A např. hodnoty 1, 2, …, 6 a použít takto definovanou nezávisle proměnnou v jednoduché lineární regresní analýze, protože mezi úrovněmi faktoru nemůžeme obvykle definovat nějaké přirozené řazení. Interpretace výsledků provedené analýzy by nevedla k jasným závěrům (obtížná či spíše nemožná interpretace). Řešení představují speciální kódovací postupy. Zavedení vícehodnotových kvalitativních proměnných do regresního vztahu se provádí zvláštním obratem přes binární proměnné. Využívá se přitom skutečnosti, že každou kvalitativní proměnnou o s hladinách lze jednoznačně reprezentovat pomocí s – 1 alternativních proměnných. Tyto nové proměnné, kterým se říká obecně kódovací nebo také zástupné, příp. indikátorové proměnné, pak použijeme v regresním modelu. Příklad – zavedení kvalitativního znaku „typ temperamentu“ do regresního vztahu Reprezentaci této proměnné pomocí zástupných proměnných X1, X2, X3 vyjadřuje tabulka. Zástupné proměnné X1, X2, X3 v tomto příkladu jednoznačně popisují kvalitativní znak Z („temperamentový typ“), který nabývá čtyř hladin. Na rozdíl od něho však mají tu výhodu, že je lze použít v modelu mnohonásobné lineární regresní analýzy. Před analýzou doplníme jejich hodnoty do matice pozorování X. Lze pak např. zkoumat, jak předpovídat stupeň neurotičnosti Y

Matematická statistika II přednášky

- 47 - Christy

(měříme ho na spojité škále) pomocí váženého součtu hodnot zástupných proměnných znaku „typ temperamentu“. Regresní rovnice bude obecně vypadat: y = a + bx1 + cx2 + dx3. Odhad stupně neurotičnosti pro cholerika má pak tvar y = a + d; jestliže osoba je melancholik, pak je v průměru její stupeň neurotičnosti a, apod.

Zástupné proměnné Temperament Z

X1 X

2 X

3

sangvinik 1 0 1

flegmatik 0 1 0

cholerik 0 0 1

melancholik 0 0 0 Pro popsanou regresi lze vypočítat mnohonásobný koeficient korelace pro posouzení stupně neurotičnosti na kvalitativním znaku Z a testovat jeho statistickou významnost. Jestliže ji prokážeme, tak alespoň pro jeden typ temperamentu platí, že je při něm průměrná hladina neurotičnosti jiná než u ostatních typů. Tento postup odpovídá jednoduché analýze rozptylu. Platí totiž, že F-statistika jednoduché analýzy rozptylu se rovná pro tento případ F-statistice testu významnosti mnohonásobného korelačního koeficientu:

( ) .1

)1(2

....

2....

21

21

k

k

xxxy

xxxy

rk

rknF

−−−

=

Způsob kódování faktorů v případě dvoufaktorové analýzy rozptylu Máme zkoumat problém 3 x 4 faktorové analýzy rozptylu. Dvě indikátorové proměnné U1 a U2 budou sloužit pro kódování faktoru A a tři indikátorové proměnné V1, V2 a V3 pro kódování čtyř úrovní faktoru B. musíme však do analýzy zahrnout i interakce obou faktorů. V tomto případě se vyjádří vzájemné ovlivňování nezávislých proměnných v působení na závisle proměnnou tak, že pronásobíme mezi sebou obě množiny indikátorových proměnných. Získáme tak proměnné U1V1, U1V2, U1V3, U2V1, U2V2 a U2V3. Ty jsou také binárního typu a můžeme s nimi tedy pracovat jako s dalšími 6 nezávisle proměnnými. Probraná situace je tedy popsána pomocí 2 + 3 + 6 indikátorových proměnných. Je snadné odhadnout, že s tím, jak roste složitost schématu výzkumu, zvyšuje se také počet indikátorových proměnných. Bez počítače by příslušné vyhledání optimálního lineárního prediktoru a vypočítání testovací statistiky nebylo vůbec možné. Způsob kódování kvalitativních proměnných závisí na úloze, která je řešena. Při kódování efektů přiřazujeme všem kódovaným proměnným, které reprezentují jednotlivé úrovně faktoru A, číslo 1 pro danou úroveň a jinak nulu až na jednu vybranou úroveň, jíž je pro všechny kódovací proměnné přiřazena hodnota –1. Například pro čtyři skupiny (úrovně) ukazuje kódování tří kódovacích proměnných Vi v následující tabulce.

Matematická statistika II přednášky

- 48 - Christy

V1 V

2 V

3 Skupina

1 0 0 první

0 1 0 druhá

0 0 1 třetí

-1 -1 -1 čtvrtá Tento systém má tu výhodu, že výsledné regresní koeficienty reprezentují jednotlivé efekty ošetření

.,, 321 xxxxxx −−−

V obecnějším systému kódování kontrastů se používá za hodnoty jedné kódovací proměnné jakákoli množina čísel, jejíž součet dává nulu, s další podmínkou, že žádný sloupec (obsahující hodnoty pro kódovací proměnnou) nesmí být možné vyjádřit jako kombinaci ostatních sloupců (přesněji lineární kombinaci ostatních sloupců).

I II III IV V VI

Skupina 1 3 0 0 1 0 1

Skupina 2 -1 2 0 -1 1 0

Skupina 3 -1 -1 1 -1 0 -1

Skupina 4 -1 -1 -1 1 -1 0

Takže první tři sloupce v tabulce jsou povolenými hodnotami kódovacích proměnných určených pro výpočet kontrastů, kdežto poslední tři nikoliv, protože platí VI = IV + V. Každá kontrastová kódovací proměnná zodpovídá jinou otázku. Například proměnná I se ptá, zda se liší statisticky

významně od průměru hodnot ;,, 432 xxx

proměnná II se ptá, zda se 2x liší statisticky významně od průměru hodnot ., 43 xx

Hlavní výhodou přístupu k problémům analýzy rozptylu pomocí mnohonásobné regresní analýzy je okolnost, že díky vhodně zvoleným kódovacím proměnným lze přímo testovat specifické otázky dané úlohy. Další výhoda spočívá v možnosti míchat různé typy proměnných (spojité a kategoriální), kdežto vlastní analýza rozptylu používá pouze kategoriální nezávisle proměnné. Také je možné pružněji zařazovat nezávisle proměnné do analýzy. Statistickým testem významnosti přírůstku mnohonásobného korelačního koeficientu zodpovídáme otázku, zda nová proměnná ovlivňuje závisle proměnnou ještě jiným způsobem než ostatní proměnné, které jsou již v regresní funkci přítomny. Užití mnohonásobné regrese v analýze rozptylu nezjednodušuje výpočetní složitost analýzy, ale zprůhledňuje celkový přístup k analýze rozptylu, protože není nutné se odkazovat pro každé výzkumné schéma na jiné výpočetní vzorce. Modelu lineární regresní analýzy rozšířenému o indikátorové kódovací proměnné a příslušné interakční členy se říká obecný lineární model, pomocí něhož lze analyzovat i problémy analýzy kovariance.

Matematická statistika II přednášky

- 49 - Christy

Poznámka Analýza rozptylu poskytuje správné výsledky jen za předpokladu, že jednotlivé hodnoty yij jsou vzájemně nezávislé a že chyby eij mají normální rozdělení s konstantním rozptylem. Tyto předpoklady je nutno v praxi ověřit. Pro tyto účely je výhodné převést model analýzy rozptylu na model lineární regrese a využít k testování předpokladů o chybách postupů regresní diagnostiky. Model yij = µi + εij lze vyjádřit ve tvaru lineárního regresního modelu yij = µ1w1 + µ2w2 + … + µkwk + εij, kde wi jsou indikátorové proměnné, pro které platí - jde o i-tý efekt, - nejde o i-tý efekt. Průměry µ1, µ2, …, µk jsou chápány jako regresní parametry. Pokud platí uvedené předpoklady o chybách, lze odhady parametrů získat metodou nejmenších čtverců. V případě analýzy reziduí a vlivných bodů mají důležitou roli diagonální prvky projekční matice H (zaměřuje se na hledání odlehlých hodnot v množině X). Pro ověření normality reziduí pak lze použít grafů reziduí – klasických, predikovaných či standardizovaných (QQ). Podobně jako v regresních modelech mají také v modelech analýzy rozptylu důležitou roli vybočující hodnoty, které mohou silně zkreslit výsledky analýzy. Pro účely identifikace vybočujících hodnot je výhodné použít studentizovaná rezidua (zaměřují na na odlehlé hodnoty v množině Y) či Cookovu vzdálenost (vlivné body). Lze analyzovat i vzájemnou závislost faktorů pomocí metod pro odhalení existence multikolinearity. Analýza kovariance Analýza kovariance je statistická metoda, která kombinuje vlastnosti a principy analýzy rozptylu a rozšiřuje některé možnosti využití lineárních regresních modelů. Základní myšlenkou kovarianční analýzy je rozšíření nebo též modifikace modelu analýzy rozptylu s jedním nebo více kategoriálními faktory na model, který navíc obsahuje kontrolovatelné (nejlépe kvantitativní spojité, ale případně i další kategoriální) proměnné, které rovněž mají vliv na hodnoty vysvětlované či vysvětlovaných proměnných. Původním cílem analýzy kovariance je očištění studované závislosti vysvětlovaných proměnných na zvolených faktorech od zavádějícího působení doprovodných vlivů (označovaných za covariates). Působení doprovodných proměnných na vysvětlované proměnné je sice podstatné, ale není v dané úloze přímým předmětem zájmu. Společné působení anebo smíchání vlivů Regresní analýza má dva zásadně odlišné cíle. Prvním je předpověď průměrných nebo konkrétních hodnot vysvětlované proměnné pomocí skupiny vysvětlujících proměnných, zatímco druhým je kvantifikace individuálního vlivu vysvětlujících proměnných na vysvětlovanou proměnnou. Dobrá předpověď vyžaduje najít stabilní model, který odráží obecné rysy zkoumané závislosti a dobře vyhovuje výchozím pozorováním. Proti tomu úspěšná kvantifikace individuálního vlivu se opírá o kvalitní odhady regresní koeficientů nebo o jiné podobně interpretovatelné charakteristiky. Závislost dvou či více proměnných bývá zvykem posuzovat pomocí vhodných charakteristik, např. v regresní úloze to jsou především regresní koeficienty, ale mohou to být i jiné míry. Při snaze posuzovat význam dříve neuvažovaných proměnných (v souvislosti s analýzou kovariance se jim často říká doprovodné nebo kontrolní) je otázkou, jak je do analýzy zařadit a hodnotit. Pokud se hrubé charakteristiky (jednoduché regresní či korelační koeficienty), které neuvažují existenci mimo stojících (tedy dosud neuvažovaných) proměnných, z věcných hledisek velikostí zásadně liší od čistých charakteristik (dílčí regresní nebo korelační koeficienty), uvažujících vliv dříve neuvažovaných proměnných, pak dochází k interpretačním potížím. Je zřejmé, že některá z těchto proměnných chybí a musí být do analýzy zařazena. V této situaci, kdy dochází k určitému promíchání vlivu, je obtížné až nemožné význam jednotlivých proměnných rozložit a smysluplně tak kvantifikovat podíl těchto proměnných na změnách hodnot vysvětlované nebo vysvětlovaných proměnných. Ve směsi významem nerozeznatelných vlivů je obtížné rozhodnout, které proměnné jsou rozhodující a které je vhodné vypustit jako nepodstatné nebo duplicitní. Závažný je i jiný případ, kdy vztahy mezi vysvětlujícími a vysvětlovanými proměnnými se mění v závislosti na změnách hodnot nebo při různých úrovních (ne)uvažovaných proměnných (interakce dvou faktorů). Přitom předpoklad neexistence interakce mezi kvalitativními faktory a kvantitativními doprovodnými proměnnými má v analýze zásadní význam.

Matematická statistika II přednášky

- 50 - Christy

Testovat existenci interakce proměnných je možné např. zařazením součinových regresorů uvažovaných vysvětlujících proměnných. Třeba do lineární regresní rovnice se dvěma vysvětlujícími proměnnými ve formě β0 + β1X1 + β2X2 stačí přidat součinový člen β3X1X2 a po získání patřičných MNČ odhadů parametrů testovat hypotézu, že parametr β3 je nulový. Zamítnutí této hypotézy lze považovat na zvolené hladině významnosti za statistický důkaz interakce, neboli za prokázání existence společného působení proměnných X1 a X2 na posuzovanou vysvětlovanou proměnnou. Potřeba kontroly a modifikace nepřímých vlivů Předchozí část naznačila důvody potřeby kontrolovat (hlídat) proměnné, které přímo nesouvisí s danou úlohou, ale jejichž vliv na vysvětlované proměnné je zjištěn, i když v dané úloze není hlavním předmětem zájmu. Prvním důvodem je snaha identifikovat a hodnotit případnou interakci vlivů; druhým důvodem je hledání možností, jak řešit problém obtížné či nemožné separace vzájemně závislých vlivů, a třetím důvodem je obecný požadavek co největší přesnosti odhadů všech relevantních charakteristik zkoumané závislosti. V regresních úlohách se potřeba kontroly řeší přidáním sporných vysvětlujících proměnných k nesporným (přímo vyplývají ze zadání úlohy). Pozornost je pak soustředěná na modifikaci hodnot odhadnutých regresních koeficientů po zařazení nových proměnných a na změny, ke kterým došlo. Modifikace pomocí kovarianční analýzy se při použití regresního přístupu zabezpečuje současným zařazením jak studovaných faktorů (dominálních proměnných) ve formě umělých nula-jedničkových veličin, tak i kontrolovaných doprovodných proměnných. Při tomto postupu se předpokládá, že z hlediska jejich simultánního působení na vysvětlovanou proměnnou neexistuje interakce mezi nominálními a doprovodnými proměnnými. Příklad Vysvětlovaná proměnná Y – systolický krevní tlak Vysvětlující proměnná – věk náhodně vybraných mužů a žen Předpokládá se, že dobrým modelem závislosti krevního tlaku na věku je přímka. Nejprve uvažujme dvě otázky: - Vyjadřuje závislost krevního tlaku na věku pro muže a ženy stejná regresní rovnice přímky? - Je průměrný krevní tlak mužů a žen stejný, vezmeme-li v úvahu (neboli po modifikaci, resp. kontrolujeme-li) možné zavádějící důsledky rozdílných věkových rozdělení mužů a žen? Pro odpovědi na tyto otázky nemůžeme použít stejné statistické nástroje. Odpověď na první otázku vyžaduje porovnat dvě regresní přímky, zatímco druhá musí zhodnotit rozdíly mezi průměry ve skupinách. První otázku lze řešit pomocí regresního modelu β0 + β1X + β2A + β3XA + ε, kde X je věk a A je pohlaví (a1 = 0 pro muže, a2 = 1 pro ženy). Podle provedených testů o parametrech regresní přímky výsledků výpočtů je možné učinit některý z následujících závěrů: - Přímky jsou shodné (koincidentní), neboli β2 = β3 = 0.

- Přímky jsou rovnoběžné (paralelní), neboli β2 ≠ 0, ale β3 = 0. - Přímky nejsou rovnoběžné ani shodné, neboli β2 ≠ 0, β3 ≠ 0.

Tyto závěry úzce souvisí i s odpovědí na druhou otázku. Jsou-li shodné přímky, pak se ani neliší průměrný krevní tlak mužů a žen. Jsou-li přímky rovnoběžné, pak přímka s vyšší hodnotou absolutního členu má (při stejné směrnici přímky) i vyšší průměr. Nejsou-li přímky rovnoběžné, je třeba se jimi důkladněji zabývat. Mají-li průsečík mimo zajímavou oblast věku, nic se nemění proti předchozímu případu. Mají-li průsečík v zajímavé oblasti věku, pak lze říci, že existuje interakce mezi věkem a pohlavím, takže do určitého věku má jedna skupina nižší průměrný tlak a od tohoto věku má tato skupina vyšší průměrný tlak. Pochopitelně pro vyšší kvalitu těchto úsudků bychom provedli patřičné výpočty a testy o shodě dvou přímek, resp. o shodě dvou průměrů na základě údajů pocházejících ze dvou nezávislých výběrů. Typy proměnných v analýze kovariance Analýzu kovariance lze považovat za rozšíření metod analýzy rozptylu a regresní analýzy. Jde o zkoumání závislosti v poměrně složitém souboru proměnných. Uplatňují se v něm: - Jedna nebo několik vysvětlujících proměnných – faktorů A1, A2, …, As, přičemž stejně jako v analýze rozptylu jde o obvykle o nominální nebo alternativní proměnné, ale mohou to být i jiné kategoriální proměnné.

Matematická statistika II přednášky

- 51 - Christy

- Jedna nebo více vysvětlovaných proměnných Y1, Y2, …, Yp, na něž je při analýze soustředěna pozornost v tom smyslu, že chceme prokázat jejich závislost na faktoru či faktorech. Jedna nebo více doprovodných proměnných (kontrolovaných proměnných) X1, X2, …, Xq, které zahrnujeme do modelu a počítáme s nimi zejména proto, abychom závislost vysvětlovaných proměnných na faktorech očistili od jejich vlivu. Předpoklady analýzy kovariance Obvyklé algoritmy v analýze kovariance lze uplatnit při splnění řady podmínek, z nichž některé jsou stejné jako v analýze rozptylu: - Náhodnost výběru - Nezávislost výběrů (skupin), do nichž se výběrový soubor rozpadá. Obecně se nezávislé výběry většinou týkají různých skupin (účelově definovaných částí) sledované populace, ale též to mohou být výběry z různých porovnávaných (nezávislých) populací. - Normální rozdělení Y, popř. vícerozměrné normální rozdělení y, ve všech populacích (skupinách populace). - Homoskedasticita, tedy stejné rozptyly, popř. kovarianční matice, ve všech populacích (skupinách populace). - Lineární závislost Y na X, popř. Y1, Y2, …, Yp na X1, X2, …, Xq, ve všech populacích (skupinách populace). - Shoda regresních koeficientů, neboli rovnoběžnost regresních přímek, popř. rovin nebo nadrovin, ve všech populacích (skupinách populace). Jako další podmínky se někdy uvádí nenáhodný charakter doprovodné proměnné X, popř. doprovodných veličin X1, X2, …, Xq, a nepřítomnost interakce mezi doprovodnou proměnnou X a faktorem A, popř. mezi q doprovodnými proměnnými a několika faktory. Tyto požadavky lze však těžko striktně dodržet. Modelový příklad – komparace účinku dvou intervenčních postupů Ptáme se, zda se liší efekt terapie zachycený hodnotu testu úzkosti (Y) u dvou náhodně sestavených skupin jedinců, které jsou léčeny dvěma odlišnými postupy. Proměnná Y se měří součtem skórů z vhodného psychologického dotazníku. Pro lepší kontrolu výsledů experimentu se zaznamenávaly také počáteční úzkosti (X1) před experimentem a obecná vegetativní labilita (X2). Předpokládáme, že kovarianty (rušivé nezávisle proměnné) mají v obou skupinách stejný vliv na závisle proměnnou. Proměnná Z – indikátorová proměnná – měření patří osobě z experimentální nebo kontrolní skupiny.

Osoby Y X1 X2 X3 = Z Osoby Y X1 X2 X3 = Z 1 6 7 5 0 11 2 4 1 1 2 4 4 1 0 12 5 6 2 1 3 4 5 1 0 13 3 6 2 1 4 7 8 5 0 14 1 3 1 1 5 5 3 1 0 15 6 9 4 1 6 4 3 4 0 16 4 5 2 1 7 7 6 4 0 17 5 8 5 1 8 5 6 1 0 18 3 4 3 1 9 3 5 2 0 19 2 7 3 1 10 3 4 1 0 20 3 8 2 1

1. skupina 2. skupina Dohromady

Průměr m

Odchylka s Průměr m Odchylka s Průměr m Odchylka s

Y 4,80 1,47573 3,40 1,57762 4,10 1,65116 X1 5,10 1,66333 6,00 2,00000 5,55 1,84890 X2 2,50 1,77951 2,50 1,26930 2,50 1,50438

Matematická statistika II přednášky

- 52 - Christy

Zkoumáme-li velikost rozdílů průměrů 4,38,4 10 == yay

odrážející odlišnost působení obou postupů, pak t-testem zjistíme, že není důvodu přiklonit se k alternativní hypotéze: terapie působní rozdílně. Ekvivalentní výsledek indikuje jednoduchá analýza rozptylu. T-testy Prom ěnná Metoda Rozptyl DF t hodn ota Pr > |t| body Pooled Equal 18 2.05 0.0553 body Satterthwaite Unequal 17.9 2.05 0.0554 Rovnost vari ancí F Prom ěnná Metoda DF čit DF jmen hodnota Pr > F body Folded F 9 9 1.14 0.8456 Jestliže však vezmeme v úvahu okolnost, že na začátku experimentu měla první skupina menší průměrnou úzkostnost a zároveň že obě proměnné mohou uvnitř skupin navzájem korelovat, pak bychom při rovnosti účinku spíše očekávali, že první skupina bude mít svůj průměr po experimentu také menší než druhá skupina. Naopak rozdíl v průměrech proměnné Y by byl pravděpodobně větší, kdyby ve skupinách byly průměry proměnné X1 stejné. Dosavadním postupem jsme ale nerespektovali informaci obsaženou v X1. Na základě vztahu mezi Y a X1 by se pravděpodobně část rozdílnosti mezi skupinami pro proměnnou Y dala předpovědět pomocí X1 a tak eliminovat z pozorovaných hodnot. Pro zbytkové hodnoty by pak analýza rozptylu byla relevantnější. Totéž platí i pro proměnnou X2. Uvedený problém analýzy kovariance se dá také zpracovat pomocí regresní analýzy. K tomu je zapotřebí vytvořit jednu kódovací proměnnou (X3), která popisuje zařazení jedinců do obou skupin. Její hodnoty jsou doplněny do matice měření X. Zkoumáme nyní ovlivnění Y proměnnou X3. Chceme zodpovědět otázku, zda zavedení proměnné X3 do regresní rovnice, jež zachycuje vztah mezi Y a X1, X2, povede ke statisticky významnému zlepšení predikce Y. Použijeme tedy kritérium F pro hodnocení významného zlepšení mnohonásobného korelačního koeficientu:

( )( )( )( )

( )( )4386,11

6368,01

3771,06368,0420

12

12.

2.

2.

321

21321 =−

−−=−−

−−−=

xxxy

xxyxxxy

rk

rrknF

Toto F srovnáme s kritickou hodnotou F-rozdělení o (1; 16) stupních volnosti, která má na 1% hladině významnosti hodnotu 8,53. Prokázali jsme, že při uvážení vlivu doprovodných proměnných X1 a X2 je účinek obou terapií odlišný. Rovnice pro odhad cílové proměnné má tvar: y = 1,99 + 0,36 x1 + 0,39 x2 – 1,73 x3. Ovlivnění cílové proměnné proměnnými X1 a X2 se modeluje v použitém regresním modelu stejně v obou skupinách. Provedení regrese uvnitř obou skupin však může prokázat, že ve skutečnosti tomu tak není: působení proměnných X1 a X2 je při uvážení rozdílnosti terapií jiné. Tuto okolnost zkoumáme tak, že do regrese na proměnných X1, X2 a X3 přidáme proměnné X4 = X2X1 a X5 = X3X2, které odpovídají interakci doprovodných proměnných s intervencemi v obou skupinách. Příspěvek nových proměnných k regresi testujeme opět pomocí F kritéria. Jestliže testovací statistika F není významná, nemůžeme zamítnout hypotézu homogenity regresní uvnitř skupin. Pozn.: koeficient determinace R2 = 0,638 není nestranným odhadem teoretické hodnoty – má systematicky větší hodnotu, protože nezohledňuje počet proměnných a počet měřených objektů. Vhodnější je tedy použití korigované hodnoty adjusted R2.

Matematická statistika II přednášky

- 53 - Christy

Matematická statistika II přednášky

- 54 - Christy

Analýza kategoriálních dat Kategoriální data – jedná se především o znaky kvalitativní, např. zaměstnání, pohlaví, typ automobilu, vkus zákazníka. Získaná data zachycujeme pomocí jedno-, dvou- nebo vícerozměrných tabulek četností nebo relativních četností. Každý rozměr (dimenze) tabulky odpovídá klasifikaci do kategorií podle určité proměnné. Některé proměnné mají podle úlohy charakter závisle proměnné (cílové proměnné), jiné považujeme za nezávislé. Proměnné jsou často nominálního, resp. kvalitativního typu. Také však mohou mít nějaké přirozené řazení (např. vedlejší reakce na lék mohou být žádné, mírné nebo silné) – jsou ordinálního typu. Četnostní tabulky vznikají i zařazením jinak spojitých metrických údajů do kategorií, který byly navrženy jako intervaly pokrývající rozsah hodnot sledované proměnné. Při zkoumání četností dat stojíme před podobnými úkoly jako v případě dat metrických. Porovnáváme náhodné chování proměnné s pravděpodobnostním rozdělením, jež je předem přesně specifikované, nebo srovnáváme rozdělení sledované proměnné ve dvou nebo více populacích, aniž bychom předem specifikovali tvar jejich rozdělení. Také nás zajímá síla asociace jednotlivých proměnných mezi sebou. Porovnání relativní četnosti s teoretickou hodnotou Posuzujeme relativní četnost přítomnosti určité vlastnosti v ZS pomocí náhodného výběru o rozsahu n. Předpokládejme hodnotu relativní četnosti výskytu sledované vlastnosti p0. Testujem nulovou hypotézu H0: p = p0 proti alternativní hypotéze H1: p ≠ p0. Testové kritérium má tvar:

.)1( 00

0

n

pp

pn

m

u−

−=

Kritický obor pro zamítnutí H0 je vymezen následovně: Alternativa Kritický obor H1: p ≠ p0 K = {u> uα} H1: p > p0 K = {u > u2α} H1: p < p0 K = {u < -u2α} Je možné v rámci hodnocení stanovit také intervalový odhad relativní četnosti, kdy dvoustranný interval spolehlivosti pro spolehlivost 1 - α má tvar:

ααα −=

−+−− 1)1()1(

n

ffufp

n

ffufP ii

iii

i pp

Uvedené vztahy lze ale použít za předpokladu normální aproximace rozdělení relativní četnosti a jsou vhodné pouze pro větší rozsahy výběru. Porovnání dvou relativních četností Zajímá nás porovnání dvou pravděpodobností p1 a p2 výskytu nějaké vlastnosti ve dvou ZS. Na základě náhodných výběrů o velkých rozsazích n1 a n2 (n1 > 100; n2 > 100) je třeba ověřit hypotézu H0: p1 = p2. Test je založen na statistice

,11

)1(21

2

2

1

1

+•−•

+=

nnpp

n

m

n

m

u

Pokud |u| > uα ⇒ H0 zamítáme. Cílem analýzy může také být testovat a odhadovat velikost jejich rozdílu ∆ = p1 – p2. Testová statistika se opírá o standardizovanou odchylku rozdílu empirických četností p1 a p2 od předpokládané hodnoty ∆.

Matematická statistika II přednášky

- 55 - Christy

Počet prvků se sledovanou vlastností ve výběrových souborech o rozsahu n1 a n2 je m1 a m2. Teoretické hodnoty pi potom odhadujeme pomocí relativních četností fi = m/n. Nulovou a alternativní hypotézu lze zapsat jako: H0: (p1 – p2) = ∆, příp. = 0 H1: (p1 – p2) ≠ ∆, příp. ≠ 0 Testové kritérium má tvar:

( )( )

.21

21

pps

ppu

∆−−=

Výpočet odhadu směrodatné odchylky s(p1 – p2) závisí na hodnotě ∆. Jestliže ∆ ≠ 0, pak

( )( ) ( )

2

22

1

11 1121 n

ff

n

ffs pp

−+−=−

Nulová hypotéza se zamítá, pokud |u| > uα ⇒ H0. V případě, že ∆ = 0, má s(p1 – p2) hodnotu

( ) ,11

2121

+=− nn

pqs pp

21

21

nn

mmp

++=

je spojený odhad teoretické relativní četnosti q = 1- p. Rozsahy obou výběrů musí být dostatečně veliké, abychom mohli pro výběrové rozdělení rozdílu hodnot p1 – p2 uplatnit centrální limitní teorém. Dvoustranný interval spolehlivosti má tvar:

( ) ( ) ( )212121 ppsuffpp −•±−∈− α

Jestliže podmínka o rozsazích výběru není splněna, ale počty jsou větší než 20, uplatňuje se arcussinová transformace na druhou mocninu odhadů pravděpodobností:

pp arcsin)( =ϕ

Hypotézu o rovnosti pravděpodobností pak testujeme pomocí statistiky

.11

648,28

)()(

21

21

nn

ppz

+

−= ϕϕ

Příklad U 500 náhodně vybraných domácností bylo prováděno v roce 1997 zjišťování, zda mají ve svém jídelníčku zařazenu cereální výživu. Kladně odpovědělo 67 domácností. U stejného počtu domácností bylo provedeno zjišťování v roce 1998. V tomto roce kladně odpovědělo 202 domácností. Vypočtěte 95 % interval spolehlivosti pro změnu podílu domácností. n1 = 500 m1 = 67 f1 = 67/500 = 0,134 n2 = 500 m2 = 202 f2 = 202/500 = 0,404

( ) 0267,0500

596,0404,0

500

866,0134,021

=•+•=− pps

( ) ( )( ) )21764,0;3224,0(

0267,096,1404,0134,0

21

21

−−=−•±−∈−

pp

pp

Matematická statistika II přednášky

- 56 - Christy

Protože daný interval nepokrývá 0, můžeme na hladině významnosti 0,05 zamítnout nulovou hypotézu, že v obou skupinách domácností mají zařazeny v jídelníčku cereální potraviny. Chceme testovat hypotézu, že podíl domácností v roce 1998 není větší o více než 30 % ve srovnání s podílem domácností v roce 1997. Použijeme jednostranný test na 5% hladině významnosti (kritická hodnota je 1,6448)

( )334,21

0267,0

3,0404,0134,0 −=−−=u

Výsledek svědčí ve prospěch alternativní hypotézy. χχχχ2 - test dobré shody Přezkušujeme, zda tvar pravděpodobnostního rozdělení kategoriální proměnné X má specifickou podobu. Při pozorování proměnné X se zjistily četnosti nj jednotlivých kategorií. Předpokládáme, že pravděpodobnostní rozdělení proměnné je určené pravděpodobností pj. Testem dobré shody testujeme hypotézu: H0: F(x) = F0(x) proti alternativě H1: F(x) ≠ F0(x). Předpokládáme, že F0(x) je pevně daná hypotetická distribuční funkce, v níž nefigurují žádné neznámé parametry. Nulová hypotéza udává pouze typ rozdělení, nikoli jeho parametry. Rozdíl mezi pozorovanými a očekávanými četnostmi zachycuje testovací statistika, která má tvar:

( ),

1

2

∑=

−=

k

j j

jj

np

npn2χ

kde k = počet možných hodnot kategoriální proměnné, nj = empirické (skutečné) četnosti v intervalu j, npj = teoretické (očekávané) četnosti v intervalu j vypočítané za předpokladu platnosti H0, přičemž n označuje rozsah výběru a pj teoretickou pravděpodobnost kategorie j. Za platnosti H0 má statistika asymptoticky χ2 - rozdělení o k-1 stupních volnosti. Jestliže hodnota statistiky χ2 překročí kritickou mez, signalizuje to špatnou shodu dat s teoretickým rozdělením. Příklad V n nezávislých náhodných pokusech očekáváme, že četnosti náhodných jevů A1, A2, A3, které v pokusu vůbec mohou nastat, jsou v poměru 1 : 2 : 1. V 80 pokusech jsme získali jejich četnosti 14, 50 a 16. Máme naši hypotézu zamítnout? Pro vypočtení testovací statistiky vytvoříme následující tabulku.

nj npj nj - npj (nj - npj)2 (nj - npj)

2/npj

14 20 -6 36 1,8

50 40 10 100 2,5

16 20 -4 16 0,8

80 80 χ2 = 5,10 χ2

α pro 2 stupně volnosti má kritickou hodnotu 5,991. Protože 5,1 < 5,991, nemůžeme nulovou hypotézu zamítnout. Závislost kategoriálních proměnných Zabývá se statistickou analýzou četnostních tabulek, které vznikají, když popisujeme a analyzujeme vztah kategoriálních proměnných. Jedná se o analogii korelační analýzy spojitých proměnných nebo o podobnost s analýzou rozptylu. Rozdíl mezi oběma metodami spočívá v tom, že v případě analýzy četnostních tabulek obě kategoriální proměnné považujeme za náhodné, zatímco v analýze rozptylu posuzujeme vliv faktoru (kategoriální proměnné) s určitým počtem hladin jako nezávisle proměnné na chování náhodné závisle proměnné, jež má kvantitativní charakter.

Matematická statistika II přednášky

- 57 - Christy

Příklad V roce 1912 se na své první plavbě srazil luxusní zámořský parník Titanic s plovoucí ledovou krou a potopil se. Někteří cestující se dostali na záchranné čluny, ostatní zemřeli. Představme si, že zkáza Titaniku je experimentem, jak se lidé chovají tváří v tvář smrti, když jenom někteří mohou uniknout. Předpokládáme, že pasažéři jsou nestranným vzorkem z populace stratifikované podle majetkových poměrů. V následující tabulce uvádíme data zvlášť pro muže a ženy (Lord, 1998 – nejsou zachyceni cestující, u nichž není znám jejich sociální status). Při popisné analýze takovýchto dat se doporučuje uvést údaje v tabulkách jako procenta z řádkových nebo sloupcových součtů. Tím se lépe prezentují rozdílnosti rozdělení v jednotlivých kategoriích. Procenta nebo absolutní četnosti také zobrazujeme pomocí sloupcových grafů. Pro jednoduchou inferenční analýzu lze použít metody pro srovnání procent. Snadno lze spočítat, že celkově zemřelo 680 mužů a 168 se jich zachránilo. Žen zemřelo 126, uniknout smrti se podařilo 317. Existuje evidence, že muži v této situaci více umírají? Jaké jsou pro to důvody? Můžeme se však také zeptat, zda existují statisticky významné rozdíly v procentuálních podílech zemřelých žen mezi jednotlivými třídami. Nechceme však srovnávat páry tříd, ale vyhodnotit globální hypotézu, zda vůbec existuje nějaký rozdíl. Stejné hodnocení můžeme provést pro muže. Zajímáme se, zda existuje stochastický vztah mezi proměnnou třída cestujícího a proměnnou, která popisuje status přežití cestujícího (ANO, NE). Jinak řečeno, ptáme se, zda ovlivňuje proměnná třída cestujícího pravděpodobnost přežití cestujícího. Pozn.: tento příklad pracuje dohromady se třemi proměnnými (pohlaví, třída cestujícího a status přežití). Data o cestujících při ztroskotání Titaniku

Muži Ženy Status zemřeli přežili zemřely přežily I. třída 111 61 6 126 II. t řída 150 22 13 90 III. t řída 419 85 107 101

Muži Ženy

Status zemřeli přežili počet

celkem zemřely přežily

počet celkem

I. třída 64,5 % 35,5 % 172 4,4 % 95,6 % 135 II. t řída 84,7 % 15,3 % 177 12,6 % 87,4 % 103 III. třída

83,1 % 16,9 % 504 51,4 % 48,6 % 208

Kontingence Kontingence se zabývá zkoumáním vztahu mezi množnými znaky, které mají větší počet obměn. V tomto případě hodnotíme tabulky dvoudimenzionální, což jsou tabulky vzniklé tříděním podle dvou proměnných – jde o tzv. kontingenční tabulky . Předpokládáme přitom, že každá jednotka může být klasifikována podle dvou proměnných (kritérií) A a B. proměnná A má r kategorií (úrovní) a proměnná B má s kategorií (úrovní). Označme nij počet prvků z výběru o rozsahu n, které podle proměnné A patří do kategorie Ai a podle proměnné B do kategorie Bj. Dále označme ni. počet prvků z výběru, které patří do kategorie Ai (bez ohledu na hodnotu proměnné B), a podobně n.j počet prvků patřících do kategorie Bj. Platí tedy vztahy:

∑=

=r

ijij nn

1.

Matematická statistika II přednášky

- 58 - Christy

∑=

=s

jj nn

1.

∑=

=s

jiij nn

1.

∑=

=r

ii nn

1.

Kontingenční tabulka typu r x s pak vypadá následovně:

Znak B Znak A

b1 b2 ….. bj ….. bs celkem

a1 n11 n12 ….. n1j ….. n1s n1. a2 n21 n22 ….. n2j ….. n2s n2.

…..

…..

…..

…… …..

….. …

..

…..

ai ni1 ni2 nij nis ni.

…..

…..

…..

….. …..

….. …..

…..

ar nr1 nr2 ….. nrj ….. nrs nr. celkem n.1 n.2 ….. n.j ….. n.s n Po vytvoření tabulky začínáme zkoumat vzájemný vztah obou proměnných A a B – nejdříve pomocí vhodného zobrazení, později lze testovat různé hypotézy. Hypotézy pro kontingenční tabulky se obvykle definují v pojmech stochastické nezávislosti, a to pomocí určitých podmínek. V kontextu stochastické nezávislosti proměnných A a B tyto podmínky indukují, že čísla nij /ni., resp. nij/n.j (řádkové, resp. sloupcové relativní četnosti) jsou pro všechna čísla i, resp. j až na náhodné odchylky konstantní. Jestliže jednu z proměnných kontrolujeme během výběru – třeba proměnnou A, nazýváme ji faktor. Tato proměnná vlastně určuje r disjunktních subpopulací W1, W2, …, Wr z populace W. V tomto případě se může hypotéza nezávislosti popsat jako hypotéza homogenity chování proměnné B vzhledem k faktoru A. Hypotéza homogenity Tato hypotéza předpokládá, že pravděpodobnostní rozdělení kategoriální proměnné B je stejné v různých populacích, které jsou identifikovány faktorem A. Příslušné statistické testy nazýváme někdy testy dobré shody, kdy nám jde o shodu rozdělení kategoriální proměnné. Úrovně faktoru A stratifikují v tomto případě celou populaci W do r disjunktních subpopulací W1, W2, …, Wr a každý prvek z Wi je klasifikován do jedné z kategorií proměnné B. Nechť Pij je relativní četnost prvků subpopulace Wi, jež jsou v j-té kategorii proměnné B. Potom se hypotéza homogenity může vyjádřit jako P1j = P2j = … = Prj pro všechna j = 1, 2, …, s, což znamená, že pro každou kategorii má být relativní četnost prvků v dané subpopulaci stejná pro všechny subpopulace. Hypotézu homogenity můžeme provádět tehdy, jestliže mám k dispozici prostý náhodný výběr z každé subpopulace určené faktorem A nebo jsme provedli přiřazení objektů do jednotlivých skupin namátkově.

Matematická statistika II přednášky

- 59 - Christy

Příklad Populace W studentů je stratifikována podle pohlaví a proměnná B je určena tím, zda má student zájem o účast ve školním sportovním oddíle. Je zřejmé, že proměnná B je kategoriální. Dotazování se provádí tak, že zvlášť se provede náhodný výběr 66 chlapců a 74 dívek. Z chlapců, resp. dívek mělo zájem 30, resp. 11 jedinců. Zařazením osob podle zájmu dostaneme tabulku typu 2 x 2.

Zájem o sport ano ne

Celkem

Chlapci 30 36 66 Dívky 11 63 74 Celkem 41 99 140 Jestliže P11 je relativní část chlapců se zájmem o sport a P21 je relativní část dívek se zájmem o sport, pak hypotéza homogenity má tvar P11 = P21 (z toho plyne také P12 = P22). V pojmech nezávislosti H0 vyjadřuje, že relativní četnost jedinců zajímajících se o účast ve sportovním oddíle je nezávislá na pohlaví. Hypotéza nezávislosti V hypotéze nezávislosti se považují obě proměnné A a B za náhodné proměnné, přičemž předpokládáme jejich úplnou nezávislost. To znamená, že hodnota proměnné A neovlivňuje podmíněné rozdělení proměnné B a naopak. Uvažujeme populaci W, přičemž každý prvek této populace je klasifikován podle dvou kategoriálních proměnných A a B. Zkoumáme, zda hodnoty proměnné A neovlivňují rozdělení proměnné B a naopak. Nulová hypotéza zní, že obě proměnné jsou na sobě stochasticky nezávislé. Tuto hypotézu lze vyjádřit podmínkami pro pravděpodobnosti pij, což jsou pravděpodobnosti, že na osobě zjistíme hodnotu proměnné A v kategorii i a hodnotu proměnné B v kategorii j. Nechť pi., resp. p.j je pravděpodobnost v populaci W, že proměnná A nabude hodnoty i, resp. proměnná B nabude hodnoty j. Pak hypotézu nezávislosti obou proměnných můžeme vyjádřit rovnicemi

..,1

.1

... ∑∑==

==•=r

iijj

s

jijijiij ppppppp

které platí pro všechna i = 1, 2, …, r a j = 1, 2, …, s. Uvedené vyjádření vyplývá ze vzorce pro výpočet pravděpodobnosti současného výskytu dvou nezávislých jevů. Pozn. Má-li platit nezávislost, pak pro všechna i a j musí být splněna podmínka

...

n

nnn ji

ij

•=

Posuzování závislosti v kontingenčních tabulkách Budeme se zabývat tabulkou typu r x s, která popisuje rozdělení dvou kvalitativních znaků množných. Analýza této tabulky spočívá v provedení testu nezávislosti a ve stanovení síly (těsnosti) závislosti. Pro testování hypotéz homogenity i nezávislosti používáme stejný postup. Nejdříve vypočítáme tzv. očekávané četnosti noj v políčku (i, j) za předpokladu platnosti H0, která říká, že znaky A a B jsou nezávislé.

n

nnn ji

oj.. •

=

Empirické četnosti nij se mohou od očekávaných četností noj lišit buď náhodně (platí-li H0) nebo významně (neplatí-li H0). Pro posouzení velikosti rozdílů těchto četností použijeme χ2 – testu dobré shody.

( )∑∑

= =

−=

r

i

s

j oj

ojij

n

nn

1 1

2

Matematická statistika II přednášky

- 60 - Christy

Dosadíme-li do vzorce symboliku z kontingenční tabulky, dostaneme po úpravě:

( ).

1 1 ..

2

2 ∑∑= =

−=r

i

r

j ji

ij nnn

nnχ

Hodnotu χ2 srovnáme s kritickou hodnotou χ2 – rozdělení o stupních volnosti (r-1)(s-1). Jestliže hodnota χ2 je větší než tabulková hodnota, hypotézu o nezávislosti mezi sledovanými kvalitativními znaky zamítáme. χ2 test pro kontingenční tabulku r x s nelze použít, je-li více než 20 % teoretických četností menších než 5, příp. je-li alespoň v jednom políčku kontingenční tabulky očekávaná četnost menší než 1. V takových případech je nutno některé sousedící skupiny spojit. Jestliže zamítneme hypotézu nezávislosti nebo homogenity, lze tabulku dále analyzovat a hledat důvody, proč je H0

porušena. K tomu nám slouží tzv. normalizované reziduální hodnoty ,oj

ojij

n

nn − které vyneseme do tabulky opět

typu r x s. Příčinu nehomogenity můžeme zjistit tak, že zopakujeme χ2 – test pro tabulku, jež je zredukována o sloupce nebo řádky, které představují kandidáty nehomogenity. Jestliže tento χ2 – test již nesignalizuje závislost (χ2 – statistika nepřekročí kritickou mez), je podezření potvrzeno. Nebo vybereme čtyři symetricky od sebe položená políčka, jež vždy po dvou leží v jedné řádce nebo sloupci, a vzniklou tabulku 2 x 2 opět testujeme. Významnost výsledku testu indikuje zdroj poruchy modelu nezávislosti. Koeficienty závislosti (míry těsnosti) pro kontingenci Ověříme-li uvedeným testovacím postupem, že mezi sledovanými znaky existuje závislost, zajímá nás, jak těstná je tato závislost. K měření těsnosti závislosti mezi kvalitativními množnými znaky byly konstruovány speciální charakteristiky, které jsou obdobou korelačního koeficientu. Interpretovat jejich číselné hodnoty je však dosti obtížné vzhledem ke všem možným kombinacím vztahů mezi kvalitativními údaji. Pro kontingenční tabulku r x s často používáme ke změření těsnosti závislosti koeficient průměrné čtvercové kontingence C (Pearsonův koeficient kontingence), který vypočteme takto:

.2

2

χχ+

=n

C

Jsou-li zkoumané znaky nezávislé, je hodnota tohoto koeficientu nula. Maximální hodnota, dosažená při úplné závislosti, je však menší než 1 a mění se podle toho, do kolika tříd byly zkoumané znaky rozděleny. Při různých počtech obměn (variant) znaků dosahuje tento koeficient různých maximálních hodnot, což je jeho značnou nevýhodou. Proto tyto koeficienty, počítané pro různé typy kontingenčních tabulek, nejsou vzájemně srovnatelné. Pro porovnání síly závislosti mezi několika kontingenčními tabulkami různého rozměru se používá normalizovaný koeficient kontingence Cn:

,maxC

CCn =

kde Cmax lze vypočítat ze vztahu

r

rC

1max

−=

r je počet podskupin (obměn) toho znaku, který má méně obměn. Hodnoty Cmax jsou také tabelovány. Sílu závislosti lze též změřit pomocí Cramerova koeficientu V (tzv. Cramerovo V)

( )1

2

−=

hnV

χ

pro h = min (r, s).

Matematická statistika II přednášky

- 61 - Christy

Sílu závislosti popisuje také Čuprovův koeficient kontingence, který lze vyjádřit jako

( )( )11

2

−−=

srnK

χ

V případě, že oba znaky mají stejný počet obměn (r = s), pohybuje se hodnota K od 0 do 1. Není-li stejný počet obměn (r ≠ s), hodnoty 1 nedosahuje ani při úplné kontingenci. Tabulka 2 x 2 – asociační tabulka Uvažujeme dvě náhodné proměnné X a Y, které nabývají jenom dvě hodnoty: 0 a 1. Asociace tedy zkoumá vztah mezi alternativními znaky, jež mají pouze dvě obměny. Symbolika kvalitativních znaků Jednotlivé kvalitativní znaky jsou značeny velkými písmeny latinské abecedy A, B, C, D, …. Výskyt (přítomnost) dané vlastnosti u příslušné statistické jednotky je značena malými písmeny latinské abecedy a, b, c, d, … V případě, že statistická jednotka danou vlastnost nemá, je použito odpovídajících písmen řecké abecedy α, β, γ, δ, … Přítomnost či nepřítomnost více kvalitativních znaků u statistické jednotky lze označit kombinací příslušných symbolů. Např. αbc – značí nepřítomnost znaku A a přítomnost znaků B a C nabc – počet (četnost) jednotek s danou kombinací přítomnosti či nepřítomnosti znaku.

Znak B Znak A

b ββββ celkem

a a b a + b αααα c d c + d celkem a + c b + d n Při zkoumání závislosti mezi alternativními znaky A a B ověřujeme stejnou nulovou hypotézu jako u množných znaků, tzn. že znaky A a B jsou nezávislé. Jako testovací kritérium použijeme opět veličinu χ2. Empirické četnosti jsou v tomto případě označeny a, b, c a d. očekávané četnosti pak značíme a0, b0, c0, d0 a vypočteme je takto:

n

cabaa

))((0

++= n

dbbab

))((0

++=

n

cadcc

))((0

++= n

dbdcd

))((0

++=

Vzhledem k odlišné symbolice dostává veličina χ2 tento tvar:

( ) ( ) ( ) ( )0

20

0

20

0

20

0

202

d

dd

c

cc

b

bb

a

aa −+−+−+−=χ

Za předpokladu, že nepotřebujeme znát teoretické četnosti, použijeme pro výpočet testovacího kritéria vztah:

( )( )( )( )( ).

22

dcdbcaba

bcadn

++++−=χ

Při platnosti H0 má toto testovací kritérium rozdělení χ2 o (2-1)(2-1) = 1 stupni volnosti. Pokud χ2 > χ2

α ⇒ H0 se zamítá a závislost mezi znaky je prokázána i pro základní soubor.

Matematická statistika II přednášky

- 62 - Christy

Při používání χ2 testu pro asociační tabulku je potřeba mít na zřeteli předpoklady jeho použití. χ2 test v tomto případě dává spolehlivé výsledky pouze pro dostatečně velké rozsahy výběru n, prakticky pro n > 40. Pro 20 < n ≤ 40 lze ověřovat nezávislost dvou alternativních znaků jen tehdy, není-li žádná očekávaná četnost menší než 5. Pro n ≤ 20 se nemá používat χ2 testu nikdy. Zvláštností tabulky typu 2 x 2 je, že v ní lze uvažovat směr poruchy H0, a proto musíme rozhodnout, zda použijeme jednostranný nebo dvoustranný test. V případě, že nejsou splněny podmínky pro použití χ2 testu, používáme pro testování závislosti v asociační tabulce Fisherův test. Fisherův test nezávislosti v asociační tabulce patří k přesným testům nezávislosti náhodných proměnných a používá se při malých rozsazích výběrů (pokud n ≤ 20 nebo pokud 20 < n ≤ 40 a některá z teoretických četností je menší než 5). Nulová hypotéza opět předpokládá nezávislost mezi sledovanými alternativními znaky. Test je založen na přímém výpočtu pravděpodobnosti, s níž se může ve výběru o rozsahu n vyskytnou seskupení četností (a), (b), (c), (d) v dané tabulce, nebo jakékoliv jiné uspořádání četností, jež je H0 méně příznivé. Pro ověření platnosti H0 je nutno vypočítat součet všech dílčích pravděpodobností

∑= .ipp

Přitom dílčími pravděpodobnostmi jsou právě pravděpodobnosti výskytu jednotlivých seskupení četností (a), (b), (c), (d) ve výběru o n prvních, v nichž se nejmenší četnost mění od 0 až do skutečně napozorované hodnoty při zachování velikosti všech okrajových četností Jestliže tento součet pravděpodobností bude menší než zvolená hladina významnosti (p ≤ α), nulovou hypotézu zamítáme a soudíme, že byla prokázána významnost vztahu mezi sledovanými znaky A a B. Pravděpodobnosti pi (seskupení empirických četností) lze při zachování okrajových četností vyjádřit takto:

( ) ( ) ( ) ( ).

!!!!!

!!!!

dcban

dbcadcbapi

++++=

Celý postup testu je následující: - Zvolíme hladinu významnosti α. - V dané asociační tabulce vyhledáme nejnižší četnost a sestavíme další pomocné tabulky s tím, že nejmenší četnost zmenšujeme po jedné tak dlouho, až dosáhneme tabulkového uspořádání asociační tabulky, ve kterém tato minimální četnost bude nulová. Přitom okrajové četnosti zůstávají konstantní. - Vypočítáme pravděpodobnosti pi pro původní tabulku a pro každou pomocnou tabulku.

- Stanovíme celkovou pravděpodobnost ∑= .ipp

- Srovnáme vypočtenou pravděpodobnost p se zvolenou hladinou významnosti α. Je-li p ≤ α, H0 můžeme zamítnout. V případě, že p > α, nelze považovat vztah mezi oběma znaky za prokázaný. V případě prokázané závislosti je možné dále asociační tabulku analyzovat, kdy lze

- určit průběh závislosti, tedy regresi, která umožní odhady relativního počtu jednotek s výskytem jednoho znaku na základě daného relativního počtu jednotek s výskytem druhého znaku, - změřit sílu závislosti, tedy korelaci, mezi sledovanými kvalitativními znaky.

Průběh závislosti dvou alternativních kvalitativních znaků může být vzhledem k počtu obměn (ano, ne) pouze lineární. Při určování rovnice asociační přímky se postupuje stejně jako u jednoduché kvantitativní závislosti. Asociační přímka vyjadřuje závislost podílu prvků s jedním znakem na podílu prvků s druhým znakem. V případě, že závislou proměnnou bude znak B a nezávisle proměnnou znak A, má rovnice asociační přímky následující podobu:

( ) ( ),

n

baBA

n

caBABA

++=+

kde ABA je absolutní člen, BBA je regresní koeficient. Parametry asociační přímky lze určit po zjednodušení ze vztahů:

( )( )[ ]( )( ) ,

dcba

cabaanBBA ++

++−•=

( ) ( ).

n

baB

n

caA BABA

+•−+=

Matematická statistika II přednášky

- 63 - Christy

V případě, že závisle proměnnou bude znak A a nezávisle proměnnou znak B, je třeba určit sdruženou rovnici asociační přímky:

( ) ( ),

n

caBA

n

baABAB

++=+

( )( )[ ]( )( ) ,

dbca

cabaanBAB ++

++−•=

( ) ( ).

n

caB

n

baA ABAB

+•−+=

Vzhledem k tomu, že se jedná o lineární regresi, jsou BBA a BAB směrnice přímek a udávají změnu podílu ( )

n

ca + ,

resp. ( )

n

ba + odpovídající jednotkovému zvýšení

( )n

ba + , resp.

( )n

ca + .

Dalším úkolem v asociační tabulce je změřit těsnost závislosti mezi znaky A a B. Při měření stupně asociační závislosti lze použít řadu charakteristik. Koeficient asociace (V) je svým výpočtem shodný s korelačním koeficientem v případě jednoduché lineární závislosti. Přednáška není úplně dokončena, tak s tím počítejte. Intenzita asociace se měří koeficientem asociace, kdy jde o jednostrannou sdruženost nějakého kvalitativního znaku s jiným kvalitativním znakem, nebo se využívá vzorce koeficientu korelace (přizpůsobenému kvalitativním znakům), kdy jde o oboustrannou sdruženost znaků. Existují ještě další méně používané ukazatele, jako např. Yuleův koeficient koligace, Giniho koeficient podobnosti apod. Hodnoty obou uvedených ukazatelů se pohybují v rozmezí od –1 do +1. Hodnocení je jako u klasického koeficientu korelace kvantitativních znaků. Koeficient asociace oproti „koeficientu korelace“ nadhodnocuje stupeň závislosti. Qab se rovná jedné (plus, resp. minus), když jen jedna četnost je rovna nule. Jestliže by např. všechny ošetřené stromy měly zdravé ovoce, jednalo by se o úplnou asociaci, třebaže je i mnoho neošetřených stromů, které mají rovněž zdravé ovoce. Naproti tomu rab se rovná jedné, když se vyskytují případy pouze v kombinacích ab a αβ, resp. aβ a αb. V daném případě jde o absolutní asociaci.