1
Marek Cieciura, Janusz Zacharski
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ
W INFORMATYCE
CZĘŚĆ III
RACHUNEK PRAWDOPODOBIEŃSTWA
Na prawach rękopisu
Warszawa, wrzesień 2011
RACHUNEK PRAWDOPODOBIEŃSTWA
2
Statystyka jest bardziej sposobem myślenia lub wnioskowania niŜ pęczkiem recept na młócenie
danych w celu odsłonięcia odpowiedzi - Calyampudi Radhakrishna Rao
Podręcznik:
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ
W INFORMATYCE
publikowany jest w częściach podanych poniŜej
Nr Tytuł
I. Wprowadzenie
II. Statystyka opisowa
III. Rachunek prawdopodobieństwa
IV. Statystyka matematyczna
V. Przykłady zastosowań w informatyce
VI. Wybrane twierdzenia z dowodami
VII. Tablice statystyczne
Autorzy proszą o przesyłanie wszelkich uwagi i propozycji dotyczących zawartości podręcznika z wykorzystaniem formularza kontaktowego zamieszczonego w portalu http://cieciura.net/mp/
Publikowane części będą na bieŜąco poprawiane, w kaŜdej będzie podawana data ostatniej aktualizacji.
Podręcznik udostępnia się na warunku licencji Creative Commons (CC): Uznanie Autorstwa –
UŜycie Niekomercyjne – Bez Utworów ZaleŜnych (CC-BY-NC-ND),co oznacza:
• Uznanie Autorstwa (ang. Attribution - BY): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych pod warunkiem umieszczenia informacji o twórcy.
• UŜycie Niekomercyjne (ang. Noncommercial - NC): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych tylko w celach niekomercyjnych..
• Bez Utworów ZaleŜnych (ang. No Derivative Works - ND): zezwala się na kopiowanie, dystrybucję, wyświetlanie tylko dokładnych (dosłownych) kopii dzieła, niedozwolone jest jego zmienianie i tworzenie na jego bazie pochodnych.
Podręcznik i skorelowany z nim portal, są w pełni i powszechnie dostępne, stanowią więc Otwarte Zasoby Edukacyjne - OZE (ang. Open Educational Resources – OER).
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
3
SPIS TREŚCI
5. ZDARZENIA LOSOWE I PRAWDOPODOBIEŃSTWO ..................................................... 5
5.1. UWAGI WSTĘPNE ................................................................................................................... 5 5.2. ZDARZENIA LOSOWE.............................................................................................................. 5 5.3. RELACJE MIĘDZY ZDARZENIAMI ............................................................................................. 6 5.4. DEFINICJE PRAWDOPODOBIEŃSTWA ....................................................................................... 9
5.4.1. Klasyczna definicja prawdopodobieństwa...................................................................... 9 5.4.2. Geometryczna definicja prawdopodobieństwa ............................................................... 9 5.4.3. Statystyczna definicja prawdopodobieństwa................................................................. 10 5.4.4. Aksjomatyczna definicja prawdopodobieństwa ............................................................ 11
5.7. PRAWDOPODOBIEŃSTWO WARUNKOWE ................................................................................ 12 5.8. PRAWDOPODOBIEŃSTWO CAŁKOWITE I TWIERDZENIE BAYESA .............................................. 13 5.9. ZDARZENIA NIEZALEśNE...................................................................................................... 15
6. ZMIENNE LOSOWE ............................................................................................................. 19
6.1. ZMIENNE LOSOWE JEDNOWYMIAROWE ................................................................................. 19 6.1.1. Pojęcie zmiennej losowej ............................................................................................. 19 6.1.2. Zbiory przeliczalne i nieprzeliczalne ............................................................................ 21 6.1.3. Zmienne losowe skokowe ............................................................................................. 21 6.1.4. Dystrybuanta ............................................................................................................... 23 6.1.5. Zmienne losowe ciągłe................................................................................................. 26
6.2. ZMIENNE LOSOWE DWUWYMIAROWE ................................................................................... 29 6.2.1. Pojęcie zmiennej losowej dwuwymiarowej ................................................................... 29 6.2.2. Dystrybuanta zmiennej losowej dwuwymiarowej.......................................................... 31 6.2.3. Zmienne losowe dwuwymiarowe skokowe .................................................................... 31 6.2.4. Zmienne losowe dwuwymiarowe ciągłe........................................................................ 32 5.2.5. Rozkłady brzegowe ...................................................................................................... 34 6.2.6. Rozkłady warunkowe ................................................................................................... 39 6.2.7. Zmienne losowe niezaleŜne .......................................................................................... 42
7. PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH................................................ 44
7.1. MIARY POŁOśENIA ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ ................................................ 44 7.1.1. Wartość oczekiwana .................................................................................................... 44 7.1.2. Mediana ...................................................................................................................... 47 7.1.3. Parametry pozycyjne ................................................................................................... 47 7.1.4. Wartość oczekiwana funkcji zmiennej losowej.............................................................. 48
7.2. MIARY ROZPROSZENIA ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ........................................... 48 7.2.1. Wariancja.................................................................................................................... 48 7.2.2. Odchylenie przeciętne.................................................................................................. 50 7.2.3. Odchylenie ćwiartkowe................................................................................................ 51 7.2.4. Współczynnik zmienności............................................................................................. 51
7.3. ASYMETRIA I SPŁASZCZENIE ROZKŁADU JEDNOWYMIAROWEJ ZMIENNEJ LOSOWEJ ................. 52 7.4. WARTOŚĆ OCZEKIWANA I MOMENTY ZMIENNEJ LOSOWEJ DWUWYMIAROWEJ ........................ 54 7.5. PARAMETRY ROZKŁADU ZMIENNEJ LOSOWEJ DWUWYMIAROWEJ ........................................... 57
7.5.1. Wartość oczekiwana funkcji dwuwymiarowej zmiennej losowej ................................... 57 7.5.2. Momenty dwuwymiarowej zmiennej losowej ................................................................ 59 7.5.3. Współczynnik korelacji ................................................................................................ 62 7.5.3. Zmienne losowe nieskorelowane .................................................................................. 64
RACHUNEK PRAWDOPODOBIEŃSTWA
4
8. REGRESJA ZMIENNYCH LOSOWYCH............................................................................ 65
8.1. WPROWADZENIE ................................................................................................................. 65 8.2. ZALEśNOŚĆ FUNKCYJNA ZMIENNYCH LOSOWYCH ................................................................. 66 8.3. REGRESJA I RODZAJU .......................................................................................................... 67 8.4. REGRESJA II RODZAJU ......................................................................................................... 68 8.5. LINIOWA REGRESJA II RODZAJU ........................................................................................... 68
9. PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA ........................................... 75
9.1. ROZKŁADY SKOKOWE.......................................................................................................... 75 9.1.1. Rozkład jednopunktowy ............................................................................................... 75 9.1.2. Rozkład dwupunktowy.................................................................................................. 75 9.1.3. Rozkład dwumianowy .................................................................................................. 76 9.1.4. Rozkład geometryczny.................................................................................................. 79 9.1.5. Rozkład Poissona......................................................................................................... 80 9.1.6. Powiązanie rozkładów skokowych ............................................................................... 83
9.2. ROZKŁADY CIĄGŁE .............................................................................................................. 84 9.2.1. Rozkład jednostajny ..................................................................................................... 84 9.2.2. Rozkłady normalne ...................................................................................................... 85 9.2.3. Rozkład wykładniczy.................................................................................................... 93 9.2.4 Rozkład chi kwadrat ..................................................................................................... 93 9.2.5. Rozkład Studenta ......................................................................................................... 95 9.2.6. Rozkład Snedecora ...................................................................................................... 97 9.2.8. Powiązania rozkładów ciągłych................................................................................... 99
9.3 ZESTAWIENIE ROZKŁADÓW ................................................................................................ 100 9.3.1. Zestawienie rozkładów skokowych ............................................................................. 100 9.3.2. Zestawienie rozkładów ciągłych................................................................................. 101
10. TWIERDZENIA GRANICZNE......................................................................................... 105
10.1. RODZAJE TWIERDZEŃ GRANICZNYCH................................................................................ 105 10.2. TWIERDZENIA INTEGRALNE.............................................................................................. 105
10.2.1. ZbieŜność według dystrybuant.................................................................................. 105 10.2.2. Twierdzenie Lindeberga – Levy’ego......................................................................... 105 10.2.3. Integralne twierdzenie Moivre’a – Laplace’a........................................................... 106 10.2.5. Związek pomiędzy twierdzeniami granicznymi integralnymi..................................... 107 10.2.6. Uwagi końcowe o twierdzeniach integralnych.......................................................... 107
10.3. TWIERDZENIA LOKALNE .................................................................................................. 107 10.3.1. Twierdzenie Poissona .............................................................................................. 107 10.3.2. Lokalne twierdzenie Moivre’a – Laplace’a .............................................................. 108
10.4. PRAWA WIELKICH LICZB .................................................................................................. 108 10.4.1. ZbieŜność według prawdopodobieństwa................................................................... 108 10.4.2. Prawo wielkich liczb Bernoulliego........................................................................... 109 10.4.3. Prawo wielkich liczb Chinczyna............................................................................... 109
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
5
5. ZDARZENIA LOSOWE I PRAWDOPODOBIEŃSTWO
5.1. Uwagi wstępne
Przypadkowość lub inaczej losowość wiąŜe się z kaŜdym doświadczeniem, jest ono bowiem zawsze w większym czy mniejszym stopniu losowe.
Rachunek prawdopodobieństwa jest działem matematyki zajmującym się badaniem prawidłowości w zakresie doświadczeń losowych, zwanych takŜe zjawiskami przypadkowymi.
Przez doświadczenie losowe rozumiemy takie doświadczenie, które moŜe być powtarzane wiele razy w tych samych warunkach i którego wyników nie moŜna jednoznacznie przewidzieć. Przykłady doświadczeń losowych: • Rzut monetą. • Rzut kością. • Losowanie Toto-Lotka. • Rozdanie kart w czasie gry w brydŜa. • Obserwacja liczby cząstek α emitowanych przez substancję promieniotwórczą w ciągu
pewnego czasu, np. 10 sek. • Pomiar określonej wielkości fizycznej. • Strzelanie do celu. • Bezawaryjny czas pracy komputera, itp.
5.2. Zdarzenia losowe
Pojęciem pierwotnym rachunku prawdopodobieństwa jest zdarzenie elementarne. Dla kaŜdego doświadczenia naleŜy oddzielnie ustalić, co rozumie się przez to pojęcie i jakie moŜliwe są zdarzenia elementarne. Zbiór wszystkich zdarzeń elementarnych danego doświadczenia losowego oznaczamy literą Ω.
Zdarzenia losowe (krótko: zdarzenia) są podzbiorami złoŜonymi z pewnej liczby zdarzeń elementarnych.
Dane zdarzenie losowe zachodzi wtedy i tylko wtedy, gdy zachodzi jedno ze zdarzeń elementarnych wchodzących w skład tego zdarzenia losowego. O zdarzeniach elementarnych, które naleŜą do danego zdarzenia losowego mówi się, Ŝe sprzyjają temu zdarzeniu.
Zdarzeniami losowymi są takŜe szczególne zbiory: • Sam zbiór wszystkich zdarzeń elementarnych Ω, który nazywamy zdarzeniem pewnym; • Zbiór ∅ nie zawierający Ŝadnego zdarzenia elementarnego (zbiór pusty), który nazywamy
zdarzeniem niemoŜliwym; • Zbiory jednoelementowe, składające się z jednego zdarzenia elementarnego.
Zdarzenie pewne zachodzi w kaŜdym doświadczeniu losowym, natomiast zdarzenie niemoŜliwe nie zachodzi w Ŝadnym doświadczeniu.
Jeśli zbiór zdarzeń elementarnych Ω ma n elementów, to zdarzeń losowych jest n2 (łącznie ze zdarzeniem pewnym i niemoŜliwym) czyli tyle, ile podzbiorów ma n-elementowy zbiór.
Przykład 5.1
Partia towaru składa się ze sztuk dobrych i wadliwych. Z partii tej wybieramy losowo jedną sztukę towaru. Zdarzenia elementarne ustalamy następująco: d - wybranie sztuki dobrej, w - wybranie sztuki wadliwej. Wtedy zbiorem zdarzeń elementarnych jest zbiór
w,d=Ω
RACHUNEK PRAWDOPODOBIEŃSTWA
6
MoŜliwe są 4 zdarzenia losowe: d - wybranie sztuki dobrej;
w - wybranie sztuki wadliwej;
Ω=w,d - wybranie sztuki dobrej lub wadliwej (zdarzenie pewne); ∅- zdarzenie niemoŜliwe (wybranie sztuki ani dobrej ani wadliwej).
Przykład 5.2
Strzelec oddaje do celu dwa strzały. Zdarzenia elementarne ustalamy następująco: ( )t,t - dwukrotne
trafienie do celu; ( )c,t - trafienie w pierwszym strzale i chybienie w drugim strzale; ( )t,c -
chybienie w pierwszym i trafienie w drugim strzale; ( )c,c - dwukrotne chybienie celu. Zbiorem zdarzeń elementarnych jest zbiór
( ) ( ) ( ) ( ) c,c,t,c,c,t,t,t=Ω
MoŜliwych jest tu 1624 = zdarzeń losowych. Oto niektóre z nich: ( ) ( ) ( ) tc,,ct,,tt, - trafienie do celu co najmniej raz;
( ) ( ) ct,,tt, - trafienie do celu w pierwszym strzale;
( ) t,t - dwukrotne trafienie do celu. Przykład 5.3
Strzelec oddaje do celu dwa strzały. Interesuje nas liczba celnych strzałów. Zdarzenia elementarne w odróŜnieniu od poprzedniego przykładu ustalimy następująco: 0ω - strzelec trafił do celu 0 razy,
1ω - trafił do celu dokładnie raz i 2ω - trafił dwa razy. Zbiorem zdarzeń elementarnych jest teraz zbiór
210 ,, ωωω=Ω
Zdarzeń losowych mamy w tym przykładzie 823 = . Oto niektóre z nich: 21 ,ωω - trafienie do celu co najmniej raz;
10 ,ωω - trafienie do celu co najwyŜej raz;
1ω - trafienie do celu dokładnie raz;
Ω=ωωω 210 ,, - trafienie do celu nie więcej niŜ dwa razy (zdarzenie pewne).
Przy tak określonym zbiorze zdarzeń elementarnych nie moŜna mówić o zdarzeniu polegającym na trafieniu do celu w pierwszym strzale. ♦
Przykłady 5.2 i 5.3 wskazują, Ŝe dla tego samego doświadczenia losowego, w zaleŜności od interesującego nas zagadnienia, zbiór zdarzeń elementarnych moŜe być określony w róŜny sposób.
5.3. Relacje między zdarzeniami
Stosując działania rachunku zbiorów z danych zdarzeń losowych moŜemy tworzyć nowe, analogicznie jak robimy to ze zdaniami1. Postępując tak określamy:
• Sumę zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do co najmniej jednego ze zdarzeń A, B – rys. 5.1. Sumę zdarzeń A, B oznaczamy symbolem BA ∪ . Suma zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi co najmniej jedno ze zdarzeń A, B.
• Iloczyn zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do kaŜdego ze zdarzeń A, B – rys. 5.2. Iloczyn zdarzeń A, B oznaczamy symbolem
BA ∩ . Iloczyn zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi kaŜde ze zdarzeń A, B.
1 KaŜde działanie w rachunku zbiorów ma odpowiednik w rachunku zdań i odwrotnie, np. sumie zbiorów odpowiada
alternatywa zdań, a iloczynowi zbiorów – koniunkcja zdań.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
7
• RóŜnicę zdarzeń A, B - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które naleŜą do A i nie naleŜą do B – rys. 5.3. RóŜnicę zdarzeń A, B oznaczamy symbolem BA − . RóŜnica zdarzeń A, B zachodzi wtedy i tylko wtedy, gdy zachodzi A i nie zachodzi B.
• Zdarzenie przeciwne do zdarzenia A - zdarzenie składające się z tych wszystkich zdarzeń elementarnych, które nie naleŜą do A (lecz naleŜą do zbioru zdarzeń elementarnych Ω) – rys. 5.4. Zdarzenie przeciwne do A oznaczamy symbolem A′ . Zdarzenie przeciwne do A zachodzi wtedy i tylko wtedy, gdy nie zachodzi zdarzenie A.
• Zdarzenie A pociągające za sobą zdarzenie B - jeśli kaŜde zdarzenie elementarne naleŜące do A naleŜy takŜe do B i zapisujemy to w postaci BA ⊂ - rys. 5.5. Zdarzenie A pociąga zdarzenie B wtedy i tylko, wtedy, gdy z zajścia zdarzenia A wynika zajście zdarzenia B.
• Wykluczające się zdarzenia A, B - jeśli nie mają one wspólnych zdarzeń elementarnych, tzn. iloczyn zdarzeń A, B jest zdarzeniem niemoŜliwym ∅=∩ BA - rys. 5.6. Zdarzenia A, B wykluczają się wtedy i tylko wtedy, gdy nie mogą zajść łącznie.
Rys. 5.1. Suma zdarzeń Rys. 5.2. Iloczyn zdarzeń Rys. 5.3. RóŜnica zdarzeń
Rys. 5.4. Zdarzenie przeciwne Rys. 5.5. Zdarzenie pociągające Rys. 5.6. Zdarzenia wykluczające
się
PowyŜsze rysunki nazywane są diagramami Venna.
W poniŜszej tabeli podano wybrane relacje dotyczące rozpatrywanych zdarzeń2.
Tabela 5.1. Relacje dotyczące zdarzeń
Suma i iloczyn zdarzeń Zdarzenie przeciwne RóŜnica zdarzeń
A∪A =A
A∩A = A
A∪B=B∪A
A∩B=B∩A
A∩(B∩C) =(A∩B)∩C
A∩(B ∪C)=(A∩B) ∪(A ∩C)
A∪(B∩C) =(A∪B)∩(A∪C)
A∪Ω=Ω
A∩∅=∅
A∩Ω=A
(A’)’ = A
A∩A’= ∅
A∪A’= Ω
Ω’=∅
(A∪B)’= A’∩B’
(A∩B)’ = A’∪B
A–B = A∩B’
Ω–A= A’
A–Ω= ∅
∅–A= ∅
A–A= ∅
A–∅= A
2 Dowód praw de Morgana odano w punkcie 20.1 części VII Wybrane twierdzenia z dowodami
prawa
de
Morgana
RACHUNEK PRAWDOPODOBIEŃSTWA
8
PoniŜej za pomocą diagramów Venna przedstawiono dwie z w/w zaleŜności:
• A∩(B ∪C)=(A∩B)∪(A∩C) - rys. 5.7
• A∪(B∩C) =(A∪B)∩(A∪C) - rys. 5.8.
B ∪C A∩B B∩C A∪B
A∩(B ∪C) A∩C A∪(B∩C) A∪C
(A∩B)∪(A∩C) (A∪B)∩(A∪C)
Rys. 5.7. A∩∩∩∩(B ∪∪∪∪C)=(A∩∩∩∩B)∪∪∪∪(A∩∩∩∩C) Rys. 5.8. A∪∪∪∪(B∩∩∩∩C) =(A∪∪∪∪B)∩∩∩∩(A∪∪∪∪C)
Przykład 5.4
Z partii układów scalonych wybrano losowo 5 sztuk. Interesuje nas liczba wybranych wadliwych układów. Dlatego zbiór zdarzeń elementarnych określamy następująco
543210 ,,,,, ωωωωωω=Ω
gdzie: ( )5,,1,0kk K=ω oznacza zdarzenie elementarne polegające na wybraniu dokładnie k
wadliwych układów scalonych. Zdarzenie 5432 ,,,A ωωωω= oznacza wybranie co najmniej
dwóch wadliwych układów; 43210 ,,,,B ωωωωω= – wybranie nie więcej niŜ czterech wadliwych
układów; 1C ω= wybranie dokładnie jednego wadliwego układu. Wtedy: suma Ω=∪ BA jest zdarzeniem pewnym; iloczyn 432 ,,BA ωωω=∩ oznacza wybranie 2 lub 3 lub 4 wadliwych układów;
róŜnica 5BA ω=− oznacza wybranie dokładnie 5 wadliwych układów;
zdarzeniem przeciwnym do A jest 10 ,A ωω=′ oznacza wybranie co najwyŜej jednego
wadliwego układu; zdarzenie C pociąga zdarzenie B, BC ⊂ oznacza to, Ŝe gdy zajdzie zdarzenie C to zajdzie takŜe
zdarzenie B zdarzenia A i C wykluczają się, ∅=∩ BA oznacza to, Ŝe zdarzenia te nie mogą zajść łącznie.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
9
5.4. Definicje prawdopodobieństwa
5.4.1. Klasyczna definicja prawdopodobieństwa
Jeśli: a) zbiór zdarzeń elementarnych ma skończoną liczbę elementów
Ω = ω1, ω2, … , ωn b) wszystkie zdarzenia losowe jednoelementowe
ω1, ω2, ..., ωn są jednakowo prawdopodobne
P(ω1) = P(ω2) = ... = P(ωn) to prawdopodobieństwo zdarzenia A jest równe
P(A) = A
Ω
gdzie: A oznacza liczbę zdarzeń elementarnych naleŜących do zdarzenia A, natomiast Ω liczbę wszystkich zdarzeń elementarnych.
Zdarzenia elementarne, z których składa się zdarzenie A, nazywamy zdarzeniami sprzyjającymi zajściu tego zdarzenia, zaś zdarzenia elementarne, naleŜące do zbioru Ω zdarzeniami moŜliwymi. MoŜna więc powiedzieć, Ŝe gdy spełnione są załoŜenia a) i b), to prawdopodobieństwo zdarzenia A jest równe stosunkowi liczby zdarzeń sprzyjających zajściu A do liczby moŜliwych zdarzeń elementarnych.
Przykład 5.5
Rzut kością Ω = ω1, ω2, ω3, ω4, ω5 ω6, gdzie ωk (k = 1, ..., 6) oznacza wyrzucenie k oczek. Jeśli kość jest symetryczna, to spełnione są załoŜenia a) i b). Mamy 6 moŜliwych zdarzeń elementarnych. Zdarzeniu A - wyrzucenie parzystej liczby oczek - sprzyjają 3 zdarzenia
elementarne ω2, ω4, ω6, więc P(A) = 6
3 =
2
1; zdarzeniu B (wyrzucenie co najmniej 3 oczek)
sprzyjają 4 zdarzenia elementarne ω3, ω4, ω5 ω6, więc P(B) = 6
4 =
3
2; zdarzeniu
C - wyrzuceniu dokładnie 3 oczek sprzyja tylko jedno zdarzenie elementarne ω3, więc P(C) = 6
1.
5.4.2. Geometryczna definicja prawdopodobieństwa
Rozpatrzymy przypadek, gdy zbiór zdarzeń elementarnych Ω jest zbiorem punktów prostej, płaszczyzny lub przestrzeni. Zakładamy, Ŝe: a) zbiór Ω jest mierzalny o skończonej mierze, tzn. ma skończoną długość, pole lub objętość; b) wszystkie punkty zbioru Ω mają jednakowe szanse wylosowania.
Wtedy prawdopodobieństwo dowolnego zdarzenia A, będącego podzbiorem mierzalnym zbioru Ω, wyraŜa się wzorem:
P(A) = miaraΩ
miaraA
gdzie przez miarę rozumiemy długość, pole lub objętość, w zaleŜności czy zbiór Ω leŜy na prostej, płaszczyźnie lub w przestrzeni.
RACHUNEK PRAWDOPODOBIEŃSTWA
10
Przykład 5.6
Obliczymy prawdopodobieństwo, Ŝe losowo wybrany punkt kwadratu OBCD o boku 1 jest oddalony od punktu 0 więcej niŜ o 0,5 i mniej niŜ o 1.
( )16
3
1
2
11
4
1
pole
poleAAP
2
22
π=
−π
=Ω
=
Przykład 5.7
Dysponujemy radarem o jednostajnie obracającej się antenie, której rozwarcie charakterystyki kierunkowej wynosi 18°. Obliczymy prawdopodobieństwo wykrycia pojedynczego sygnału radiowego przez ten radar. Zakładamy, Ŝe sygnał jest punktowy, tzn. Ŝe jest bardzo krótki w porównaniu z okresem obrotu anteny.
Rozwiązanie
Radar wykrywa sygnał w wycinku koła o promieniu R w kącie rozwarcia 18°. Natomiast sygnał moŜe pojawić się w dowolnym punkcie tego koła (nie znamy połoŜenia nadajnika).
Pola wycinka i koła są proporcjonalne do kątów 18° i 360°, więc
P(A) = Ωpole
poleA =
°°
360
18 = 0,05
5.4.3. Statystyczna definicja prawdopodobieństwa
W praktyce nie zawsze znana jest liczebność zbioru zdarzeń elementarnych, która jest potrzebna przy wykorzystaniu definicji klasycznej, bądź nie jest łatwo doliczyć się liczby zdarzeń elementarnych sprzyjających poszczególnym zdarzeniom losowym. Podobnie nie zawsze są znane miary potrzebne dla skorzystania z definicji geometrycznej.
Znajomości tych wielkości nie wymaga definicja statystyczna.
W długiej serii doświadczeń obserwuje się wystąpienia zdarzenia A. JeŜeli częstość n/N zdarzenia A, gdzie N jest długością serii, a n liczbą doświadczeń, w których pojawiło się zdarzenie A, przy wzrastaniu długości serii zbliŜa się do pewnej liczby p oscylując wokół tej liczby i jeśli wahania częstości zdarzenia przejawiają tendencję malejącą przy wzrastającym N, to liczba p nazywana jest prawdopodobieństwem zdarzenia A.
N
nlim)A(P
N ∞→=
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
11
Rys. 5.9. Ilustracja statystycznej definicji prawdopodobieństwa
5.4.4. Aksjomatyczna definicja prawdopodobieństwa
śadna z podanych powyŜej definicji nie jest pozbawiona wad. I tak: • Definicja klasyczna jest tautologią3, gdyŜ definiując prawdopodobieństwo posługuje się
pojęciem zdarzeń jednakowo moŜliwych, czyli jednakowo prawdopodobnych. • Definicja geometryczna wymaga znajomości miary zbiorów, którymi się posługuje. • Definicja statystyczna nie jest ścisła, bo nie jest sprecyzowana granica w niej występująca. Wspólną wadą tych definicji jest to, Ŝe definiując prawdopodobieństwo zdarzenia, odnosimy się do określonego typu doświadczenia.
Takich wad nie ma podana poniŜej definicja aksjomatyczna, gdyŜ dotyczy ona wszystkich rodzajów doświadczeń losowych.
Jeśli kaŜdemu zdarzeniu losowemu A przyporządkowano liczbę rzeczywistą P(A), zwaną prawdopodobieństwem zdarzenia A, w taki sposób, aby spełnione były następujące warunki: I. 0 ≤ P(A) ≤ 1 II. Prawdopodobieństwo zdarzenia pewnego jest równe 1 P(Ω) = 1 III. JeŜeli zdarzenia A1, A2, ...An,... wykluczają się parami (tzn. kaŜde dwa z nich wykluczają się),
wtedy prawdopodobieństwo sumy tych zdarzeń jest równe sumie ich prawdopodobieństw P(A1 ∪ A2 ∪ ... ∪ An ∪ ...) = P(A1) + P(A2) + ... + P(An) + ...
to określoną w ten sposób funkcję P nazywamy prawdopodobieństwem.
Jeśli zbiór zdarzeń elementarnych Ω ma skończoną liczbę elementów, to warunek III moŜe być zastąpiony prostszym warunkiem:
III'. Prawdopodobieństwo sumy dwóch dowolnych zdarzeń wykluczających się jest równe sumie ich prawdopodobieństw
P(A ∪ B) = P(A) + P(B)
Podane wcześniej definicje prawdopodobieństwa: klasyczna, geometryczna i statystyczna są szczególnymi przypadkami definicji aksjomatycznej.
Przykład 5.8
Rzut monetą. Ω = O, R, gdzie O oznacza wyrzucenie orła, zaś R - wyrzucenie reszki. Mamy cztery zdarzenia losowe ∅, O, R, Ω.. Określimy na tych zdarzeniach funkcję P w następujący sposób
P(∅) = 0, P(O) = 2
1 , P(R) =
2
1, P(Ω) = 1
Łatwo sprawdzić, Ŝe tak określona funkcja P spełnia warunki I, II, III, a więc jest prawdo-podobieństwem. Wartości tej funkcji są prawdopodobieństwami poszczególnych zdarzeń.
3 Wypowiedź, w której treści wyraz określający nie wzbogaca treści wyrazu określanego, powtarzając ją tylko.
RACHUNEK PRAWDOPODOBIEŃSTWA
12
Na tych samych zdarzeniach losowych określimy inną funkcję, którą dla odróŜnienia oznaczymy P1
P1(∅) = 0; P1(O) = 3
1, P1(R) =
3
2, P1(Ω) = 1
Łatwo sprawdzić, Ŝe takŜe funkcja P1 jest prawdopodobieństwem.
Widzimy, Ŝe aksjomatyczna definicja prawdopodobieństwa nie precyzuje jednoznacznie wartości liczbowych prawdopodobieństw poszczególnych zdarzeń losowych. Na tym samym zbiorze zdarzeń losowych prawdopodobieństwo moŜe być określone na róŜne sposoby, byleby zgodnie z warunkami I, II, III. Jeśli jednak chcemy wykorzystywać teorię prawdopodobieństwa w praktyce, to powinniśmy określić prawdopodobieństwo tak, by spełniony był postulat: w długim ciągu powtórzeń w tych samych warunkach doświadczenia losowego częstość4 zajścia zdarzenia A powinna zbliŜać się do prawdopodobieństwa tego zdarzenia. Postulat ten nazywamy interpretacją prawdopodobieństwa przy pomocy częstości.
Z aksjomatycznej definicji prawdopodobieństwa moŜna wyprowadzić następujące własności prawdopodobieństwa5: I. prawdopodobieństwo zdarzenia niemoŜliwego jest równe zeru
P(∅) = 0 II. jeśli zdarzenia A1,..., An wykluczają się parami, to prawdopodobieństwo sumy zdarzeń jest
równe sumie ich prawdopodobieństw P(A1 ∪ A2 ∪ ... ∪ An) = P(A1) + P(A2) + ... + P(An)
III. jeśli zdarzenie A pociąga zdarzenie B, to P(A) ≤ P(B)
P(B – A) = P(B) – P(A) IV. prawdopodobieństwo sumy dwóch dowolnych zdarzeń jest równe sumie prawdopodobieństw
tych zdarzeń zmniejszonej o prawdopodobieństwo ich iloczynu P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
V. prawdopodobieństwo zdarzenia A jest równe róŜnicy jedności i prawdopodobieństwa zdarzenia przeciwnego do A
P(A) = 1 – P(A')
5.7. Prawdopodobieństwo warunkowe
Definicja prawdopodobieństwa warunkowego
Niech A i B będą dowolnymi zdarzeniami losowymi, przy czym P(B)>0. Prawdopodobieństwem
warunkowym zdarzenia A pod warunkiem, Ŝe zaszło zdarzenie B, nazywamy iloraz prawdopodobieństwa iloczynu zdarzeń A i B oraz prawdopodobieństwa zdarzenia B, co zapisujemy
P(A/B) = )B(P
B) P(A ∩
Symbol P(A/B) czytamy: „prawdopodobieństwo zdarzenia A pod warunkiem, Ŝe zaszło zdarzenie B”. Tak więc informacja o jakimś zdarzeniu B, które zaszło, moŜe mieć wpływ na prawdopodobieństwo innego zdarzenia A.
4 Częstością zdarzenia A nazywamy stosunek liczby doświadczeń, w których zdarzenie A zaszło, do liczby
wykonanych doświadczeń. 5 Dowody podano w punkcie 20.2. części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
13
Przykład 5.9
Obliczymy prawdopodobieństwo zdarzenia A polegającego na wyrzuceniu parzystej liczby oczek przy rzucie kością pod warunkiem, Ŝe zaszło zdarzenie B polegające na wyrzuceniu co najwyŜej 5 oczek. Rozwiązanie
Oczywiście A = ω2, ω4, ω6, B =ω1, ω2, ω3, ω4, ω5,, zaś A ∩ B = ω2, ω4, więc
P(A/B) = )B(P
B) P(A ∩=
6
56
2
=5
2
Prawdopodobieństwo iloczynu
Ze wzoru na prawdopodobieństwo warunkowe moŜna wyznaczyć prawdopodobieństwo iloczynu dwóch zdarzeń. Prawdopodobieństwo iloczynu dwóch zdarzeń jest równe iloczynowi prawdopodobieństwa jednego z tych zdarzeń i prawdopodobieństwa drugiego zdarzenia pod warunkiem zajścia pierwszego
P(A ∩ B) = P(A) P(B/A) przy załoŜeniu, Ŝe P(A)>0
Przykład 5.10
Detale poddawane są dwóm próbom. Drugiej próbie poddawane są te detale, które pozytywnie przeszły pierwszą próbę. Prawdopodobieństwo, Ŝe detal przejdzie pozytywnie pierwszą próbę wynosi 0,8, a dla drugiej pod warunkiem, Ŝe przeszedł pierwszą próbę wynosi 0,6. Obliczymy prawdopodobieństwo, Ŝe detal przeszedł pozytywnie obie próby. Rozwiązanie
Niech A oznacza zdarzenie: detal przeszedł pozytywnie pierwszą próbę, B: detal przeszedł pozytywnie drugą próbę. Obliczymy P(A ∩ B). Z treści zadania wynika, Ŝe P(A) = 0,8, P(B/A) = 0,6, więc
P(A ∩ B) = P(A)P(B/A) = 0,8•0,6 = 0,48
5.8. Prawdopodobieństwo całkowite i twierdzenie Bayesa
Twierdzenie o prawdopodobieństwie całkowitym
JeŜeli zdarzenia losowe A1, A2,..., An o dodatnich prawdopodobieństwach wykluczają się parami i suma ich jest zdarzeniem pewnym, to dla dowolnego zdarzenia losowego B zachodzi wzór
P(B) = P(A1)P(B/A1) + P(A2)P(B/A2) + … + P(An)P(B/An) zwany wzorem na prawdopodobieństwo całkowite.6
Przykład 5.11
Piłkarzy podzielono na trzy grupy. W pierwszej grupie było 10, w drugiej 25, w trzeciej 15 piłkarzy. KaŜdy piłkarz z pierwszej grupy zdobywa gola z karnego z prawdopodobieństwem 0,9, z drugiej z prawdopodobieństwem 0,8, a z trzeciej z prawdopodobieństwem 0,6. Obliczymy prawdopodobieństwo, Ŝe losowo wybrany piłkarz zdobędzie gola z karnego.
Rozwiązanie
Niech Ak będzie zdarzeniem polegającym na wybraniu piłkarza z k-tej grupy (k = 1,2,3), zaś B zdarzeniem polegającym na tym, Ŝe wybrany piłkarz strzeli gola z karnego. Łatwo sprawdzić, Ŝe zdarzenia A1, A2, A3, spełniają załoŜenia twierdzenia o prawdopodobieństwie całkowitym, więc
P(B) = P(A1)P(B/A1) + P(A2)P(B/A2) + P(A3)P(B/A3)
6 Dowód podano w punkcie 20.3. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
14
Wszystkich piłkarzy było 50, więc P(A1) = 50
10 = 0,2, P(A2) =
50
25= 0,5, P(A3) =
50
15= 0,3, dalej
z treści zadania wynika, Ŝe P(B/A1) = 0,9, P(B/A2) = 0,8, P(B/A3) = 0,6, zatem
P(B) = 0,2 ⋅ 0,9 + 0,5 ⋅ 0,8 + 0,3 ⋅ 0,6 = 0,76
Przykład 5.12
Zakład produkuje układy scalone na dwie zmiany. Pierwsza zmiana produkuje dwa razy więcej układów scalonych niŜ druga. Wśród układów scalonych wyprodukowanych przez pierwszą zmianę jest 3% wadliwych, a przez drugą zmianę jest 5% wadliwych. Z dziennej produkcji układów scalonych wybrano losowo jeden układ. Obliczymy prawdopodobieństwo, Ŝe jest on wadliwy.
Rozwiązanie
Wprowadzamy oznaczenia A1 - wybrany układ został wyprodukowany przez pierwszą zmianę, A2 - wybrany układ został wyprodukowany przez drugą zmianę, B - wybrany układ jest wadliwy.
Obliczymy P(B).
Z treści zadania wynika, Ŝe zdarzenia A1 i A2 spełniają załoŜenie twierdzenia o prawdopodobień-
stwie całkowitym, zatem
1 1 2 2P(B) P(A )P(B | A ) P(A )P(B | A= + )
ale
1
2
P(A ) 2 / 3,
P(A ) 1/ 3
=
=1
2
P(B | A ) 0,03
P(B | A ) 0,05
=
=
więc
P(B) 2 / 3 0,03 1/ 3 0,05= ⋅ + ⋅ = 300
11
Twierdzenie Bayesa
JeŜeli zdarzenia losowe A1,A2,...,An o dodatnich prawdopodobieństwach wykluczają się parami i suma ich jest zdarzeniem pewnym, zaś B jest dowolnym zdarzeniem o dodatnim prawdopodobieństwie, to zachodzi wzór
k kk
P(A )P(B | A )P(A | B)
P(B)= wzór Bayesa - postać zredukowana
P(Ak/B) = k k
1 1 2 2 n n
P(A )P(B / A )
P(A )P(B / A ) P(A )P(B / A ) ... P(A )P(B / A )+ + + wzór Bayesa - postać pełna
dla k=1,2, ... , n
zwany wzorem Bayesa7.
Na podstawie wzoru Bayesa moŜna więc obliczyć prawdopodobieństwa P(Ak/B), k=1,2, …,n znając prawdopodobieństwa P(Ak). Oznacza to, Ŝe jeŜeli znamy prawdopodobieństwa P(Ak) oraz wiemy, Ŝe zdarzenie B zostało zrealizowane, względnie - na pewno zostanie zrealizowane - to moŜemy jakby na nowo obliczyć prawdopodobieństwo tych samych zdarzeń uwzględniając fakt realizacji zdarzenia B, stąd teŜ prawdopodobieństwa P(Ak) nazywane są prawdopodobieństwami a
priori, natomiast prawdopodobieństwa P(Ak/B) prawdopodobieństwami a posteriori.
7 Dowód podano w punkcie 20.4. części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
15
Przykład 5.13
Sklep sprzedaje Ŝarówki produkowane przez fabryki F1 i F2. śarówki wyprodukowane przez F1 stanowią 60 %, zaś przez F2 40% całego zapasu Ŝarówek. Wiadomo, Ŝe 1 % Ŝarówek wyprodukowanych przez F1 i 2 % Ŝarówek wyprodukowanych przez F2 to braki. Kupiono jedną Ŝarówkę, która okazała się brakiem. Obliczymy prawdopodobieństwo, Ŝe została ona wyprodukowana przez F2.
Rozwiązanie
Niech A1 będzie zdarzeniem polegającym na kupieniu Ŝarówki wyprodukowanej przez F1, A2 – na kupieniu Ŝarówki wyprodukowanej przez F2, zaś B – na kupieniu Ŝarówki, która jest brakiem. NaleŜy obliczyć P(A2/B). Łatwo sprawdzić, Ŝe zdarzenia A1, A2 i B spełniają załoŜenia twierdzenia Bayesa, więc
P(A2/B) = 2 2
1 1 2 2
P(A )P(B / A )
P(A )P(B/ A ) P(A )P(B / A )+=
02,04,001,06,0
02,04,0
⋅+⋅
⋅=
7
4= 0,57
Przykład 5.14
Dalszy ciąg przykładu 5.12. Wylosowano układ wadliwy. Obliczymy prawdopodobieństwo, Ŝe został on wyprodukowany przez pierwszą zmianę.
Rozwiązanie
NaleŜy obliczyć P(A1/B). Ze wzoru Bayesa – postać zredukowana - mamy
1 11
P(A )P(B / A ) 2 / 3 0,03 6P(A / B)
P(B) 11/ 300 11
⋅= = =
5.9. Zdarzenia niezaleŜne
NiezaleŜność dwóch zdarzeń
Zdarzenia A, B nazywamy zdarzeniami niezaleŜnymi, jeśli prawdopodobieństwo iloczynu tych zdarzeń jest równe iloczynowi ich prawdopodobieństw
P(A ∩ B) = P(A) P(B) (5.1)
Zakładamy, Ŝe P(B)>0. Warunkiem koniecznym i wystarczającym niezaleŜności zdarzeń A i B jest równość
P(A/B) = P(A) Oznacza to, Ŝe zdarzenie B nie ma wpływu na prawdopodobieństwo zajścia zdarzenia A.
Dowód konieczności
ZałóŜmy, Ŝe A i B są zdarzeniami niezaleŜnymi. Wtedy
)A(P)B(P
)B(P)A(P
)B(P
)BA(P)B/A(P =
⋅=
∩=
Dowód dostateczności
ZałóŜmy, Ŝe zachodzi wzór P(A/B) = P(A). Wówczas
P(A ∩ B) = P(A/B) P(B)=P(A) P(B)
co świadczy o tym, Ŝe zdarzenia A i B są niezaleŜne.
Przykład 5.15
Dwukrotny rzut monetą Ω = (O,O),(O,R),(R,O),(R,R). Niech A oznacza zdarzenie – w pierwszym rzucie otrzymano orła, B - w drugim rzucie otrzymano orła, wtedy
RACHUNEK PRAWDOPODOBIEŃSTWA
16
P(A) = P((O,O),(O,R)) = 2
1, P(B)=P((O,O),(R,O)) =
2
1, P(A ∩ B) = P((O,O)) =
4
1, więc
P(A ∩ B) = P(A) P(B), czyli zdarzenia A i B są niezaleŜne.
Przykład 5.16
Rzut kostką. 654321 ω,ω,ω,ω,ω,ω=Ω
2 4 6A ω ,ω ,ω= - wyrzucenie parzystej liczby oczek,
1 2 3 4 5B ω ,ω ,ω ,ω ,ω= - wyrzucenie co najwyŜej 5 oczek,
1 2 3 4C ω ,ω ,ω ,ω= - wyrzucenie co najwyŜej 4 oczek.
Czy zdarzenia A i B oraz A i C stanowią pary zdarzeń niezaleŜnych?
Rozwiązanie
PoniewaŜ 2 4A B ω ,ω∩ = = A C∩ , więc 2 1
P(A B) P(A C)6 3
∩ = ∩ = = , zatem
1 5 5P(A)P(B) P(A B)
2 6 12= ⋅ = ≠ ∩
1 2 1P(A)P(C) P(A C)
2 3 3= ⋅ = = ∩
Odp. Zdarzenia A i B nie są niezaleŜne, natomiast zdarzenia A i C są niezaleŜne.
NiezaleŜność zdarzeń przeciwnych
JeŜeli zdarzenia A1 i A2 są niezaleŜne, to
a) A1 i '2A b) '
1A i A2 c) '1A i '
2A są parami zdarzeń niezaleŜnych8.
NiezaleŜność trzech zdarzeń
Trzy zdarzenia A, B i C są niezaleŜne, jeśli zachodzą wzory
P(A ∩ B) = P(A) P(B), P(A ∩ C) = P(A) P(C), P(B ∩ C) = P(B) P(C) (5.2)
P(A ∩ B ∩ C) = P(A) P(B) P(C) (5.3) Przykład 5.17
W hali pracują trzy maszyny. Zdarzenia polegające na zepsuciu się tych maszyn w czasie T są zdarzeniami niezaleŜnymi o prawdopodobieństwach 0,1 dla pierwszej maszyny, 0,2 dla drugiej maszyny i 0,15 dla trzeciej maszyny. Obliczymy prawdopodobieństwo, Ŝe w czasie T zepsują się a) wszystkie maszyny, b) dwie maszyny.
Rozwiązanie
Wprowadzamy zdarzenia
A – w czasie T zepsuje się pierwsza maszyna, B – w czasie T zepsuje się druga maszyna, C – w czasie T zepsuje się trzecia maszyna.
Z treści zadania wynika, Ŝe zdarzenia A, B i C są niezaleŜne o prawdopodobieństwach P(A) = 0,1, P(B) = 0,2, P(C)=0,15.
a) D – w czasie T zepsują się wszystkie maszyny
PoniewaŜ D A B C= ∩ ∩ oraz zdarzenia A, B i C są niezaleŜne, więc
P(D) P(A B C) P(A)P(B)P(C) 0,1 0,2 0,15 0,03= ∩ ∩ = = ⋅ ⋅ =
8 Dowód podano w podpunkcie 20.2.5. części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
17
b) E – w czasie T zepsują się dwie maszyny. Mamy
E (A B C ) (A B C) (A B C)′ ′ ′= ∩ ∩ ∪ ∩ ∩ ∪ ∩ ∩
PoniewaŜ iloczyny występujące w nawiasach są zdarzeniami wykluczającymi się, więc
P(E) P(A B C ) P(A B C) P(A B C)′ ′ ′= ∩ ∩ + ∩ ∩ + ∩ ∩
Z niezaleŜności zdarzeń A, B i C mamy
P(E) P(A)P(B)P(C ) P(A)P(B )P(C) P(A )P(B)P(C)′ ′ ′= + +
więc
P(E) 0,1 0,2 (1 0,15) 0,1 (1 0,2) 0,15 (1 0,1) 0,2 0,15 0,056= ⋅ ⋅ − + ⋅ − ⋅ + − ⋅ ⋅ =
Odp. a) 0,03, b) 0,056
Uwaga: Z równości (5.2) nie wynikają równości (5.3) oraz z równości (5.3) nie wynika równość (5.2), zatem przyjęcie jako definicji niezaleŜności trzech zdarzeń jedynie równości (5.2) nie gwarantuje niezaleŜności parami tych zdarzeń.
NiezaleŜność n zdarzeń (n ≥ 3)
Zdarzenia 1 nA ,...,A (5.4)
nazywamy zdarzeniami niezaleŜnymi, jeśli
1 n 1 nP(A ... A ) P(A )...P(A )∩ ∩ =
oraz prawdopodobieństwo iloczynu jest równe iloczynowi prawdopodobieństw dla dowolnego podciągu ciągu zdarzeń (5.4) złoŜonego z co najmniej dwóch zdarzeń.
Z powyŜszej definicji wynika wcześniej przyjęta definicja niezaleŜności trzech zdarzeń.
NiezaleŜność przeliczalnie wielu zdarzeń
Zdarzenia A1,A2,… nazywamy zdarzeniami niezaleŜnymi, jeŜeli dla dowolnej liczby naturalnej n 2≥ zdarzenia 1 nA ,...,A są niezaleŜne.
Uwaga. Z przyjętych definicji niezaleŜności zdarzeń wynika zasada: Jeśli n(A ) jest skończonym lub nieskończonym ciągiem zdarzeń niezaleŜnych, to dowolny jego
podciąg (złoŜony z co najmniej dwóch zdarzeń) jest ciągiem zdarzeń niezaleŜnych.
Przykład 5.18
Do samolotu oddano niezaleŜnie trzy strzały. Prawdopodobieństwo trafienia samolotu pierwszym strzałem wynosi 0,4, drugim 0,5 i trzecim 0,7. Jeśli w samolot trafił jeden pocisk, to nastąpi zestrzelenie samolotu z prawdopodobieństwem 0,2, jeśli dwa pociski - to z prawdopodobieństwem 0,6, jeśli trzy pociski - to samolot zostanie na pewno zestrzelony. Obliczymy prawdopodobieństwo, Ŝe w rezultacie trzech strzałów samolot zostanie zestrzelony.
Rozwiązanie
Oznaczmy: B1 - samolot został trafiony pierwszym pociskiem, B2 - samolot został trafiony drugim pociskiem, B3 - samolot został trafiony trzecim pociskiem, A0 - w samolot nie trafił Ŝaden pocisk, A1 - w samolot trafił jeden pocisk, A2 - w samolot trafiły dwa pociski, A3 - w samolot trafiły trzy pociski, B - samolot został strącony.
RACHUNEK PRAWDOPODOBIEŃSTWA
18
P(A0) = P(B1′∩ B2′∩ B3′) = (1–P(B1))(1–P(B2)) (1–P(B3)) = 0,6·0,5·0,3 = 0,09
P(A1) = P((B1 ∩ B2′∩ B3′) ∪ (B1′∩ B2 ∩ B3′) ∪ (B1′∩ B2′∩ B3)) =
= 0,4·0,5·0,3 + 0,6·0,5·0,3 + 0,4·0,5·0,7 = 0,36
P(A2) = P((B1 ∩ B2 ∩ B3′) ∪ (B1 ∩ B2′∩ B3) ∪ (B1′∩ B2 ∩ B3)) =
= 0,4·0,5·0,3 + 0,4·0,5·0,7 + 0,6·0,5·0,7 = 0,41
P(A3) = (B1 ∩ B2 ∩ B3) = 0,4·0,5·0,7 = 0,14
Przy obliczaniu powyŜszych prawdopodobieństw korzystaliśmy z faktu, Ŝe zdarzenia B1, B2 i B3 są niezaleŜne oraz z twierdzenia o prawdopodobieństwie sumy zdarzeń wykluczających się.
ZauwaŜmy, Ŝe zdarzenia A0, A1, A2, A3 spełniają załoŜenia twierdzenia o prawdopodobieństwie całkowitym, więc
P(B) = P(A0)P(B/A0) + P(A1)P(B/A1) + P(A2) P(B/A2) + P(A3)P(B/A3) Z treści zadania wynika, Ŝe
P(B/A0) = 0; P(B/A1) = 0,2; P(B/A2) = 0,6; P(B/A3) =1,0
zatem P(B) = 0,09·0 + 0,36·0,2 + 0,41·0,6 + 0,14·1,0 = 0,458
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
19
6. ZMIENNE LOSOWE
6.1. Zmienne losowe jednowymiarowe
6.1.1. Pojęcie zmiennej losowej
Pojęcie zmiennej losowej jest jednym z podstawowych pojęć rachunku prawdopodobieństwa. JeŜeli kaŜdemu zdarzeniu elementarnemu przyporządkujemy liczbę rzeczywistą, to mówimy, Ŝe została określona zmienna losowa jednowymiarowa, albo - w skrócie - zmienna losowa. Zmienna losowa jest więc funkcją, której dziedziną jest zbiór zdarzeń elementarnych Ω, a wartościami są liczby rzeczywiste9.
Zmienne losowe oznaczamy duŜymi literami z końca alfabetu łacińskiego X, Y, … JeŜeli zmienną losową oznaczymy literą X, to wartości przyjmowane przez tę zmienną losową oznaczamy małą literą x.
Niech A będzie podzbiorem zbioru liczb rzeczywistych. Symbolem X∈A oznaczamy zbiór tych
wszystkich zdarzeń elementarnych którym zmienna losowaBłąd! Nie zdefiniowano zakładki. X
przyporządkowuje liczby naleŜące do zbioru A. PowyŜszą definicję i jej niektóre szczególne przypadki przedstawiamy w poniŜszej tabeli.
Tabela 6.1. Wybrane definicje
Symbol Definicja symbolu
X∈A A)(X: ∈ωω X = a a)(X: =ωω
aX < a)(X: <ωω
bXa <≤ b)(Xa: <ω≤ω
Przykład 6.1
Rzut kością. 654321 ,,,,, ωωωωωω=Ω . Przyporządkowanie
6
,
5
,
4
,
3
,
2
,
1
654321
↓↓↓↓↓↓
ωωωωωω
jest zmienną losową o zbiorze wartości 1, 2, 3, 4, 5, 6. Zmienną tą oznaczymy X.
Przyporządkowanie
1
,
1
,
0
,
1
,
1
,
1
654321
↓↓↓
−
↓
−
↓
−
↓
ωωωωωω
jest takŜe zmienną losową o zbiorze wartości -1, 0, 1, oznaczymy ją Y. Zmienna losowa X moŜe słuŜyć do opisu sytuacji w której interesuje nas liczba wyrzuconych oczek na kości. Natomiast zmienna losowa Y moŜe opisywać następującą sytuację: rzucamy kością, jeśli wyrzucimy 1 lub 2 lub 3 oczka, to płacimy 1 zł, jeśli wyrzucimy 4 oczka to nic nie płacimy i nic nie otrzymujemy, jeśli wyrzucimy 5 lub 6 oczek, to otrzymujemy 1 zł. Wtedy Y oznacza wygraną w tej grze.
PoniŜsze zaleŜności ilustrują symbole podane w tabeli 6.1.
( ) ( ) ( )2
1
6
3,,P6,4,2)(X:P6,4,2XP 642 ==ωωω=∈ωω=∈
9 PowyŜsza definicja jest ścisła, gdy kaŜdy podzbiór zbioru zdarzeń elementarnych jest zdarzeniem losowym. Gdy tak
nie jest, to definicję zmiennej losowej naleŜy uzupełnić pewnym warunkiem , spełnionym na ogół w zagadnieniach praktycznych, patrz np. R. Leitner, J. Zacharski Matematyka dla studentów, cz. III str.182-183, WNT 1998, wydanie VIII.
RACHUNEK PRAWDOPODOBIEŃSTWA
20
( ) ( ) ( )6
1P3)(X:P3XP 3 =ω==ωω==
( ) ( ) ( )3
1
6
2,P3)(X:P3XP 21 ==ωω=<ωω=<
( ) ( ) ( ) 0P7)(X:P7XP =∅=≥ωω=≥
( ) ( ) ( )2
1
6
3,,P5)(X2:P5X2P 432 ==ωωω=<ω≤ω=<≤
( ) ( ) 1)(P6)(X1:P6X1P =Ω=≤ω≤ω=≤≤
( ) ( ) ( )3
1
6
2,P3)(X:P3XP 21 ==ωω=<ωω=<
( ) ( ) ( )2
1
6
3ω,ω,ωP1)(Y:P1YP 321 ===−=ωω=−=
( ) ( ) ( )6
1P0)(Y:P0YP 4 =ω==ωω==
( ) ( ) ( )3
1
6
2,P1)(Y:P1YP 65 ==ωω==ωω==
Przykład 6.2
Partia towaru składa się ze sztuk dobrych i wadliwych. Z partii tej pobieramy losowo jedną sztukę towaru, wtedy Ω = d, w. Zdarzeniu elementarnemu d, polegającemu na wybraniu sztuki dobrej, przyporządkujmy liczbę 0, zaś zdarzeniu elementarnemu w - wybrana sztuka jest wadliwa - liczbę 1. Została określona w ten sposób zmienna losowa X, przyjmująca dwie wartości x1 = 0 i x2 = 1.
Przykład 6.3
Zajmując się badaniem monet znajdujących się w obiegu i wyprodukowanych w latach 2000 – 2005 w zaleŜności od ich wieku, najwygodniej jest uŜywać jako zmienną losową rok emisji. Zbiorem wartości tej zmiennej losowej jest zbiór 2000, 2001, 2002, 2003, 2004, 2005.
Przykład 6.4
Strzelec strzela tak długo aŜ trafi do celu. Zbiór zdarzeń elementarnych, określamy następująco Ω = ω1, ω2,...)
gdzie zdarzenie elementarne ωn (n = 1, 2, ...) oznacza, Ŝe strzelec trafił do celu pierwszy raz w n - tym strzale.
Zdarzeniu elementarnemu ωn przyporządkujemy liczbę n. Zbiorem wartości tak określonej zmiennej losowej jest zbiór wszystkich liczb naturalnych.
Przykład 6.5
Pomiar wielkości fizycznej. Jeśli nie wiemy nawet w przybliŜeniu, jakie moŜna otrzymać wyniki pomiarów pewnej nieznanej wielkości fizycznej, to przyjmujemy, Ŝe mogą one wyrazić się dowolnymi liczbami rzeczywistymi. W tym przypadku zbiorem zdarzeń elementarnych Ω jest zbiór wszystkich liczb rzeczywistych
Ω = (-∞, ∞) Na tym zbiorze określimy zmienną losową X następująco: kaŜdej liczbie rzeczywistej x przyporządkujemy tę samą liczbę x. Zbiorem wartości tej zmiennej losowej jest zbiór wszystkich liczb rzeczywistych.
Zmienne losowe pozwalają przedstawiać wyniki doświadczeń losowych za pomocą liczb, co znacznie ułatwia badanie tych doświadczeń i pozwala traktować je jednolicie. Na tym samym zbiorze zdarzeń elementarnych Ω moŜna określać róŜne zmienne losowe w zaleŜności od zagadnienia, które nas interesuje (przykład 6.1).
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
21
6.1.2. Zbiory przeliczalne i nieprzeliczalne
Zbiór nieskończony (tzn. mający nieskończoną liczbę elementów) nazywamy zbiorem przeliczalnym, jeŜeli wszystkie jego elementy moŜna ustawić w jeden ciąg, czyli gdy zbiór ten jest równoliczny ze zbiorem liczb naturalnych. Natomiast zbiór nieskończony, którego wszystkich elementów nie moŜna ustawić w jeden ciąg, nazywamy zbiorem nieprzeliczalnym. Dowodzi się, Ŝe zbiór liczb wymiernych jest przeliczalny, natomiast zbiór liczb rzeczywistych jest nieprzeliczalny, co więcej - zbiór liczb rzeczywistych z dowolnego przedziału (a ,b) jest zbiorem nieprzeliczalnym. Zmienne losowe z przykładów 6.1, 6.2 i 6.3 mają zbiory wartości skończone, zmienna losowa z przykładu 6.4 ma zbiór wartości przeliczalny, natomiast zmienna losowa z przykładu 6.5 - nieprzeliczalny.
6.1.3. Zmienne losowe skokowe
Punkt skokowy. Skok
Jeśli
( )P X a p= = >0
to liczbę a nazywamy punktem skokowym zmiennej losowej X, zaś p skokiem w tym punkcie.
Przykład 6.6
Punktami skokowymi zmiennej losowej X z przykładu 6.1 są liczby 1, 2, 3, 4, 5, 6. W kaŜdym z tych punktów skok wynosi 1/6. Suma wszystkich skoków jest równa 1. Punktami skokowymi zmiennej losowej Y z tegoŜ przykładu są liczby –1, 0, 1, zaś skoki wynoszą odpowiednio 1/2, 1/6 i 1/3. Suma skoków jest równa 1.
Pojęcie zmiennej losowej skokowej
Zmienna losowa skokowa jest to zmienna losowa, której suma skoków jest równa 110.
Przykład 6.7
Zmienne losowe X i Y z przykładu 6.1 są zmiennymi losowymi skokowymi (patrz przykład 6.6).
Funkcja prawdopodobieństwa
Funkcja prawdopodobieństwa zmiennej losowej skokowej X jest to przyporządkowanie kaŜdemu punktowi skokowemu ix skoku ip w tym punkcie, co zapisujemy wzorem
i iP(X x ) p = =
lub tabelą
ix 1x 2x 3x ...
ip 1p 2p 3p ...
Przykład 6.8
Funkcję prawdopodobieństwa zmiennej losowej X z przykładu 6.1 moŜna przedstawić wzorem
( ) 1P X i
6= = dla i = 1, 2, ... , 6
natomiast funkcję prawdopodobieństwa zmiennej losowej Y z tego przykładu tabelą
iy -1 0 1
ip 1
2
1
6
1
3
10 Zmienną losową skokowa definiuje się takŜe jako zmienną losową, której zbiór wartości jest skończony lub
przeliczalny.
RACHUNEK PRAWDOPODOBIEŃSTWA
22
Własności funkcji prawdopodobieństwa zmiennej losowej skokowej 01 dziedziną funkcji jest co najwyŜej przeliczalny podzbiór zbioru liczb rzeczywistych, 02 wartościami funkcji są liczby nieujemne o sumie równej 1.
KaŜda funkcja spełniająca dwa powyŜsze warunki jest funkcją prawdopodobieństwa pewnej zmiennej losowej skokowej. Funkcja prawdopodobieństwa zmiennej losowej skokowej X wyznacza prawdopodobieństwo
i
ii
x A
P(X A) p
∈
∈ = ∑
gdzie A oznacza dowolny podzbiór zbioru liczb rzeczywistych, natomiast sumowanie obejmuje te wskaźniki i, dla których punkt skokowy ix naleŜy do zbioru A.
Przykład 6.9
Dla jakich wartości c funkcja
k 1f (k) c(1 p) −= − , k = 1, 2, 3, ... ; p (0;1)∈ jest funkcją prawdopodobieństwa pewnej zmiennej losowej skokowej X?
Rozwiązanie
PoniewaŜ dziedziną funkcji f jest zbiór liczb naturalnych (zbiór przeliczalny), więc by funkcja f była funkcją prawdopodobieństwa wystarczy by suma jej wartości była równa 1 i by wartości te były dodatnie.
k 1
k 1
c c1 f (k) c(1 p)
1 (1 p) p
∞ −
== = − = =∑ ∑
− −
Stąd c = p.
Przykład 6.10
Wyznaczymy c tak, by funkcja P(X = k) = kc
3, k =1, 2, 3, … była funkcją prawdopodobieństwa
zmiennej losowej skokowej X.
Rozwiązanie
Jest oczywiste, Ŝe funkcja ta spełnia warunek 01 (ppkt 6.1.3.). Aby spełniała takŜe warunek 02
musi być c>0 i ∑∞
=1kk3
c=1. Z tej ostatniej równości wyznaczymy c, korzystając ze wzoru na sumę
szeregu geometrycznego.
∑∞
=1kk3
c = c∑
∞
=1kk3
1= c
3
11
3
1
− =
2
c
więc c
2 = 1, czyli c = 2.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
23
6.1.4. Dystrybuanta
Pojęcie dystrybuanty
Dystrybuantą zmiennej losowej X nazywamy funkcję F(x) określoną wzorem
F(x) = P(X < x) dla x∈R
Dystrybuanta zmiennej losowej skokowej X o funkcji prawdopodobieństwa
P(X = xi) = pi
wyraŜa się wzorem F(x) = ∑
<xix:iip
przy czym sumowanie rozciąga się na składniki pi o wskaźnikach, dla których spełnione są nierówności xi < x. Z powyŜszego wzoru wynika, Ŝe dystrybuanta zmiennej losowej skokowej X jest funkcją przedziałami stałą i w skończonej lub przeliczalnej liczbie punktów, które są wartościami tej zmiennej, ma skoki równe prawdopodobieństwom, z którymi X te wartości przyjmuje.
I n t e r p r e t a c j a
Interpretując prawdopodobieństwo jako masę jednostkową rozłoŜoną na osi Ox stwierdzamy, Ŝe dla kaŜdego x∈ R dystrybuanta F(x) oznacza masę prawdopodobieństwa rozłoŜoną w przedziale ( )x;∞− .
Przykład 6.11
Zmienna losowa X przyjmuje wartości x1=–1, x2=1, x3=4 odpowiednio z prawdopodobieństwami
p1 =5
1, p2 =
5
3, p3 =
5
1. Znajdziemy dystrybuantę zmiennej losowej X.
Rozwiązanie
F(x) = ∑<xix:i
pi =
>=++
≤<=+
≤<−
−≤
4xdla15
1
5
3
5
1
4x1dla5
4
5
3
5
1
1x1dla5
11xdla0
Wykres dystrybuanty przedstawiono na poniŜszym rysunku – rys. 6.1.
Rys. 6.1
RACHUNEK PRAWDOPODOBIEŃSTWA
24
Własności dystrybuanty
Dystrybuanta F(x) ma własności:
a) F(x) jest funkcją niemalejącą;
b) F(x) jest funkcją lewostronnie ciągłą, tzn. limax −→
F(x) = F(a)
c) F(-∞) = 0, F(+∞) = 1, co jest skrótem zapisu )x(Flimx −∞→
= 0 i )x(Flimx ∞→
=1
d) P(a ≤ X < b) = F(b) - F(a)
e) P(X = a) = limax +→
F(x) - F(a)
czyli prawdopodobieństwo, Ŝe zmienna losowa X przyjmie wartość a jest równe skokowi dystrybuanty w tym punkcie (tzn. róŜnicy granicy prawostronnej dystrybuanty i jej wartości w punkcie a);
f) jeśli a jest punktem ciągłości dystrybuanty F, to
P(X = a) = 0
KaŜda funkcja F spełniająca warunki a), b) i c) jest dystrybuantą pewnej zmiennej losowej X.
Przykład 6.12
Zmienna losowa skokowa ma dystrybuantę
F(x) =
>
≤<
≤<
≤<−
−≤
3xdla1
3x2dla7
6
2x0dla7
4
0x2dla7
12xdla0
Znajdziemy funkcję prawdopodobieństwa tej zmiennej losowej.
Rozwiązanie
Zmienna losowa przyjmuje z dodatnimi prawdopodobieństwami tylko te wartości, w których dystrybuanta ma skok. Są nimi liczby x1 = -2, x2 = 0, x3 = 2, x4 = 3. Prawdopodobieństwa, z którymi zmienna lososowa przyjmuje te wartości są równe skokom dystrybuanty w punktach x1, x2, x3, x4, więc
p1 = 7
1 - 0 =
7
1, p2 =
7
4 -
7
1 =
7
3, p3 =
7
6 -
7
4 =
7
2, p4 = 1 -
7
6 =
7
1.
Otrzymaną funkcję prawdopodobieństwa przedstawiamy w poniŜszej tabeli.
kx -2 0 2 3
kp 7
1
7
3
7
2
7
1
Uogólniając postępowanie zademonstrowane w przykładach 6.11 i 6.12 moŜna stwierdzić, Ŝe:
Między dystrybuantą zmiennej losowej skokowej X i jej funkcją prawdopodobieństwa istnieje
wzajemnie jednoznaczna odpowiedniość
– dystrybuancie zmiennej X odpowiada funkcja prawdopodobieństwa,
- funkcji prawdopodobieństwa zmiennej X odpowiada dystrybuanta.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
25
Wynika stąd, Ŝe rozkład prawdopodobieństwa zmiennej losowej skokowej X moŜna określać za
pomocą jej funkcji prawdopodobieństwa, tj. funkcji spełniającej warunki 01 i 02 . Jest to znacznie prostsze niŜ określanie rozkładu zmiennej losowej za pomocą dystrybuanty.
Prawdopodobieństwa wyznaczone za pomocą dystrybuanty
1. P(X a) F(a)< = (6.1)
2. P(a X b) F(b) F(a)≤ < = − (6.2)
3. P(X b) 1 F(b)≥ = − (6.3)
4. P(X a) F(a 0) F(a)= = + − (6.4) F (a+0) oznacza granicę prawostronną dystrybuanty F w punkcie a, natomiast F(a 0) F(a)+ − skok dystrybuanty w punkcie a.
PowyŜsze własności pozwalają wyznaczyć za pomocą dystrybuanty prawdopodobieństwo przyjęcia wartości przez zmienną losowa z dowolnego przedziału.
Przykład 6.13
( ) ( )P(a X b) P(a X b) P(X a) F(b) F(a) F(a 0) F(a) F(b) F(a 0)< < = ≤ < − = = − − + − = − +
Przykłady dystrybuant
Przykład 6.14
Funkcje, których wykresy przedstawione są na rysunkach 6.2, 6.3 i 6.4 są niemalejące, lewostronnie ciągłe i mają granice: w - ∞ równą 0 i w ∞ równą 1, są więc wykresami dystrybuant pewnych zmiennych losowych . Zmienne te oznaczmy X, Y i Z
Rys. 6.2 Rys. 6. 3 Rys. 6.4
Ze wzoru (6.4) wynika, Ŝe zmienna losowa przyjmuje z dodatnimi prawdopodobieństwami tylko te wartości, w których dystrybuanta ma skok, przy czym skok ten jest równy prawdopodobieństwu, z którym zmienna losowa tę wartość przyjmuje.
Zmienna losowa X przyjmuje z dodatnim prawdopodobieństwem wartości 421 321 === x,x,x ,
przy czym 1 22 4 2 2
p , p5 5 5 5
= = − = , 34 1
p 15 5
= − = . PoniewaŜ 1 2 3p p p 1+ + = , więc zmienna
losowa X jest skokowa o funkcji prawdopodobieństwa
ix 1 2 4
ip 2
5
2
5
1
5
Zmienna losowa Y nie przyjmuje Ŝadnej wartości z dodatnim prawdopodobieństwem, gdyŜ jej dystrybuanta nie ma punktów skokowych (jest funkcją ciągłą). Zmienna losowa Y nie jest więc
RACHUNEK PRAWDOPODOBIEŃSTWA
26
zmienną losową skokową. Zmienna losowa Z przyjmuje wartość 21 −=x z prawdopodobieństwem
11 1
p 06 6
= − = oraz wartość 22 =x z prawdopodobieństwem 22 1
p 13 3
= − = . PoniewaŜ
1 21 1
p p 16 3
+ = + ≠ , więc zmienna losowa Z nie jest skokowa.
6.1.5. Zmienne losowe ciągłe
Pojęcie zmiennej losowej ciągłej
Zmienna losowa ciągła jest to zmienna losowa11, której dystrybuantę F moŜna przedstawić w postaci
F(x) = ∫∞−
x
dt)t(f
gdzie: f jest pewną funkcja nieujemną zwaną gęstością prawdopodobieństwa (krótko: gęstością)
zmiennej losowej X.
Gęstość moŜna wyrazić za pomocą dystrybuanty następującym wzorem
=przypadku przeciwnym w0
istnieje tapochodnagdy )x('F)x(f
Z własności f) dystrybuanty wnosimy, Ŝe zmienna losowa ciągła przyjmuje kaŜdą pojedynczą wartość z prawdopodobieństwem równym zeru, natomiast
P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = F (b) – F (a) = ∫b
a
dx)x(f
Interpretacja geometryczna powyŜszych równości: prawdopodobieństwo, Ŝe zmienna losowa X przyjmuje wartości z dowolnego przedziału jest równe polu obszaru ograniczonego wykresem gęstości, osią OX oraz prostymi x = a i x = b, rys. 6.5.
Własności gęstości
Interpretacja gęstości:
Gęstość jest miarą prawdopodobieństwa wystąpienia wartości zmiennej losowej z przedziału [x, x + dx), czyli dx)x(f)dxxXx(P ≅+<≤ dx - mały przyrost argumentu x.
KaŜda funkcja spełniająca warunki a), b) jest gęstością pewnej zmiennej losowej.
Przykład 6.15
Prostym przykładem dystrybuanty zmiennej losowej jest pozycja kątowa wskazówki zegara, odczytywana w losowych przedziałach czasu - rys. 6.6. Odpowiadająca jej gęstość f(x) jest funkcją stałą – rys. 6.7.
11 Ciągła zmienna losowa przyjmuje warości z określonego przedziału – moŜe to być podstawą jej określenia.
Rys. 6.5
Gęstość f(x) ma następujące własności: a) f(x) jest funkcją nieujemną f(x) ≥ 0
dla x∈R b) Funkcja f(x) jest całkowalna na R
i ∫∞
∞−
= 1dx)x(f .
Interpretacja geometryczna: pole obszaru ograniczonego wykresem gęstości i osią OX jest równe 1.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
27
360 xdla
360x0 dla
0 xdla
1360
x0
)xX(P)x(F
>
≤<
≤
=<=
== 0
360
1)x('F)x(f
Rys. 6.6 Rys. 6.7
Przykład 6.16
Wyznaczymy tak stałą c, by funkcja
f(x) =
≥
<<
≤
20
20
002
xdla
xdlacx
xdla
była gęstością pewnej zmiennej losowej X.
Rozwiązanie
Z warunku b) mamy
1 = ∫∞
∞−
dx)x(f = ∫∞−
0
dx0 + ∫2
0
2dxcx + ∫∞
2
dx0 = c0
2
3
x3= c
3
8
więc 3
8c = 1, czyli c =
8
3. Gdy c =
8
3 spełnione są takŜe warunki a) i b) na gęstość.
Czyli c = 8
3
Przykład 6.17
Zmienna losowa X ma gęstość
f (x) =
≥
<<
≤
2dla0
20dla8
30dla0
2
x
xx
x
Znajdziemy dystrybuantę zmiennej losowej X.
Rozwiązanie
Korzystamy ze wzoru
F(x) = ∫∞−
x
dt)t(f
dla ( )00 360 ;0x ∈
dla pozostałych x
RACHUNEK PRAWDOPODOBIEŃSTWA
28
Rys 6.8 Rys 6.9 Rys 6.10
Dla x ≤ 0 (rys.6.8)
F(x) = ∫∞−
x
dt)t(f = ∫∞−
0
dt0 = 0,
Dla 0 <x < 2 (rys.6.9)
F(x) = ∫∞−
x
dt)t(f = ∫∞−
0
dt0 + ∫x
0
2dtt8
3 = 3x
8
1
Dla x ≥ 2 (rys. 6.10)
F(x) = ∫∞−
x
dt)t(f = ∫∞−
0
dt + ∫2
0
2dtt8
3 + ∫
x
2
dt0 = 1
Zestawiając powyŜsze wyniki otrzymujemy (rys. 6.11): F(x) =
≥
<<
≤
2dla1
20dla8
10dla0
3
x
xx
x
Rys.6.11
Wyznaczanie prawdopodobieństwa za pomocą gęstości
1. P(X < a) = a
f (x)dx−∞∫
2. b
aP(a X b) f (x)dx≤ < = ∫
3. b
P(X b) f (x)dx∞
≥ = ∫
Z ciągłości dystrybuanty i z jej własności (6.4) wynika, Ŝe dla zmiennej losowej ciągłej prawdopodobieństwo P(X =a) = 0 dla a R∈ .
Zatem w równościach (6.1 – 6.3) znaki nierówności ≤, ≥ moŜna zastąpić znakami < , >, natomiast znak < moŜna zastąpić znakiem ≤.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
29
Przykład 6.18
Zmienna losowa ciągła X ma gęstość
2x dla 0 x 1
f (x)0 dla pozostalych x
< <=
Obliczymy prawdopodobieństwa 1 1
P X4 2
< <
, 3
P X4
>
.
Rozwiązanie
11 12 222 2 2
1 1
4 4
1 1 1 1 1 1 3P X f (x)dx 2xdx x
4 2 2 4 4 16 161
4
< < = = = = − = − =∫ ∫
212 2
3 3 14 4
13 3 7
P X f (x)dx 2xdx 0dx x 14 4 16
3
4
∞ ∞ > = = + = = − =∫ ∫ ∫
Obliczone prawdopodobieństwa zilustrowane są na rys. 6.12
Rys.6.12
6.2. Zmienne losowe dwuwymiarowe
6.2.1. Pojęcie zmiennej losowej dwuwymiarowej
Jeśli na zbiorze zdarzeń elementarnych Ω określimy dwie zmienne losowe X i Y, to uporządkowaną parę (X, Y) nazywamy zmienną losową dwuwymiarową. Zmienna losowa dwuwymiarowa jest więc przyporządkowaniem kaŜdemu zdarzeniu elementarnemu uporządkowanej pary liczb rzeczywistych (x, y). Pary te nazywamy wartościami zmiennej losowej dwuwymiarowej (X, Y), są one punktami płaszczyzny.
Niech A będzie podzbiorem płaszczyzny. Symbolem A)Y,X( ∈ oznaczamy zbiór tych wszystkich zdarzeń elementarnych, dla których zmienna losowa (X,Y) przyjmuje wartości ze zbioru A. PowyŜszą definicję i jej niektóre szczególne przypadki przedstawiamy w poniŜszej tabeli.
Tabela 6.2. Przykładowe definicje
Symbol Definicja symbolu A)Y,X( ∈ A))ω(Y),ω(X(:ω ∈
)bY,aX( == b)ω(Yia)ω(X:ω ==
)yY,xX( << y)ω(Yix)ω(X:ω <<
)yYy,xXx( 2121 <≤<≤ 2121 yω)(Yyix)ω(Xx:ω <≤<≤
RACHUNEK PRAWDOPODOBIEŃSTWA
30
Przykład 6.19
Doświadczenie polega na losowym wyborze liczby spośród liczb 1, 2, 3, 4, 5, 6. Zmienna losowa X przyjmuje wartość 1, gdy wylosowano liczbę parzystą lub wartość 0, gdy wylosowano liczbę nieparzystą. Zmienna losowa Y przyjmuje wartość 1, gdy wylosowano liczbę podzielną przez 3 lub wartość 0, gdy wylosowano liczbę niepodzielną przez 3.
1
6
1
0
,5
0
1
,4
0
0
,3
1
1
,2
0
0
,1
0
:
:
X
Y
↓
↑
↓
↑
↓
↑
↓
↑
↓
↑
↓
↑
=Ω
Para (X,Y) jest zmienną losową dwuwymiarową o zbiorze wartości )1,1(),0,1(),1,0(),0,0( Mamy
3
1)5,1(P)0Y,0X(P ====
6
1)3(P)1Y,0X(P ====
3
1)4,2(P)0Y,1X(P ====
6
1)6(P)1Y,1X(P ====
0)(P)0Y,0X(P =∅=<< 1)(P)0Y,0X(P =Ω=≥≥
Przykład 6.20
Dwukrotny rzut monetą. Ω = (O, O), (O, R), (R, O), (R, R). Zdarzeniom elementarnym (O, O), (O, R), (R, O), (R, R) przyporządkujmy odpowiednio pary liczb (1, 1), (1, 0), (0, 1), (0, 0). Została w ten sposób określona zmienna losowa dwuwymiarowa (X, Y) przyjmująca 4 wartości, przy czym
P(X = 1, Y = 1) = P((O, O)) = 4
1, P(X = 1, Y = 0) = P((O, R)) =
4
1,
P(X = 0, Y = 1) = P((R, O)) = 4
1, P(X = 0, Y = 0) = P((R, R)) =
4
1,
Przykład 6.21
Przykładem dwuwymiarowej zmiennej losowej jest wzrost i waga osób (X, Y). W tym przypadku moŜe nas interesować zaleŜność wagi Y od wzrostu X. MoŜna rozszerzyć rozpatrywane dane o wiek osób, otrzymujemy wtedy zmienną losową trójwymiarową. Kolejne rozszerzenie moŜe dotyczyć płci osób.
W przypadku ogólnym moŜna rozpatrywać zmienna losową n-wymiarową. Dla uproszenia rozwaŜań w niniejszej ksiąŜce ograniczono się do zmiennych losowych dwuwymiarowych.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
31
6.2.2. Dystrybuanta zmiennej losowej dwuwymiarowej
Dystrybuantą zmiennej losowej dwuwymiarowej (X,Y) nazywamy funkcję F(x,y) określoną wzorem
F(x, y) = P(X < x, Y < y) dla x,y ∈ R
I n t e r p r e t a c j a Wartość dystrybuanty zmiennej losowej dwuwymiarowej (X,Y) w punkcie (x,y) jest równa prawdopodobieństwu przyjęcia przez tą zmienną wartości z ćwiartki płaszczyzny przedstawionej na poniŜszym rysunku – rys. 6.14, bez krawędzi tej ćwiartki.
Rys. 6.14
Dystrybuanta F(x, y) zmiennej losowej dwuwymiarowej (X, Y) ma następujące własności: a) dla dowolnych punktów (x1, y1) i (x2, y2) gdzie x1< x2 i y1 < y2 zachodzi nierówność
F(x2, y2) – F(x1, y2) – F(x2, y1) + F(x1, y1) ≥ 0
b) F(x, y) jest funkcją lewostronnie ciągłą, c) F(+∞, +∞) = 1, F(–∞, –∞) = 0, F(–∞, y) = 0, F(x, –∞) = 0 d) P(x1 ≤ X < x2, y1 ≤ Y < y2) = F(x2, y2) – F(x2, y1) – F(x1, y2) + F(x1,y1) e) Funkcje FX(x) = F(x, +∞), FY(y) = F( +∞, y) są dystrybuantami odpowiednio zmiennej losowej X i zmiennej losowej Y. Funkcje FX(x) i FY(y) nazywamy takŜe dystrybuantami rozkładów brzegowych, przez co podkreślamy, Ŝe dystrybuanty te zostały otrzymane przy pomocy dystrybuanty F(x, y) zmiennej losowej dwuwymiarowej (X, Y).
KaŜda funkcja F(x, y) spełniająca warunki a), b) i c) jest dystrybuantą pewnej zmiennej losowej dwuwymiarowej (X, Y).
6.2.3. Zmienne losowe dwuwymiarowe skokowe
Punkt skokowy. Skok
Jeśli 0pb)Ya,P(X >===
to punkt (a,b) nazywamy punktem skokowym zmiennej losowej dwuwymiarowej (X,Y), zaś p skokiem w tym punkcie.
Pojęcie zmiennej losowej skokowej Zmienna losowa dwuwymiarowa skokowa jest to zmienna losowa dwuwymiarowa mająca sumę skoków równą 1. JeŜeli zmienna losowa dwuwymiarowa (X, Y) przyjmuje tylko skończoną lub przeliczalną liczbę wartości, to jest ona zmienną losową dwuwymiarową skokową
Funkcja prawdopodobieństwa Funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) jest to przyporządkowanie kaŜdemu punktowi skokowemu tej zmiennej skoku w tym punkcie.
Funkcję prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) przedstawiamy wzorem
( ) jiji pyY,xXP === i, j =1, 2, ...
lub w postaci tabeli
RACHUNEK PRAWDOPODOBIEŃSTWA
32
jy
ix y1 y2 y3 K
x1 p11 p12 p13 K x2 p21 p22 p23 K x3 p31 p32 p33 K
K K K K K
Przykład 6.22
Zmienna losowa dwuwymiarowa (X,Y) z przykładu 6.19 jest zmienną losową dwuwymiarową skokową o funkcji prawdopodobieństwa przedstawionej w poniŜszej tabeli
jy
ix 0 1
0 3
1 6
1
1 3
1 6
1
TakŜe zmienna losowa dwuwymiarowa z przykładu 6.27 jest skokowa. Jej funkcja prawdopodobieństwa jest określona równościami zapisanymi w tym przykładzie.
Dystrybuanta zmiennej losowej dwuwymiarowej skokowej (X, Y) wyraŜa się wzorem F(x, y) = ∑∑
< <xx
i
yy
jij
i j
p
gdzie sumowanie rozciąga się na składniki pij o wskaźnikach, dla których spełnione są jednocześnie nierówności xi < x i yj < y.
Przykład 6.23
Zmienna losowa dwuwymiarowa skokowa (X,Y) ma funkcję prawdopodobieństwa określoną tabelą
jy
ix 0 1 2
0 0,2 0,1 0,3 1 0,1 0,2 0,1
F(0,5; 1,5) P(X 0,5; Y 1,5) P(X 0; Y 0) P(X 0;Y 1) 0,2 0,1 0,3= < < = = = + = = = + =
F(1, 3) P(X 1,Y 3) P(X 0,Y 0) P(X 0,Y 1) P(X 0,Y 2) 0,2 0,1 0,3 0,6= < < = = = + = = + = = = + + =
0)(P)0Y,0X(P)0,0(F =∅=<<=
1)(P)4Y,2X(F)4,2(F =Ω=<<=
6.2.4. Zmienne losowe dwuwymiarowe ciągłe
Zmienna losowa dwuwymiarowa ciągła jest to zmienna losowa dwuwymiarowa, której dystrybuantę F moŜna przedstawić w postaci
∫
∫=
∞− ∞−
x ydtdu)u,t(f)y,x(F dla Ry,x ∈
gdzie: f jest pewną funkcją nieujemną dwóch zmiennych rzeczywistych zwaną gęstością
prawdopodobieństwa (krótko: gęstością) zmiennej losowej dwuwymiarowej (X, Y).
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
33
Gęstość f zmiennej losowej dwuwymiarowej ciągłej jest funkcją dwóch zmiennych i ma własności 1. f jest funkcją nieujemną: Ry,xdla0)y,x(f ∈≥
2. 1dxdy)y,x(f =∫
∫
∞
∞−
∞
∞−
3. Jeśli F jest dystrybuantą zmiennej losowej dwuwymiarowej ciągłej, to funkcja
∂∂∂
=przypadkuprzeciwnym w 0
istnieje tapochodna gdy )y,x(Fyx)y,x(f
2
jest gęstością tej zmiennej.
4. =<<<< )dYc,bXa(P dxdy)y,x(fb
a
d
c∫
∫
KaŜda funkcja f spełniająca warunki 1 i 2 jest gęstością pewnej zmiennej losowej dwuwymiarowej
ciągłej.
Przykład 6.24
Sprawdzimy czy funkcja
+
=0
yx)y,x(f
jest gęstością zmiennej losowej dwuwymiarowej ciągłej.
Rozwiązanie
Funkcja f jest dodatnia wewnątrz prostokąta przedstawionego na poniŜszym rysunku – rys. 6.15 i równa zeru dla pozostałych punktów płaszczyzny, zatem spełnia warunek 1. Sprawdzimy, czy spełnia warunek 2.
Rys. 6.15
=
∫ ∫∞
∞−
∞
∞−
dxdy)y,x(f =∫
∫ + dxdy)yx(
1
0
1
0∫
=
=
+
1
0
2
0y
1y
2
yxy dx =
1
0
1x dx
2 + = ∫
2 1x 1 1 1
x 102 2 2 2
= + = + =
Funkcja f spełnia warunek 2.
Odp. Funkcja f jest gęstością pewnej zmiennej losowej dwuwymiarowej ciągłej.
dla 1x0 << i 1y0 << dla pozostałych x
RACHUNEK PRAWDOPODOBIEŃSTWA
34
Przykład 6.25
Niech f będzie gęstością zmiennej losowej dwuwymiarowej ciągłej (X,Y) z poprzedniego przykładu. Wtedy
=∫
=
=
+=∫
∫ +=
<<=
2
1
0
22
1
0
4
3
0dt
0u
4
3u
2
utudtdu)ut(
4
3Y,
2
1XP
4
3,
2
1F
=64
15
64
9
32
3
0
2
1
t32
9t
8
3dt
32
9t
4
3 22
1
0=+=
+=∫
+
Przykład 6.26
Niech f będzie gęstością zmiennej losowej dwuwymiarowej ciągłej (X,Y) z przykładu 6.31.
Obliczymy prawdopodobieństwo
<<<<2
1Y0,
2
1X
4
1P .
Rozwiązanie
1 1 1 1 122 2 2 2 2
1 1 10 04 4 4
12
2
1
4
1y
21 1 1 y
P X , 0 Y f (x, y)dy dx (x y)dy dx xy dx4 2 2 2
y 0
11 1 1 1 1 1 1 1 52x dx x x
12 8 4 8 16 16 64 32 64
4
= < < < < = = + = + =
=
= + = + = + − + =
∫ ∫ ∫ ∫ ∫
∫
5.2.5. Rozkłady brzegowe
MoŜna udowodnić, Ŝe rozkład prawdopodobieństwa zmiennej losowej dwuwymiarowej (X,Y) wyznacza rozkład zmiennej losowej X i rozkład zmiennej losowej Y.
Rozkłady brzegowe zmiennych losowych X i Y są to rozkłady prawdopodobieństwa tych zmiennych wyznaczone za pomocą rozkładu zmiennej losowej dwuwymiarowej (X,Y).
Przypadek zmiennych losowych skokowych
Jeśli (X,Y ) jest zmienną losową dwuwymiarową skokową o funkcji prawdopodobieństwa
ijji p)yY,xX(P === dla i, j = 1,2, ...
to X jest zmienną losową skokową o funkcji prawdopodobieństwa
.ii p)xX(P == funkcja prawdopodobieństwa brzegowa zm. los. X
gdzie ∑=j
ij.i pp dla i = 1,2, ...,
takŜe Y jest zmienną losową skokową o funkcji prawdopodobieństwa
j.j p)yY(P == funkcja prawdopodobieństwa brzegowa zm. los. Y
gdzie ∑=i
ijj. pp dla j= 1,2, ....
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
35
Jeśli funkcję prawdopodobieństwa zmiennej losowej dwuwymiarowej skokowej (X,Y) przedstawimy w tabeli
jy
ix
1y
2y
3y K
1x 11p 12p 13p K
2x 21p 22p 23p K
3x 31p 32p 33p K K K K K K
to prawdopodobieństwo .1p jest sumą prawdopodobieństw z pierwszego wiersza tej tabeli,
prawdopodobieństwo .2p jest sumą prawdopodobieństw z drugiego wiersza itd., natomiast
prawdopodobieństwo 1.p jest sumą prawdopodobieństw z pierwszej kolumny, 2.p jest sumą prawdopodobieństw z drugiej kolumny powyŜszej tabeli itd. Dlatego prawdopodobieństwa te wygodnie jest przedstawić w dodatkowym wierszu i w dodatkowej kolumnie tej tabeli.
jy
ix
1y
2y
3y
⋅ip
1x 11p 12p 13p K .1p
2x 21p 22p 23p K .2p
3x 31p 32p 33p K .3p
K K K K
j.p 1.p 2.p 3.p
Kolumna tytułowa wraz z ostatnią kolumną (po transponowaniu) tworzą funkcję prawdopodobieństwa brzegową zmiennej losowej X
ix 1x 2x 3x K
.ip .1p .2p .3p K
Podobnie wiersz tytułowy z ostatnim wierszem tworzą funkcję prawdopodobieństwa brzegową zmiennej losowej Y.
iy 1y 2y 3y K
j.p 1.p 2.p 3.p K
Przykład 6.27
Zmienna losowa dwuwymiarowa skokowa ma funkcję prawdopodobieństwa określoną w tabeli:
yj xi
-1 0 1
1 11
1
11
3
11
2
3 11
2
11
1
11
2
Znajdziemy funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y.
Rozwiązanie
.1p11
6
11
2
11
3
11
1)1X(P =++=== suma prawdopodobieństw z pierwszego wiersza
RACHUNEK PRAWDOPODOBIEŃSTWA
36
.2p11
5
11
2
11
1
11
2)3X(P =++=== suma prawdopodobieństw z drugiego wiersza
Funkcja prawdopodobieństwa brzegowa zmiennej losowej X
ix 1 3
.ip 11
6 11
5
1.p =11
3
11
2
11
1)1Y(P =+=−= suma prawdopodobieństw z pierwszej kolumny
2.p =11
4
11
1
11
3)0Y(P =+== suma prawdopodobieństw z drugiej kolumny
3.p =11
4
11
2
11
2)1Y(P =+== suma prawdopodobieństw z trzeciej kolumny
Funkcja prawdopodobieństwa zmiennej losowej Y
iy –1 0 1
j.p 11
3
11
4
11
4
Obliczone prawdopodobieństwa przedstawimy na brzegu tabeli określającej funkcję prawdopodobieństwa.
yj
ix –1 0 1 .ip
1 11
1
11
3
11
2
11
6
3 11
2
11
1
11
2
11
5
j.p 11
3
11
4
11
4 Suma
=1
Przykład 6.28
Zmienna losowa X oznacza cenę komputera (w zł), Y oznacza liczbę awarii tego komputera w czasie T. Wiadomo, Ŝe zmienna losowa dwuwymiarowa (X,Y) skokowa ma funkcję prawdopodobieństwa przedstawioną w tabeli
jy
ix
0
1
2
3
4
5
.ip
2 0,01 0,02 0,02 0,06 0,06 0,17 3 0,01 0,02 0,03 0,02 0,05 0,04 0,17 4 0,02 0,03 0,04 0,04 0,04 0,17 5 0,03 0,05 0,05 0,01 0,03 0,17 6 0,04 0,07 0,04 0,01 0,16 7 0,05 0,08 0,03 0,16
j.p 0,15 0,26 0,21 0,1 0,18 0,1 Suma
1
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
37
Funkcja prawdopodobieństwa brzegowa zmiennej losowej X Struktura komputerów wg ceny
ix 2 3 4 5 6 7
.ip 0,17 0,17 0,17 0,17 0,16 0,16
Funkcja prawdopodobieństwa brzegowa zmiennej losowej Y Struktura komputerów wg l iczby awari i
jy 0 1 2 3 4 5
j.p 0,15 0,26 0,21 0,1 0,18 0,1
Przypadek zmiennych losowych c iągłych
JeŜeli zmienna losowa dwuwymiarowa ciągła (X, Y) ma gęstość f(x, y), to gęstość fX(x) zmiennej losowej X wyraŜa się wzorem
fX(x) = ∫∞
∞−dy)y,x(f
zaś gęstość fY(y) zmiennej losowej Y wyraŜa się wzorem
fY(y) = ∫∞
∞−
dx)y,x(f
Otrzymane w powyŜszy sposób gęstości fX(x) i fY(y) zmiennych losowych X i Y nazywamy gęstościami rozkładów brzegowych tych zmiennych losowych.
Przykład 6.29
Zmienna losowa dwuwymiarowa ciągła (X, Y) ma gęstość
f(x, y) =
0
xy8
Znaleźć gęstości rozkładów brzegowych zmiennych losowych X i Y.
Rozwiązanie
Zbiór punktów płaszczyzny Oxy, dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami.
−<<
<<2x1y0
1x0
Dla 0 < x < 1 gęstość zmiennej losowej x
fX(x) = ∫ ∫∞
∞−
−
−==2x1
0
2 )x1(x4xydy8dy)y,x(f
Rys. 6.16.
Natomiast dla x ≥ 1 lub x ≤ 0 gęstość f(x, y) = 0, więc takŜe fX(x) = 0, ostatecznie
fX(x) = 2
0 dla x 0
4x(1 x ) dla 0 x 1
0 dla x 1
≤
− < < ≥
dla 0x > , 0y > i 1yx 22 <+ dla pozostałych x i y
RACHUNEK PRAWDOPODOBIEŃSTWA
38
Analogicznie postępując otrzymujemy, Ŝe gęstość fY(y) zmiennej losowej Y wyraŜa się wzorem
fY(y) = 2
0 dla y 0
4y(1 y ) dla 0 y 1
0 dla y 1
≤
− < < ≥
Przypadek dowolnych zmiennych losowych
Jeśli zmienna losowa dwuwymiarowa (X,Y) ma dystrybuantę F(x, y), to zmienna losowa X ma dystrybuantę )x(FX = ),x(F ∞ dla Rx ∈ dystrybuanta brzegowa zmiennej losowej X
zaś zmienna losowa Y ma dystrybuantę )y(FY = )y,(F ∞ dla Ry ∈ dystrybuanta brzegowa zmiennej losowej Y
Przykład 6.30
Zmienna losowa dwuwymiarowa (X, Y) ma dystrybuantę F(x,y)
0 dla x 0 lub 0 y 1
1dla 0 x 1 i 0 y 1
61
F(x, y) dla 0 x 1 i y 127
dla x 1 i 0 y 1151 dla x 1 i y 1
≤ < ≤ < ≤ < ≤
= < ≤ >
> < ≤
> >
Wyznaczymy dystrybuanty brzegowe zmiennej losowej X oraz Y.
Rozwiązanie Warstwowy wykres dystrybuanty zmiennej losowej dwuwymiarowej ma postać
Rys. 6.19
Symbol ( )∞,xF oznacza granicę dystrybuanty ( )y,xF , gdy ∞→y , przy stałej wartości x.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
39
Na rysunku 6.20 strzałkami (z przerywanej linii) oznaczone są drogi dąŜenia do nieskończoności zmiennej y, dla ustalonych wartości x, w poszczególnych przedziałach.
.
Rys. 6.20
Z rysunku wynika, Ŝe dla 0≤x mamy ( )∞,xF =0; dla 0< 1≤x mamy ( )∞,xF = ½; dla x > 1 mamy
( )∞,xF =1, zatem
( ) ( )
>
≤<
≤
=∞=
1xdla1
1x0dla2/1
0xdla0
,xFxFX
Analogicznie moŜna wyznaczyć dystrybuantę zmiennej losowej Y
( ) ( )
>
≤<
≤
=∞=
1ydla1
1y0dla15/7
0ydla0
y,FxFY
6.2.6. Rozkłady warunkowe
Przypadek zmiennych losowych skokowych
Dwuwymiarowa zmienna losowa skokowa (X, Y) ma funkcję prawdopodobieństwa
P(X = xi, Y = yj) = pij
Symbolem X/Y = yj (czytaj: X pod warunkiem, Ŝe Y równa się yj) oznaczamy zmienną losową skokową mającą funkcję prawdopodobieństwa
P(X = xi/Y = yj) = i j ij
j .j
P(X x ,Y y ) p
P(Y y ) p
= ==
=
przy czym zdarzenie Y = yj jest ustalone, natomiast xi przebiega wszystkie wartości przyjmowane przez zmienną losową X, dla których prawa strona powyŜszego wzoru jest dodatnia. Symbolem Y/X = xi oznaczamy zmienną losową, której funkcje prawdopodobieństwa wyraŜa się wzorem
P(Y = yj/ X = xi) = .i
ij
i
ji
p
p
)xX(P
)yY,xX(P=
=
==
przy czym zdarzenie X = xi jest ustalone, natomiast yj przebiega wszystkie wartości przyjmowane przez zmienną losową Y, dla których prawa strona powyŜszej równości jest dodatnia.
O zmiennych losowych X/Y = yj i Y/X = xi mówimy, Ŝe mają rozkłady warunkowe.
RACHUNEK PRAWDOPODOBIEŃSTWA
40
Przykład 6.31
Funkcja prawdopodobieństwa dwuwymiarowej zmiennej losowej skokowej (X,Y) oraz funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y przedstawione są w tabeli
jy
ix –1 0 1 .ip
1 11
1
11
3
11
2
11
6
3 11
2
11
1
11
2
11
5
j.p 11
3
11
4
11
4 Suma
1
Wyznaczymy funkcje prawdopodobieństwa warunkowe zmiennych losowych X/ 0Y = oraz
Y/X=3.
Rozwiązanie
4
3
11
411
3
)0Y(P
)0Y,1X(P)0Y/1X(P ==
===
===
4
1
11
411
1
)0Y(P
)0Y,3X(P)0Y/3X(P ==
===
===
Funkcja prawdopodobieństwa warunkowa zmiennej losowej X/ 0Y =
ix 1 3 )0Y/xX(P i ==
4
3
4
1
5
2
11
511
2
)3X(P
)1Y,3X(P)3X/1Y(P ==
=−==
==−=
5
1
11
511
1
)3X(P
)0Y,3X(P)3X/0Y(P ==
===
===
5
2
11
511
2
)3X(P
)1Y,3X(P)3X/1Y(P ==
===
===
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
41
Funkcja prawdopodobieństwa warunkowa zmiennej losowej 3X/Y =
jy -1 0 1
P(Y yj/ X 3)= = 5
2
5
1
5
2
Przykład 6.32
Znajdziemy rozkład awarii komputerów kosztujących 7 tys. zł oraz rozkład ceny komputerów mających 4 awarie w ciągu czasu T, dla danych z przykładu 6.35.
Rozwiązanie
NaleŜy wyznaczyć funkcje prawdopodobieństwa zmiennych losowych Y/X=7 oraz X/Y=4.
16
5
16,0
05,0)7X/0Y(P ==== ,
16
8
16,0
08,0)7X/1Y(P ==== ,
16
3
16,0
03,0)7X/2Y(P ====
Rozkład awarii komputerów kosztujących 7 tys. zł.
Funkcja prawdopodobieństwa warunkowa Y/X=7
jy 0 1 2
7)/XyP(Y j == 16
5
2
1
16
3
18
6
18,0
06,0)4Y/2X(P ==== ,
18
5
18,0
05,0)4Y/3X(P ====
,18
4
18,0
04,0)4Y/4X(P ====
18
3
18,0
03,0)4Y/5X(P ====
Rozkład ceny komputerów mających 4 awarie w czasie T
Funkcja prawdopodobieństwa zmiennej losowej X/Y=4
ix 2 3 4 5
)4Y/xX(P i == 3
1
18
5
9
2
6
1
Przypadek zmiennych losowych ciągłych
Dwuwymiarowa zmienna losowa ciągła (X, Y) ma gęstość f(x, y). Niech fX(x) i fY(y) będą gęstościami rozkładów brzegowych zmiennych losowych X i Y.
Symbolem X/Y=y0 oznaczamy zmienną losową, której gęstość fX(x/y0) wyraŜa się wzorem
fX(x/y0) = )y(f
)y,x(f
0Y
0
przy czym zakładamy, Ŝe fY(y0) ≠ 0.
RACHUNEK PRAWDOPODOBIEŃSTWA
42
Symbolem Y/X=x0 oznaczamy zmienną losową, której gęstość fY(y/x0) wyraŜa się wzorem
fY(y/x0) = )x(f
)y,x(f
0X
0
przy czym zakładamy, Ŝe fX(x0) ≠ 0
O zmiennych losowych X/Y=y0 i Y/X=x0 mówimy, Ŝe mają rozkłady warunkowe.
Przykład 6.33
Dwuwymiarowa zmienna losowa (X, Y) ma gęstość
f(x, y) =
0
8xy
Znajdziemy gęstość zmiennej losowej Y/X = 1/2
Rozwiązanie
Gęstość zmiennej losowej X wyraŜa się wzorem (patrz przykład 6.36)
fX(x) = 2
0 dla x 0
4x(1 x ) dla 0 x 1
0 dla x 1
≤
− < < ≥
więc 2
3
2
1fX =
. Natomiast (patrz rys. 6.16)
y,
2
1f =
0
y4
Szukana gęstość
2
1/yfY =
=
0
y3
8
2
1f
y,2
1f
1
6.2.7. Zmienne losowe niezaleŜne
Niech F(x, y), FX(x), FY(y) będą dystrybuantami odpowiednio zmiennych losowych (X, Y), X, Y. Zmienne losowe X i Y nazywamy niezaleŜnymi, jeśli
F(x, y) = FX(x)FY(y)
Jeśli (X, Y) jest dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa
P(X=xi, Y=yj) = pij
to warunkiem koniecznym i wystarczającym niezaleŜności zmiennych losowych X i Y jest zachodzenie równości
pij = P(X = xi, Y = yj) = P(X = xi) P(Y = yj) = pi.p.j
dla kaŜdej wartości (xi ,yj) zmiennej losowej (X, Y).
JeŜeli (X, Y) jest dwuwymiarową zmienną losową ciągłą o gęstości f(x, y), zaś fX(x) i fY(y) są gęstościami zmiennych losowych X i Y, to warunkiem koniecznym i wystarczającym niezaleŜności X i Y jest zachodzenie równości
f(x, y) = fX(x) fY(y)
we wszystkich punktach ciągłości gęstości f(x, y).
dla 0x > , 0y > i 1yx 22 <+
dla pozostałych x i y
dla 2
3y0 <<
dla pozostałych y
dla 2
3y0 <<
dla pozostałych y
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
43
Przykład 6.34
Sprawdzimy czy zmienne losowe z przykładu 6.27 są niezaleŜne. Rozwiązanie.
Z tabeli w przykładzie 6.27 odczytujemy, Ŝe P(X = 1, Y = –1) = 11
1, zaś z rozwiązania tego
przykładu mamy
P(X= 1) = 11
6 , P(Y= –1) =
11
3, więc
P(X = 1)P(X = –1) = 11
6
11
3=
121
18 ≠ P( X=1, Y=–1)
czyli zmienne losowe X i Y są zaleŜne.
Przykład 6.35
Sprawdzimy, czy zmienne losowe X i Y z przykładu 6.29 są niezaleŜne,
Rozwiązanie
Bezpośrednio widać, Ŝe fX(x) fY(y) ≠ f(x, y), więc zmienne losowe X i Y nie są niezaleŜne.
Przykład 6.36
Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelką.
jy
ix 0 2 3
–1 15
2
15
4
15
4
1 15
1
15
2
15
2
Sprawdzić, czy zmienne losowe X i Y są niezaleŜne.
Rozwiązanie
Postępując jak w przykładzie 6.27 otrzymujemy
P(Y = 0) = 5
1 , P(Y = 2) =
5
2 , P(Y=3) =
5
2 P(X = –1) =
3
2, P(X =1) =
3
1
Mamy
P(Y = 0) P(X = –1) =5
1·3
2=
15
2= P(Y = 0, X= –1)
P(Y = 2) P(X = –1) =5
2·3
2=
15
4= P(Y = 2, X = –1)
P(Y = 3) P(X = –1) =5
2·3
2=
15
4 = P(Y = 3, X = –1)
P(Y = 0) P(X = 1) = 5
1·3
1=
15
1= P(Y = 0) P(X = 1)
P(Y = 2) P(X = 1) = 5
2·3
1=
15
2= P(Y = 2, X = 1)
P(Y = 3) P(X = 1) = 5
2·3
1=
15
2= P(Y = 3, X = 1)
czyli zmienne losowe X i Y są niezaleŜne.
RACHUNEK PRAWDOPODOBIEŃSTWA
44
7. PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH
W zastosowaniach praktycznych zamiast rozpatrywać funkcje rozkładu prawdopodobieństwa, gęstość czy dystrybuantę zmiennych losowych, wystarczy nieraz ograniczyć się do wykorzystania jednego lub kilku parametrów opisujących zasadnicze właściwości rozkładu zmiennej losowej. Parametry są liczbami, które charakteryzują zmienne losowe i są związane z ich rozkładami.
W niniejszym rozdziale opisano podstawowe parametry rozkładu zmiennych losowych.
Parametry rozkładu zmiennej losowej jednowymiarowej dzielimy na dwie grupy: • Miary połoŜenia, dotyczące określonych wartości zmiennej losowej. Do miar tego typu
zaliczamy wartość oczekiwaną, medianę i dominantę ( modę). • Miary zmienności, zwane teŜ miarami rozproszenia. Przykładem miar tego typu jest wariancja
i odchylenie standardowe.
7.1. Miary połoŜenia zmiennej losowej jednowymiarowej
7.1.1. Wartość oczekiwana
Wartością oczekiwaną zmiennej losowej X nazywamy moment rzędu 1 i oznaczamy symbolami EX lub m
Tak więc:
A. Wartością oczekiwaną zmiennej losowej skokowej X przyjmującej skończoną liczbę wartości x1, x2, …, xn odpowiednio z prawdopodobieństwami p1, p2, …, pn nazywamy liczbę
∑=
=+++=n
1kkknn2211 pxpx...pxpxEX
B. Wartością oczekiwaną zmiennej losowej skokowej X przyjmującej przeliczalną liczbę wartości x1, x2 …, xn,... odpowiednio z prawdopodobieństwami p1, p2, …, pn, … nazywamy liczbę
∑∞
=
=1k
kk pxEX
przy czym zakładamy, Ŝe szereg
∑∞
=1kkk px
jest zbieŜny. Jeśli powyŜszy szereg jest rozbieŜny, to zmienna losowa X nie ma wartości oczekiwanej.
C. Wartością oczekiwaną zmiennej losowej ciągłej o gęstości f(x) nazywamy liczbę
∫∞
∞−
= dx )x(f xEX
przy czym zakładamy, Ŝe całka
∫∞
∞−
dx )x(f x
jest zbieŜna. Jeśli powyŜsza całka jest rozbieŜna, to zmienna losowa X nie ma wartości oczekiwanej.
Przykład 7.1
Zmienna losowa X oznacza liczbę wyrzuconych oczek na kości. Znajdziemy wartość oczekiwaną X.
Rozwiązanie
EX = 1 •6
1+ 2 •
6
1+ 3 •
6
1 + 4 •
6
1 + 5 •
6
1+ 6 •
6
1 = 3,5
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
45
Przykład 7.2
Zmienna losowa skokowa X przyjmuje n wartości n21 x,...,x,x z jednakowymi prawdopodobieństwami. Znajdziemy wartość oczekiwaną tej zmiennej losowej.
Rozwiązanie
Zmienna losowa X skokowa ma funkcję prawdopodobieństwa określoną wzorem ( )n
1xXP i ==
dla i = 1, ... , n. Zatem
∑∑∑==
====n
1ii
n
1ii
iii xx
n
1
n
1xpxEX
czyli wartość oczekiwana zmiennej losowej jest w tym przypadku średnią arytmetyczną jej wartości.
Przykład 7.3
Zbadano 200 gospodarstw domowych ze względu na liczbę osób w gospodarstwie. Wyniki badania przedstawione są w szeregu rozdzielczym punktowym
Liczba osób w gospodarstwie
i
Liczebność gospodarstw, w których jest
i osób in 1 30 2 40 3 60 4 50 5 12 6 8
Suma n=200
Niech zmienna losowa X oznacza liczbę osób w gospodarstwie domowym. Znajdziemy wartość oczekiwaną tej zmiennej losowej.
Rozwiązanie
Zmienna losowa X przyjmuje wartość i dla i = 1,..., 6 z prawdopodobieństwem n
np i
i = , więc jej
funkcję prawdopodobieństwa moŜna przedstawić w tabeli
i 1 2 3 4 5 6
n
np i
i =
0,15 0,2 0,3 0,25 0,06 0,04
Zatem EX = 99,204,0606,0525,043,032,0215,01 =⋅+⋅+⋅+⋅+⋅+⋅
ZauwaŜmy, Ŝe w powyŜszym zadaniu wzór na wartość oczekiwaną przybiera postać
n
ni i
r
1i∑=
czyli ir
1ini
n
1∑=
, (r oznacza liczbę wariantów cechy X, w naszym zadaniu r = 6) zatem
wartość oczekiwana jest równa średniej waŜonej wariantów cechy X, a więc średniej arytmetycznej wszystkich danych statystycznych.
RACHUNEK PRAWDOPODOBIEŃSTWA
46
Przykład 7.4
Zmienna losowa X ma funkcję prawdopodobieństwa
P(X = 2k) = k2
1 k = 1, 2, …
Znajdziemy wartość oczekiwaną X.
Rozwiązanie
EX = ∑∞
=
∞=1k
k
k
2
12
Zmienna losowa X nie ma wartości oczekiwanej.
Przykład 7.5
Zmienna losowa X ma gęstość
f(x) =
≥
<<
≤
2x dla0
2x0 dlax8
30x dla0
2
Znajdziemy wartość oczekiwaną X.
Rozwiązanie
( )2
3dx 0xdx x
8
3xdx 0xdx xf xEX
0
2
0
20
=⋅+⋅+⋅== ∫∫∫∫+∞
∞−
+∞
∞−
Przykład 7.6
Zmienna losowa X ma funkcję prawdopodobieństwa określoną tabelą
xk -2 -1 0 1 2 3 pk
8
1
8
2
8
1
8
1
8
1
8
2
Znajdziemy wartość oczekiwaną zmiennej losowej Y = X2 .
Rozwiązanie
Funkcja prawdopodobieństwa zmiennej losowej Y = X2 wyraŜa się tabelą
Y1 0 1 4 9
P1 8
1
8
3
8
2
8
2
EY = 0 • 8
1 + 1 •
8
3 + 4 •
8
2 + 9 •
8
2 = 3
8
5
Interpretacja wartości oczekiwanej Wartość oczekiwana zmiennej losowej jest rozszerzeniem pojęcia średniej arytmetycznej wartości tej zmiennej na nieskończenie wiele składników.
Własności wartości oczekiwanej12
Zakładamy, Ŝe istnieją wartości oczekiwane zmiennych losowych X i Y. a) wartość oczekiwana stałej jest równa tej stałej
Eb = b b) stałą moŜna wyłączać przed znak wartości oczekiwanej
E(aX) = a EX (jednorodność)
12 Dowód podano w punkcie 20.5 części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
47
c) E (aX + b) = aEX+b d) wartość oczekiwana sumy zmiennych losowych jest równa sumie ich wartości oczekiwanych
E(X +Y) = EX +EY (addytywność) e) wartość oczekiwana iloczynu zmiennych losowych niezaleŜnych jest równa iloczynowi ich wartości oczekiwanej
E(XY) = EX · EY (multiplikatywność)
7.1.2. Mediana
Mediana jest jednym z najwaŜniejszych parametrów pozycyjnych. PoniewaŜ mediana jest kwantylem rzędu 0.5, oznacza się ją jako x0.5
lub x1/2. Mediana spełnia relacje
P (X ≤ x1/2) ≥ 2
1 i P (X ≥ x1/2) ≥
2
1
Przykład 7.7
KaŜda liczba z przedziału 4;3 jest medianą zmiennej losowej oznaczającej liczbę wyrzuconych
oczek na kości, natomiast mediana zmiennej losowej X przyjmującej wartości x1 = –1, x2 = 2, x3 =
4 odpowiednio z prawdopodobieństwami pl = 4
1, p2 =
2
1, p3 =
4
1 jest równa 2.
Przykład 7.8
Zmienna losowa X ma gęstość
( )( )
( )
∉
∈
=
2;0x dla
2;0x dla
0
x8
3
xf
2
Znajdziemy medianę tej zmiennej losowej.
Rozwiązanie
W przykładzie 6.17 obliczyliśmy, Ŝe dla ( )2;0∈x dystrybuanta zmiennej losowej X jest równa
F(x) = 3x8
1. Mediana jest więc pierwiastkiem równania 3x
8
1=
2
1
Stąd x1/2 = 3 4 7.1.3. Parametry pozycyjne
Wśród parametrów pozycyjnych najwaŜniejszą rolę odgrywają kwantyle.
Liczbę xp nazywamy kwantylem p-tego rzędu ( 0 < p < 1) zmiennej losowej X, jeŜeli spełnione są warunki
( )( )
−≥≥
≥≤
p1xXP
pxXP
p
p
JeŜeli dystrybuanta F(x) jest ciągła w punkcie xp, to xp jest pierwiastkiem równania F(x)=p.
Kwantyl rzędu p=0,5 nazywamy medianą, a kwantyle rzędu p=0,25 i p=0,75 nazywamy kwartylami.
Do parametrów pozycyjnych zalicza się równieŜ dominantę (modę). Dominantą (modą) zmiennej losowej ciągłej nazywamy taką jej wartość xd, dla której gęstość ma maksimum (lokalne).
JeŜeli występuje tylko jedno maksimum to rozkład nazywany jest jednomodalnym, a jeŜeli więcej - rozkładem wielomodalnym. JeŜeli nie występują maksima, to rozkład nazywany jest antymodalnym.
RACHUNEK PRAWDOPODOBIEŃSTWA
48
7.1.4. Wartość oczekiwana funkcji zmiennej losowej
Wartość oczekiwana zmiennej losowej Y = g(X) wyraŜa się wzorem
==
∫
∑
∞
∞−
dx)x(f)x(g
p)x(g
)X(EgEY
kkk
przy czym zakłada się, Ŝe występujące w tym wzorze szereg i całka są bezwzględnie zbieŜne. PowyŜszy wzór wskazuje, Ŝe do obliczenia wartości oczekiwanej zmiennej losowej Y = g(X) wystarczy znajomość rozkładu zmiennej losowej X (nie potrzeba wyznaczać rozkładu zmiennej losowej Y = g(X), patrz przykład 7.8).
Przyjmując za g róŜne funkcje otrzymujemy nowe parametry rozkładu zmiennej losowej X. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.
Tabela 7.1. Parametry rozkładu zmiennej losowej
Funkcja g Parametr Nazwa parametru
g(x) = x m = EX Wartość oczekiwana zmiennej losowej X
g(x) = xk mk = EXk Moment (zwyczajny) rzędu k zmiennej losowej X
g(x) = (x- m)k µk = E(X – m)k Moment centralny rzędu k zmiennej losowej X
g(x) = (x- m)2 µ2 = σ2 = D2 X=
=E(X – m)2 Wariancja zmiennej losowej X
g(x) = (x- c)k E(X – c)k Moment centralny rzędu k zmiennej losowej X
względem liczby rzeczywistej c
Omówimy (poniŜej) własności parametrów z tabeli oraz innych kluczowych parametrów.
7.2. Miary rozproszenia zmiennej losowej jednowymiarowej
7.2.1. Wariancja
Wariancją zmiennej losowej X oznaczamy symbolami
D2X lub teŜ 2σ W tabeli 7.1 podano, Ŝe wariancja jest równa momentowi centralnemu rzędu 2
2σ = D2X = E(X – m)2 Uwzględniając określenie wartości oczekiwanej zmiennej losowej (punkt 7.1.1.) otrzymujemy, Ŝe wariancja zmiennej losowej wyraŜa się wzorem
( )
−
=
∫
∑
∞+
∞
dx)x(fm-x
p)mx(
XD
-
2
ii
2i
2
Interpretacja
Z powyŜszych wzorów wynika następująca interpretacja wariancji: im mniejsza jest wariancja, tym bardziej jest prawdopodobne, iŜ zmienna losowa przyjmie wartość z pewnego ustalonego otoczenia wartości oczekiwanej. Dlatego o wariancji mówimy, Ŝe jest miarą rozproszenia (rozrzutu) rozkładu zmiennej losowej dokoła jej wartości oczekiwanej.
gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) kk pxXP ==
gdy X ma rozkład ciągły o gęstości f ( )x
gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) ii pxXP ==
gdy X ma rozkład ciągły o gęstości f ( )x
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
49
MoŜna udowodnić, Ŝe moment rzędu 2 względem liczby c
E(X – c)2
ma najmniejszą wartość, gdy c = m, czyli rozproszenie rozkładu od liczby c jest najmniejsze, gdy c jest równe wartości oczekiwanej i miarą tego rozproszenia jest wariancja zmiennej losowej.
Pierwiastek kwadratowy z wariancji nazywamy odchyleniem standardowym i oznaczamy σ lub DX
Odchylenie standardowe ma analogiczną interpretację jak wariancja.
Własności wariancji13
a) Wariancja stałej jest równa zeru
D2b = 0 b) Stałą moŜna wyłączać przed znak wariancji, podnosząc ją do kwadratu
D2(aX) = a2D2X c) D2(aX + b) = a2D2X d) Wariancja jest równa róŜnicy momentu rzędu 2 i kwadratu momentu rzędu 1, co zapisujemy
D2X = EX2 – (EX)2
lub w innej notacji σ2 = m2 – m2 Udowadnia się powyŜszą zaleŜność następująco
D2X = E(X – EX)2=E[X2-2X EX + (EX)2]= EX2 – 2EX EX + (EX)2=EX2-(EX)2
e) Jeśli zmienna losowa X ma wartość oczekiwaną m to zmienna losowa
mXX~
−=
ma wartość oczekiwaną 0. Zmienną losową ~X nazywamy zmienną losową scentrowaną .
f) Jeśli zmienna losowa X ma wartość oczekiwaną m i wariancję 02 ≠σ to zmienna losowa
σ−
=mX
Xo
ma wartość oczekiwaną 0 i wariancję 1. Zmienną losową oX nazywamy zmienną losową
standaryzowaną.
Przy centrowaniu i standaryzowaniu zmiennych losowych następuje zmiana punktu zerowego w zakresie zmienności. Badanie własności zmiennych losowych zwykle prowadzi się po dokonaniu ich standaryzacji.
g) Wariancja sumy lub róŜnicy zmiennych losowych niezaleŜnych jest równa sumie wariancji tych zmiennych
D2(X ± Y) = D2X +D2Y co dla przypadku sumy, korzystając z własności d) udowadnia się następująco
D2(X + Y) = E(X+Y)2- [E(X+Y)]2= E(X2+2XY+Y2)-(EX+EY)2 ,
poniewaŜ z załoŜenia zmienne losowe X i Y są niezaleŜne, to E(XY) = EX EY, zatem
D2(X + Y) = EX2+2EXEY+EY2-(EX)2-2EXEY-(EY)2= [EX2-(EX)2]+[EY2-(EY)2] = =D2X + D2Y
Natomiast D2(X - Y) = D2[X +(-1) Y] = D2X + D2 [(-1) Y] = D2 X + (-1)2 D2 Y = D2 X + D2 Y Na zakończenie naleŜy podkreślić, Ŝe własność d) wykorzystujemy często do obliczania wariancji zmiennych losowych. 13 Dowód podano w punkcie 20.5. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
50
Przykład 7.9
Znajdziemy wariancję zmiennej losowej X oznaczającej liczbę wyrzuconych oczek na kości.
Rozwiązanie W przykładzie 7.1 obliczyliśmy, Ŝe m = 3,5. Obliczymy teraz moment rzędu 2 zmiennej losowej X
m2 = 12 •6
1+ 22 •
6
1+ 32 •
6
1 + 42 •
6
1 + 52 •
6
1+ 62 •
6
1 = 15
6
1
Na podstawie własności d) wariancji
D2X = m2 - m2 = 15
6
1 - 3,52 = 2
12
11
Przykład 7.10
Zmienna losowa X ma gęstość
( )( )
( )
∉
∈
=
2;0x dla
2;0x dla
0
x8
3
xf
2
Znajdziemy wariancję zmiennej losowej X.
Rozwiązanie W przykładzie 7.1 obliczyliśmy, Ŝe m = 1,5. Obliczymy moment rzędu 2 zmiennej losowej X
∫∫ =⋅==+∞
∞−
2
0
2222 4,2dx x
8
3xdx )x(fxm
więc D2X = m2 - m
2 = 2,4 - 1,52 = 0,15
7.2.2. Odchylenie przeciętne
Odchyleniem przeciętnym zmiennej losowej X nazywamy wartość oczekiwaną zmiennej losowej mX −
gdzie m jest wartością oczekiwaną zmiennej losowej X. Odchylenie przeciętne oznaczać będziemy literą β
β = E mX −
Odchylenie przeciętne zmiennej losowej X wyraŜa się wzorem
−
−
=β
∫
∑
∞
∞−
dx )x(fmx
pmx
i
iii
Odchylenie przeciętne, obok wariancji i odchylenia standardowego, jest jedną z miar rozproszenia zmiennej losowej dookoła wartości oczekiwanej.
Odchylenie przeciętne względem liczby c definiowane jako
E| X –c|
ma wartość najmniejszą, gdy c jest równe medianie zmiennej losowej X.
Przykład 7.11
Zmienna losowa X oznacza liczbę wyrzuconych oczek na kości. Znajdziemy odchylenie przeciętne tej zmiennej losowej.
gdy X jest zmienną losową skokową o funkcji prawdopodobieństwa ( ) ii pxXP ==
gdy X jest zmienną losową ciągłą o gęstości f ( )x
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
51
Rozwiązanie
W przykładzie 7.1 obliczyliśmy, Ŝe m = 3,5, więc odchylenie przeciętne
β = 5,16
15,36
6
15,35
6
15,34
6
15,33
6
15,32
6
15,31 =⋅−+⋅−+⋅−+⋅−+⋅−+⋅−
Przykład 7.12
Zmienna losowa X ma gęstość
( )( )
( )
∉
∈
=
2;0x dla
2;0x dla
0
x8
3
xf
2
Znajdziemy odchylenie przeciętne zmiennej losowej X.
Rozwiązanie
W przykładzie 7.5 obliczyliśmy, Ŝe m = 1,5, więc odchylenie przeciętne
β = ∫ ∫∫∫ =−+−−=⋅−=−∞
∞−
5,1
0
2
5,1
2222
0 256
81dxx
8
3)5,1x(dxx
8
3)5,1x(dxx
8
35,1xdx)x(fmx
7.2.3. Odchylenie ćwiartkowe
W oparciu o kwartyle definiuje się prawdopodobne odchylenie zmiennej losowej od mediany, zwane teŜ odchyleniem ćwiartkowym, jako
d = 2
1 (x3/4 – x1/4)
Odchylenie ćwiartkowe jest jedną z miar rozproszenia wartości zmiennej losowej.
Przykład 7.13
Znajdziemy odchylenie ćwiartkowe zmiennej losowej o gęstości podanej w przykładzie 5.17.
Rozwiązanie
Kwantyl x3/4 jest pierwiastkiem równania
3x8
1=
4
3
zaś kwantyl x1/4 jest pierwiastkiem równania
3x8
1=
4
1
Więc x3/4 = 3 6 , x1/4 = 3 2 . Odchylenie ćwiartkowe d = 2
1( 3 6 - 3 2 )
7.2.4. Współczynnik zmienności
Współczynnikiem zmienności zmiennej losowej X nazywamy stosunek odchylenia standardowego do wartości oczekiwanej tej zmiennej losowej, przy załoŜeniu Ŝe m ≠ 0. Współczynnik zmienności oznaczać będziemy literą v
v = m
σ
Interpretacja
Współczynnik zmienności jest miarą rozproszenia zmiennej losowej dokoła wartości oczekiwanej, gdy za jednostkę przyjmujemy wartość oczekiwaną. Zatem mierzy rozproszenie względne.
RACHUNEK PRAWDOPODOBIEŃSTWA
52
Przykład 7.14
Zmienna losowa X ma gęstość
( )( )
( )
∉
∈
=
2;0x dla
2;0x dla
0
x8
3
xf
2
Znajdziemy współczynnik zmienności tej zmiennej losowej.
Rozwiązanie
W przykładach 7.5 i 7.10 obliczyliśmy, Ŝe m = 1,5 i σ2= 0,15, więc współczynnik zmienności
v = m
σ = 26,0
5,1
15,0=
7.3. Asymetria i spłaszczenie rozkładu jednowymiarowej zmiennej losowej
Mówimy, Ŝe zmienna losowa skokowa ma rozkład symetryczny, jeśli istnieje liczba rzeczywista c taka, Ŝe wykres funkcji prawdopodobieństwa tej zmiennej jest symetryczny względem prostej x = c. Liczba c nazywa się środkiem symetrii rozkładu zmiennej losowej.
Rys. 7.1
Mówimy, Ŝe zmienna losowa ciągła o gęstości f(x) ma rozkład symetryczny, jeśli istnieje liczba rzeczywista c taka , Ŝe wykres gęstości jest symetryczny względem prostej x = c , tzn. spełniona jest równość ( ) ( )xcfxcf +=− .
Rys. 7.2
PowyŜszy rozkład ma dwa maksima, stąd jest nazywany dwumodanym, jest to szczególny przypadek rozkładu wielomodalnego, który posiada kilka maksimów.
Przykład 7.15
Zmienna losowa X oznaczająca liczbę wyrzuconych oczek na kości ma rozkład symetryczny o środku symetrii c = 3,5.
Przykład 7.16
Zmienna losowa X o gęstości f(x) = 2
)ax( 2
e2
1 −−
π
ma rozkład symetryczny o środku symetrii c = a.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
53
Jeśli zmienna losowa X ma rozkład symetryczny o środku symetrii c i istnieją momenty tej zmiennej, to :
a) wartość oczekiwana tej zmiennej losowej jest równa c, b) wszystkie momenty centralne rzędu nieparzystego są równe 0.
Współczynnikiem asymetrii rozkładu zmiennej losowej X nazywamy liczbę 3
33 3
2
E(X m)
E(X m)
µ −γ = =
σ −
gdzie µ3 jest momentem centralnym rzędu 3, zaś σ odchyleniem standardowym zmiennej losowej X.
Przykład 7.17
Niech X oznacza liczbę wyrzucanych oczek na kości. PoniewaŜ X ma rozkład symetryczny, więc µ3 = 0, zatem współczynnik asymetrii γ = 0.
Przykład 7.18
Zmienna losowa X ma gęstość
( )( )
( )
23x dla x 0;2
f x 80 dla x 0;2
∈= ∉
Znajdziemy współczynnik asymetrii tej zmiennej losowej.
Rozwiązanie
W przykładach 7.5 i 7.10 obliczyliśmy, Ŝe m = 1,5 oraz 2σ = 0,15. Obliczymy teraz moment centralny µ3.
µ3 = 05,0dxx8
3)5,1x(dx)x(f)mx( 2
2
0
33 −=⋅∫ −=∫ −∞
∞−
Współczynnik asymetrii
γ = 33
σ
µ =
9
152−
Współczynnikiem spłaszczenia (kurtozą) rozkładu zmiennej losowej X nazywamy liczbę 4
44 4
2
E(X m)kurt 3 3
E(X m)
µ −= − = −
σ −
gdzie µ4 jest momentem centralnym rzędu 4, zaś σ odchyleniem standardowym zmiennej losowej X. Kurtoza rozkładu normalnego14 wynosi 0. Rozkłady prawdopodobieństwa moŜna podzielić ze względu na wartość kurtozy na rozkłady:
• mezokurtyczne - wartość kurtozy wynosi 0, spłaszczenie rozkładu jest podobne do spłaszczenia rozkładu normalnego
• leptokurtyczne - kurtoza jest dodatnia, wartości cechy bardziej skoncentrowane niŜ przy rozkładzie normalnym
• platokurtyczne - kurtoza jest ujemna, wartości cechy mniej skoncentrowane niŜ przy rozkładzie normalnym
14 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
54
7.4. Wartość oczekiwana i momenty zmiennej losowej dwuwymiarowej
Jeśli (X, Y) jest zmienną losową dwuwymiarową, g(x,y) jest funkcją rzeczywistą dwóch zmiennych rzeczywistych, to funkcja g(X, Y) jest zmienną losową jednowymiarową
A. Niech (X, Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa ( ) ijii PyY,xXP ===
Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę ( ) ij
i jji p)y,x(gY,XEg ∑∑= (3.1)
przy czym zakładamy, Ŝe ∞<∑∑ iji j
ji p)y,x(g tzn., Ŝe szereg występujący po prawej stronie
wzoru (3.1) jest bezwzględnie zbieŜny.
B. Niech. (X, Y) będzie dwuwymiarową zmienną losową ciągłą o gęstości f(x, y). Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę
( ) dxdy)y,x(f)y,x(gY,XEg ∫
∫=
∞
∞−
∞
∞− (3.2)
przy czym zakładamy, Ŝe dxdy)y,x(f|)y,x(g|∫ ∫∞
∞−
∞
∞−
< ∞ tzn., Ŝe całka występująca po prawej
stronie wzoru (3.2) jest bezwzględnie zbieŜna.
Przykład 7.18a
Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą
yj
xi -1 0 1
-1 11
1
11
2
11
3
1 11
2
11
1
11
2
Znajdziemy wartość oczekiwaną zmiennej losowej X2 + Y2.
Rozwiązanie
W naszym przypadku g(X, Y) = X2 + Y2, więc na podstawie wzoru (3.1)
E(X2 + Y2) = [ ] [ ] ++−+−+−=+∑∑11
20)1(
11
1)1()1(p)yx( 2222
iji j
2j
2i
+ [ ] [ ] [ ] [ ]11
19
11
211
11
101
11
2)1(1
11
31)1( 22222222 =++++−+++−
Przykład 7.18b
Dwuwymiarowa zmienna losowa (X, Y) ma gęstość
( )
=0
xy8y,xf
Znaleźć wartość oczekiwaną zmiennej losowej X.
Rozwiązanie
W naszym przykładzie g(X, Y) = X, więc na podstawie wzoru (3.2)
dla 0x > , 0y > i 1yx 22 <+
dla pozostałych x i y
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
55
( ) dx dyy,xxfEX ∫ ∫+∞
∞−
+∞
∞−
=
Zbiór punktów płaszczyzny (x, y) dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami
−<<
<<2x1y0
1x0
więc
15
8dx dy xy8xEX
1
0
x1
0
2
=
⋅= ∫ ∫
−
Podstawiając do (3.1) lub do (3.2) w miejsce g róŜne funkcje dwóch zmiennych otrzymujemy nowe parametry rozkładu zmiennej losowej dwuwymiarowej. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.
Tabela 3.2. Parametry rozkładu zmiennej losowej dwuwymiarowej
Funkcja g(x, y) Parametr Nazwa parametru
g(x, y) = xkyl mkl= E(XkYl) Moment rzędu k + l
g(x, y) = x m10= EX Moment rzędu pierwszego – m jeden zero – wartość oczekiwana zmiennej
losowej X
g(x, y) = y m01= EY Moment rzędu pierwszego – m zero
jeden – wartość oczekiwana zmiennej losowej Y
g(x, y) = x2 m20= EX2 Moment rzędu 2 – m dwa zero –
moment rzędu 2 zmiennej losowej X
g(x, y) = y2 m02= EY2 Moment rzędu 2 – m zero dwa –
moment rzędu 2 zmiennej losowej Y
g(x, y) = xy m11= E (XY ) Moment rzędu 2 – m jeden jeden –
wartość oczekiwana iloczynu zmiennych losowych X i Y
g(x, y) =
=(x- m10)k(y-m01)
l µkl =
=E[(X- m10)k(Y-m01)
l] Moment centralny rzędu k + l
g(x, y) =
=(x- m10) (y-m01) µ11 = E[(X- m10)(Y-m01)]
Moment centralny rzędu 1 + 1 - kowariancja zmiennych losowych X i Y
A. Moment rzędu k, k=1,2, …, zmiennej losowej X jest to wartość oczekiwana zmiennej losowej Xk (oznaczenie mk ), zatem
mk = EXk
Moment rzędu k zmiennej losowej X wyraŜa się wzorem (przyjmujemy we wzorze na Eg(X), Ŝe g(x) = xk)
RACHUNEK PRAWDOPODOBIEŃSTWA
56
==
∫
∑
∞
∞−
dx)x(fx
px
EXmk
ii
ki
kk
Moment rzędu 1 nazywamy wartością oczekiwaną i oznaczamy m (zamiast m1), czyli
m = EX
Przykład 7.19
Zmienna losowa X ma gęstość
( )
( )
∉
∈=
2;0x dla 0
2;0x dla 2
1
)x(f
Obliczymy moment rzędu k zmiennej losowej X.
Rozwiązanie
1k
2dxx
2
1 dx
2
1x dx )x(fxm
k2
0
k2
0
kkk +
=∫∫ ==∫=∞+
∞−
B. Moment centralny rzędu k zmiennej losowej X jest to wartość oczekiwana zmiennej losowej (X – m)k (oznaczenie µk), zatem
µk = E(X – m)k
Moment centralny rzędu k zmiennej losowej X wyraŜa się wzorem (przyjmujemy we wzorze na Eg(X), Ŝe g(x) = (x – m)k)
−
−
=µ
∫
∑
∞
∞−
dx)x(f)mx(
p)mx(
k
ik
ki
k
Przykład 7.20
Zmienna losowa X ma gęstość
f(x) = )1;0(
)1;0(
dla0
dla1
∉
∈
x
x
Znajdziemy moment centralny rzędu k zmiennej losowej X.
Rozwiązanie
Obliczymy najpierw wartość oczekiwaną EX
∫∫ ====+∞
∞−
1
0 2
1xdxdx )x(f xEXm
gdy X ma rozkład skokowy o funkcji prawdopodobieństwa ( ) ii pxXP ==
gdy X ma rozkład ciągły o gęstości f ( )x
gdy X jest zmienną losową skokową o funkcji prawdopodobieństwa ( ) ii pxXP ==
gdy X jest zmienną losową ciągłą o gęstości f ( )x
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
57
Teraz moŜemy obliczyć moment centralny rzędu k
µk = E(X – m)k = ∫ ∫∞
∞−
++
−−
+=−=−
1
0
1k1kkk
2
1
2
1
1k
1dx)
2
1x(dx )x(f)mx(
( )
+=µ
0
21k
1k
k
Moment centralny pierwszego rzędu dowolnej zmiennej losowej jest równy zeru µ1=0 (o ile istnieje).
7.5. Parametry rozkładu zmiennej losowej dwuwymiarowej
7.5.1. Wartość oczekiwana funkcji dwuwymiarowej zmiennej losowej
Jeśli (X, Y) jest zmienną losową dwuwymiarową, g(x,y) jest funkcją rzeczywistą dwóch zmiennych rzeczywistych, to funkcja g(X, Y) jest zmienną losową jednowymiarową
A. Niech (X, Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa ( ) ijii PyY,xXP ===
Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę ( ) ij
i jji p)y,x(gY,XEg ∑∑= (7.1)
przy czym zakładamy, Ŝe ∞<∑∑ iji j
ji p)y,x(g tzn., Ŝe szereg występujący po prawej stronie
wzoru (7.1) jest bezwzględnie zbieŜny.
B. Niech. (X, Y) będzie dwuwymiarową zmienną losową ciągłą o gęstości f(x, y). Wartością oczekiwaną zmiennej losowej g(X, Y) nazywamy liczbę
( ) dxdy)y,x(f)y,x(gY,XEg ∫
∫=
∞
∞−
∞
∞− (7.2)
przy czym zakładamy, Ŝe dxdy)y,x(f|)y,x(g|∫ ∫∞
∞−
∞
∞−
< ∞ tzn., Ŝe całka występująca po prawej
stronie wzoru (7.2) jest bezwzględnie zbieŜna.
Przykład 7.21
Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą
yj
xi -1 0 1
-1 11
1
11
2
11
3
1 11
2
11
1
11
2
Znajdziemy wartość oczekiwaną zmiennej losowej X2 + Y2.
Rozwiązanie
W naszym przypadku g(X, Y) = X2 + Y2, więc na podstawie wzoru (7.1)
E(X2 + Y2) = [ ] [ ] ++−+−+−=+∑∑ 11
20)1(
11
1)1()1(p)yx( 2222
iji j
2j
2i
gdy k jest liczbą parzystą gdy k nie jest liczbą parzystą
RACHUNEK PRAWDOPODOBIEŃSTWA
58
+ [ ] [ ] [ ] [ ]11
19
11
211
11
101
11
2)1(1
11
31)1( 22222222 =++++−+++−
Przykład 7.22
Dwuwymiarowa zmienna losowa (X, Y) ma gęstość
( )
=0
xy8y,xf
Znaleźć wartość oczekiwaną zmiennej losowej X.
Rozwiązanie
W naszym przykładzie g(X, Y) = X, więc na podstawie wzoru (7.2)
( ) dx dyy,xxfEX ∫ ∫+∞
∞−
+∞
∞−
=
Zbiór punktów płaszczyzny (x, y) dla których gęstość f(x, y) jest dodatnia, moŜe być opisany nierównościami
−<<
<<2x1y0
1x0
więc
15
8dx dy xy8xEX
1
0
x1
0
2
=
⋅= ∫ ∫
−
Podstawiając do (7.1) lub do (7.2) w miejsce g róŜne funkcje dwóch zmiennych otrzymujemy nowe parametry rozkładu zmiennej losowej dwuwymiarowej. NajwaŜniejsze z nich przedstawiamy w poniŜszej tabeli.
Tabela 7.2. Parametry rozkładu zmiennej losowej dwuwymiarowej
Funkcja g(x, y) Parametr Nazwa parametru
g(x, y) = xkyl mkl= E (XkYl) Moment rzędu k + l
g(x, y) = x m10= E X Moment rzędu pierwszego – m jeden zero –
wartość oczekiwana zmiennej losowej X
g(x, y) = y m01= EY Moment rzędu pierwszego – m zero jeden –
wartość oczekiwana zmiennej losowej Y
g(x, y) = x2 m20= E X2 Moment rzędu 2 – m dwa zero – moment rzędu
2 zmiennej losowej X
g(x, y) = y2 m02= E Y2 Moment rzędu 2 – m zero dwa – moment rzędu
2 zmiennej losowej Y
g(x, y) = xy m11= E (XY ) Moment rzędu 2 – m jeden jeden – wartość
oczekiwana iloczynu zmiennych losowych X i Y
g(x, y) =
=(x- m10)k(y-m01)
l µkl =
=E[(X- m10)k(Y-m01)
l] Moment centralny rzędu k + l
g(x, y) =
=(x- m10) (y-m01) µ11 = E[(X- m10)(Y-m01)]
Moment centralny rzędu 1 + 1 - kowariancja zmiennych losowych X i Y
dla 0x > , 0y > i 1yx 22 <+
dla pozostałych x i y
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
59
7.5.2. Momenty dwuwymiarowej zmiennej losowej
A. Momentem rzędu k + 1 (k = 0, 1, ..., l = 0, 1, ...;) dwuwymiarowej zmiennej losowej (X,Y) nazywamy wartość oczekiwaną zmiennej losowej XkYl
Moment rzędu k + l oznaczamy symbolem mkl, więc
mkl = E(XkYl)
Przyjmując g(X, Y) = XkYl, otrzymujemy na podstawie (7.1) i (7.2) następujące wzory
( )
=∫ ∫
∑∑∞+
∞−
∞+
∞−
dx dyy,xfyx
pyx
mlk
i jij
lj
ki
kl
Momenty rzędu pierwszego m10 = EX, m01 = EY
mogą być obliczone takŜe za pomocą rozkładów brzegowych zmiennych losowych X i Y. Za pomocą tych rozkładów wyznacza się takŜe
m20 = EX2 - moment rzędu 2 zmiennej losowej X, m02 = EY2 - moment rzędu 2 zmiennej losowej Y.
Z kolei dla wyznaczenia momentu mieszanego
m11 = E(XY) - wartość oczekiwana iloczynu zmiennych losowych X i Y.
niezbędna jest znajomość rozkładu łącznego (patrz przykład 7.24).
Przykład 7.23
Dwuwymiarowa zmienna losowa (X, Y) ma gęstość
Rys. 7.3
f(x) = A)y,x(
A)y,x(
dla0
dla1
∉
∈
gdzie A jest zbiorem punktów płaszczyzny (x, y), dla których 0 < x < 1 i 0 < y < 2x (rysunek 7.3). Obliczymy momenty rzędu 1 i rzędu 2 tej zmiennej losowej
Rozwiązanie
m10 = ∫∫∫∫ ∫ ==
=
+∞
∞−
+∞
∞−
1
0
2x2
0
1
0 3
2dxx2dxdyxdxdy)y,x(f x
m01 = ∫∫∫∫ ∫ ==
=
+∞
∞−
+∞
∞−
1
0
2x2
0
1
0 3
2dxx2dxdy ydxdy)y,x(f y
m20 = ∫∫∫∫ ∫ ==
=
+∞
∞−
+∞
∞−
1
0
3x2
0
1
0
22
2
1dxx2dxdyxdxdy)y,x(fx
m02 = ∫∫∫∫ ∫ ==
=
∞
∞−
∞
∞−
1
0
3x2
0
21
0
2
3
2dx
3
x8dxdyydxdy)y,x(fx
gdy ( )Y,X ma rozkład skokowy ( ) ijji pyY,xXP ===
gdy ( )Y,X ma rozkład ciągły o gęstości f ( )y,x
RACHUNEK PRAWDOPODOBIEŃSTWA
60
m11 = ∫∫∫∫ ∫ ==
=
∞
∞−
∞
∞−
1
0
3x2
0
1
0 2
1dxx2dxdy yxdxdy)y,x(xyf
Przykład 7.24
Dwuwymiarowa zmienna losowa (X, Y) ma funkcję prawdopodobieństwa określoną tabelą
yj
xi -1 0 1
1 11
1
11
3
11
2
3 11
2
11
1
11
2
Znajdziemy momenty rzędu 1 i rzędu 2 tej zmiennej losowej.
Rozwiązanie
Momenty m10, m01, m20 i m02 łatwiej jest znaleźć przy pomocy rozkładów brzegowych zmiennych losowych X i Y. W przykładzie 5.34 znaleźliśmy te rozkłady:
Rozkład X xi 1 3
pi. 11
6
11
5
Rozkład Y
yj -1 0 1
p.j 11
3
11
4
11
4
m10 = EX = 11
21
11
53
11
61.pix
ii =⋅+⋅=∑
m01 = EY = 11
1
11
41
11
40
11
3)1(.py
jjj =⋅+⋅+⋅−=∑
m20 = EX2 = 11
51
11
53
11
61px
i
22.i
2i =⋅+⋅=∑
m02 = EY2 = 11
7
11
41
11
40
11
3)1(py
j
222j.j =⋅+⋅+⋅−=∑
m11 = E(XY) = ∑∑ +⋅⋅+⋅⋅+⋅−⋅=i j
ijji 11
211
11
301
11
1)1(1pyx
+ 11
1
11
213
11
103
11
203 =⋅⋅+⋅⋅+⋅⋅
B. Momentem centralnym rzędu k+1 dwuwymiarowej zmiennej losowej (X, Y) nazywamy wartość oczekiwaną zmiennej losowej
(X - m10)k(Y – m01)
1
Moment centralny rzędu k+1 oznaczamy symbolem µkl, więc
µkl = E [ ]101
k10 )mY()mX( −−
Przyjmując g(X, Y) = (X –m10)k(Y – m01)
l, otrzymujemy na podstawie wzorów (7.1) i (7.2) następujący wzór
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
61
−−
−−
=µ∫ ∫
∑∑∞
∞−
∞
∞−
dxdy)y,x(f)my()mx(
p)my()mx(
l01
k10
i jij
l01j
k10i
kl
Momenty centralne rzędu 1 są równe zeru µ10 = E(X – m10) = 0, µ01= E(Y – m01) = 0
DuŜa rolę w praktyce odgrywają momenty centralne rzędu drugiego zmiennej losowej dwuwymiarowej (X,Y):
• µ20= E(X – m10)2 = D2X, czyli wariancja zmiennej losowej X
• µ02= E(Y – m01)2 = D2Y, czyli wariancja zmiennej losowej Y,
• µ11= E[(X – m10)(Y – m01)], czyli centralny moment mieszany, który nazywa się kowariancją zmiennej losowej (X, Y).
PoniewaŜ wartość oczekiwana iloczynu zmiennych losowych niezaleŜnych jest równa iloczynowi wartości oczekiwanych tych zmiennych losowych oraz momenty centralne rzędu 1 są równe zeru, więc kowariancja zmiennych losowych niezaleŜnych jest równa zeru. Twierdzenie odwrotne jest nieprawdziwe - z zerowania się kowariancji zmiennych losowych nie wynika ich niezaleŜność.
Przykład 7.25
Wyrazimy kowariancję zmiennych losowych X i Y jako funkcję momentów zwyczajnych tych zmiennych.
Rozwiązanie
W poniŜszych przekształceniach będziemy korzystać z własności wartości oczekiwanej µ11 = E[(X – m10)(Y – m01)] = E(XY)– m10 EY – m01 EX + m10m01=
= m11 – m10m01 – m10m01 + m10m01 = m11 – m10 – m01
Momenty centralne rzędu 2 wyraŜają się przy pomocy momentów zwyczajnych następującymi wzorami
µ20 = D2X = m20 – (m10)
2, µ20 = D2Y = m02 – (m01)
2
µ11 = m11 – m10m01
Przykład 7.26
Obliczymy momenty centralne rzędu drugiego zmiennej losowej dwuwymiarowej z przykładu 7.23 Rozwiązanie
W przykładzie 7.23 obliczyliśmy, Ŝe m10 = 3
2, m01 =
3
2, m20 =
2
1, m02 =
3
2, m11 =
2
1,
więc
µ20 = m20 – (m10)2 =
2
1 -
2
3
2
= 18
1
µ02 = m02 – (m01)2 =
3
2 –
2
3
2
= 9
2
µ11 = m11 – m10m01 = 2
1 –
3
2 ·
3
2 =
18
1
gdy ( )Y,X ma rozkład skokowy ( ) ijji pyY,xXP ===
gdy ( )Y,X ma rozkład ciągły o gęstości f ( )y,x
RACHUNEK PRAWDOPODOBIEŃSTWA
62
7.5.3. Współczynnik korelacji
Współczynnikiem korelacji Pearsona (albo krótko współczynnikiem korelacji) zmiennych losowych X i Y nazywamy liczbę ρ określoną wzorem
21
11
σσ
µ=ρ ( załoŜenie 0, 21 ≠σσ )
gdzie: µ11 jest kowariancją tych zmiennych, σ1 - odchyleniem standardowym zmiennej losowej X, zaś σ2 odchyleniem standardowym zmiennej losowej Y.
Współczynnik korelacji ρ wyraŜa się przy pomocy momentów zwyczajnych następującym wzorem
20102
21020
011011
mmmm
mmm
−−
−=ρ
Przykład 7.27
Niech (X, Y) będzie dwuwymiarową zmienną losową z przykładu 7.23. Obliczymy współczynnik korelacji zmiennych losowych X i Y.
Rozwiązanie
W przykładzie 7.26 obliczyliśmy, Ŝe µ11 = 18
1,
21σ = µ20 =
18
1 ,
22σ = µ02 =
9
2, więc
2
1
9
2
18
118
1
=
⋅
=ρ
Własności współczynnika korelacji15
Zakładamy, Ŝe istnieje współczynnik korelacji zmiennych losowych X i Y.
a) Współczynnik korelacji zmiennych losowych niezaleŜnych jest równy 0 (bo wtedy kowariancja jest równa zeru).
b) Współczynnik korelacji przyjmuje wartości z przedziału <-1,+1>
-1 ≤ ρ≤ 1 c) Wartość bezwzględna współczynnika korelacji jest równa 1 wtedy i tylko wtedy, gdy
z prawdopodobieństwem równym jeden zmienne losowe są zaleŜne liniowo |ρ | = 1 ⇔ P(Y = aX + b) = 1
przy czym dla ρ =1 mamy a > 0, zaś dla ρ = -1 mamy a < 0.
Współczynnik korelacji, ze względu na powyŜsze własności, interpretujemy jako miarę zaleŜności liniowej zmiennych losowych. Jeśli współczynnik korelacji ma moduł większy od 0,7 to przyjmuje się, Ŝe stopień zaleŜności linowej jest na tyle wysoki, iŜ moŜna wtedy jedną zmienną losową aproksymować funkcją liniową drugiej zmiennej losowej. Zagadnieniem tym zajmiemy się w następnym rozdziale.
15 Dowód podano w punkcie 20.8 części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
63
Przykład 7.28
W poniŜszej tabeli przedstawiona jest funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowa skokowej (X,Y) oraz funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y. Obliczymy współczynnik korelacji tych zmiennych.
jy
ix 0 1 2 3 .ip
-2 0,3 0,3 -1 0,2 0,2 0 0,05 0,15 0,2 1 0,3 0,3
j.p 0,3 0,25 0,15 0,3 Suma
1
Rozwiązanie
∑==i
.ii10 pxEXm = ( ) 5,03,012,002,0)1(3,02 −=⋅+⋅+⋅−+⋅−
∑ =⋅+⋅+⋅+⋅===j
j.j01 45,13,0315,0225,013,00pyEYm
== 220 EXm ( ) 7,13,012,002,0)1(3,02px 222
i.i
2i
2
=⋅+⋅+⋅−+⋅−=∑
== 202 EYm 55,33,0315,0225,013,00py
j
2222j.
2j∑ =⋅+⋅+⋅+⋅=
( ) == XYEm11 ∑∑i j
ijji pyx +⋅⋅+⋅⋅−+⋅⋅−= 05,0102,01)1(3,00)2( 0 2 0,15 1 3 0,3 0,7⋅ ⋅ + ⋅ ⋅ =
=−−−
⋅−−=
−−
−=
2220102
21020
011011
45,155,3)5,0(7,1
45,1)5,0(7,0
mmmm
mmmρ 0,984
Wnioski: • Zmienne losowe X i Y są zaleŜne, bo ρ ≠ 0. • ZaleŜność zmiennych losowych X i Y nie jest liniowa, bo |ρ| ≠ 1. ZaleŜność zmiennych losowych X i Y zbliŜona jest do rosnącej zaleŜności liniowej, bo ρ jest bliskie 1.
Przykład 7.29
Zmienna losowa dwuwymiarowa ciągła ma gęstość
+
=0
yx)y,x(f
Znajdziemy współczynnik korelacji zmiennych losowych X i Y.
Rozwiązanie
ZauwaŜmy, Ŝe ze względu na postać gęstości momenty 10m i 01m oraz momenty 20m
i 02m są sobie równe.
12
7
4
1
3
1
0
1
4
x
3
xdx
2
xxdx
0y
1y
2
xyyx
dxdy)yx(xdxdy)y,x(xfEXm
231
0
21
0
22
1
0
1
010
=+=
+=∫
+=
=
=
∫
+=
=∫
∫ +=∫
∫==
∞
∞−
∞
∞−
dla 1x0 << i 1y0 << dla pozostałych x i y
RACHUNEK PRAWDOPODOBIEŃSTWA
64
12
5
6
1
4
1
0
1
6
x
4
xdx
2
xxdx
0y
1y
2
xyyx
dxdy)yx(xdxdy)y,x(fxEXm
341
0
23
1
0
223
1
0
1
0
22220
=+=
+=∫
+=
=
=
∫
+=
=∫
∫ +=∫
∫==
∞
∞−
∞
∞−
( )
3
1
6
1
6
1
0
1
6
x
6
xdx
3
x
2
xdx
0y
1y
3
xy
2
yx
dxdy)yx(xydxdy)y,x(xyfXYEm
231
0
21
0
322
1
0
1
011
=+=
+=∫
+=
=
=
∫
+=
=∫
∫ +=∫
∫==
∞
∞−
∞
∞−
Zatem współczynnik korelacji jest równy
11 10 01
2 2 2 220 10 02 01
1 7 7 48 49m m m 13 12 12 144ρ
60 49 11m m m m 5 7 5 7144
12 12 12 12
−−−
= = = = −−− − − −
7.5.3. Zmienne losowe nieskorelowane
JeŜeli współczynnik korelacji zmiennych losowych X i Y jest równy zeru, to nazywamy je zmiennymi losowymi nieskorelowanym. Zmienne losowe niezaleŜne są zmiennymi losowymi nieskorelowanymi (o ile istnieje współczynnik korelacji tych zmiennych). Zmienne losowe nieskorelowane mogą nie być niezaleŜne.
Dwa waŜne twierdzenia o zmiennych losowych nieskorelowanych. • Wartość oczekiwana iloczynu zmiennych losowych jest równa iloczynowi ich wartości
oczekiwanych wtedy i tylko wtedy, gdy zmienne te są nieskorelowane. • Wariancja sumy zmiennych losowych jest równa sumie ich wariancji wtedy i tylko wtedy, gdy
zmienne te są nieskorelowane.
Przykład 7.30
Zmienna losowa dwuwymiarowa skokowa (X,Y) oraz zmienne losowe X i Y mają funkcje prawdopodobieństwa przedstawione w tabeli
jy
ix -1 0 .ip
-1 0,2 0,2 0,4 0 0,2 0,2 1 0,2 0,2 0,4
j.p 0,6 0,4 Suma
1 ∑==i
.ii10 pxEXm = ( ) 04,012,004,01 =⋅+⋅+⋅−
( )∑ −=⋅+⋅−===j
j.j01 6,04,006,01pyEYm
( ) == XYEm11 ∑∑i j
ijji pyx 02,0012,0)1(12,0)1(02,00)1(2,0)1()1( =⋅⋅+⋅−⋅+⋅−⋅+⋅⋅−+⋅−⋅−=
cov (X,Y) 011011 mmm −= = 0)6,0(00 =−⋅−
PoniewaŜ cov (X,Y) = 0, więc takŜe ρ = 0, zatem zmienne losowe X i Y są nieskorelowane. PoniewaŜ 2,0)1Y,1X(P24,06,04,0)1Y(P)1X(P =−=−=≠=⋅=−=−= więc zmienne losowe X i Y nie są niezaleŜne, czyli są zaleŜne.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
65
8. REGRESJA ZMIENNYCH LOSOWYCH
8.1. Wprowadzenie
W rozdziale 5 (ppkt 5.2.7) wprowadziliśmy pojęcie zmiennych losowych niezaleŜnych. Mianowicie w ogólnym przypadku zmienne losowe X i Y nazywamy zmiennymi losowymi niezaleŜnymi, jeśli
)y(F)x(F)y,x(F YX= dla x, y R∈
gdzie )y,x(F - dystrybuanta zmiennej losowej dwuwymiarowej (X,Y),
)x(FX - dystrybuanta brzegowa zmiennej losowej X.
)y(FY - dystrybuanta brzegowa zmiennej losowej Y. W przypadku skokowym zmienne losowe X i Y są niezaleŜne wtedy i tylko wtedy, gdy
i j i jP(X x ,Y y ) P(X x )P(Y y )= = = = =
dla kaŜdego punktu ( )y,x ji skokowego zmiennej losowej dwuwymiarowej (X,Y), zaś w przypadku
ciągłym zmienne losowe X i Y są niezaleŜne wtedy i tylko wtedy, gdy
)y(f)x(f)y,x(f YX=
w kaŜdym punkcie )y,x( ciągłości funkcji )y,x(f , przy czym )y,x(f - gęstość zmiennej losowej dwuwymiarowej (X,Y),
)x(fX - gęstość brzegowa zmiennej losowej X,
)y(fY - gęstość brzegowa zmiennej losowej Y.
Zmienne losowe X i Y nie będące zmiennymi losowymi niezaleŜnymi nazywamy zmiennymi
losowymi zaleŜnymi
PoniŜsze twierdzenia pokazują, w jakim sensie pojęcia niezaleŜności i zaleŜności zmiennych losowych odpowiadają niezaleŜności i zaleŜności rozumianej potocznie. • Jeśli zmienne losowe X i Y są niezaleŜne, to rozkład warunkowy zmiennej losowej X pod
warunkiem, Ŝe zaszło zdarzenie yY = jest równy rozkładowi zmiennej losowej X, takŜe rozkład warunkowy zmiennej losowej Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest równy rozkładowi zmiennej losowej Y.
• Jeśli rozkład warunkowy zmiennej losowej X pod warunkiem, Ŝe zaszło zdarzenie yY = jest taki sam jak rozkład zmiennej losowej X (dla tych wszystkich wszystkich, dla których ten rozkład istnieje) lub, jeśli rozkład warunkowy zmiennej losowej Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest taki sam jak rozkład zmiennej losowej Y (dla tych wszystkich x dla których ten rozkład istnieje), to zmienne losowe X i Y są niezaleŜne.
• Jeśli istnieje rozkład warunkowy zmiennej losowej X pod warunkiem, Ŝe zaszło zdarzenie yY = róŜny od rozkładu zmiennej losowej X lub istnieje rozkład warunkowy zmiennej losowej
Y pod warunkiem, Ŝe zaszło zdarzenie xX = jest róŜny od rozkładu zmiennej losowej Y, to zmienne losowe są zaleŜne.
Tak więc niezaleŜność zmiennych losowych oznacza, Ŝe przyjęcie przez jedną ze zmiennych dowolnej wartości nie ma wpływu na rozkład prawdopodobieństwa drugiej zmiennej losowej. Natomiast zaleŜność zmiennych losowych oznacza, Ŝe istnieje co najmniej jeden rozkład warunkowy X/Y=y róŜny od rozkładu zmiennej losowej X lub co najmniej jeden rozkład warunkowy Y/X=x róŜny od rozkładu zmiennej losowej Y, a zatem przyjęcie przez jedną zmienną losową wartości moŜe mieć wpływ na rozkład prawdopodobieństwa drugiej zmiennej losowej.
Aby podkreślić, Ŝe chodzi o niezaleŜność lub zaleŜność zmiennych losowych w powyŜszym sensie mówimy, Ŝe zmienne losowe są niezaleŜne stochastycznie lub, Ŝe są zaleŜne stochastycznie.
RACHUNEK PRAWDOPODOBIEŃSTWA
66
8.2. ZaleŜność funkcyjna zmiennych losowych
Mówimy, Ŝe zmienne losowe X i Y są zaleŜne funkcyjnie, jeśli istnieje róŜna od stałej funkcja g rzeczywista zmiennej rzeczywistej taka, Ŝe
)Y(gXlub)X(gY ==
Oznacza to, Ŝe wszystkie wartości )y,x( zmiennej losowej dwuwymiarowej )Y,X( naleŜą do wykresu funkcji )x(gy = lub do wykresu funkcji )y(gx = .
Przykład 8.1
Zmienna losowa dwuwymiarowa (X,Y) skokowa ma poniŜszą funkcję prawdopodobieństwa
jy
ix -1 1 3 5
-1 0,2 0 0,1 1 0,3 2 0,4
Zmienne losowe X i Y są zaleŜne funkcyjnie Y=2X+1 (rys. 8.1)
Przykład 8.2
Zmienna losowa dwuwymiarowa (X,Y) skokowa ma funkcję prawdopodobieństwa określoną tabelą
jy
ix 0 1 4
-1 0,2 0 0,1 1 0,3 2 0,4
Zmienne losowe X i Y są zaleŜne funkcyjnie Y =X2 (rys. 8.2 )
Rys. 8.1 Rys. 8.2
ZaleŜność funkcyjna zmiennych losowych jest zaleŜnością stochastyczną. Odwrotne twierdzenie nie jest prawdziwe.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
67
Przykład 8.3
Niech (X,Y) będzie dwuwymiarową zmienną losową skokową o funkcji prawdopodobieństwa przedstawioną tabelą w przykładzie 5.31. W przykładzie tym wyznaczyliśmy funkcję prawdopodobieństwa warunkową Y/X=3. Rozkład ten jest róŜny od rozkładu brzegowego zmiennej losowej Y, więc zmienne losowe X i Y są zaleŜne stochastycznie. Nie są jednak zaleŜne funkcyjnie, gdyŜ nie istnieje taka funkcja, której wykres przechodziłby przez wszystkie punkty będące wartościami zmiennej losowej dwuwymiarowej (X,Y) (rys. 8.3).
Rys. 8.3
8.3. Regresja I rodzaju
ZaleŜność funkcyjna zmiennych losowych jest waŜna w zagadnieniach teoretycznych i kluczowa w zastosowaniach praktycznych. Jeśli np. )X(gY = i znana jest funkcja g, to moŜna za pomocą rozkładu prawdopodobieństwa zmiennej losowej X wyznaczyć rozkład prawdopodobieństwa i parametry zmiennej losowej Y, moŜna takŜe wyznaczyć wartości zmiennej losowej Y za pomocą wartości zmiennej losowej X (co jest waŜne przy prognozowaniu wartości zmiennej losowej Y). Krótko mówiąc, jeśli zmienne losowe są zaleŜne funkcyjnie, to do opisu rozkładu zmiennej losowej dwuwymiarowej wystarczy znać rozkład jednej ze zmiennych losowych jednowymiarowych. Jednak zaleŜności funkcyjnie zmiennych losowych rzadko występują w zagadnieniach praktycznych. Natomiast istnieje wiele sytuacji, w których zaleŜność stochastyczna mało róŜni się od zaleŜności funkcyjnej i moŜe być z niewielkim błędem aproksymowana (przybliŜana) tą zaleŜnością.
Zagadnienie
Wyznaczyć funkcję h rzeczywistą zmiennej rzeczywistej tak by zmienna losowa )X(hY = była taką aproksymacją zmiennej losowej Y, Ŝeby wyraŜenie
=δg [ ]2)X(gYE − średniokwadratowe odchylenie zm. los. Y od zm. los. g(X)
miało wartość najmniejszą , gdy funkcja g jest równa funkcji h.
PowyŜszą zasadę wyznaczania zmiennej losowej )X(hY = nazywamy zasadą najmniejszych
kwadratów.
Zmienną losową )X(hY = nazywamy wówczas regresją I rodzaju zmiennej losowej Y względem
zmiennej losowej X. Zatem:
Regresja I rodzaju zmiennej losowej Y względem zmiennej losowej X jest to zmienna losowa
)X(hY = taka, Ŝe
[ ] [ ]2
)x(g
2 )X(gYEmin)X(hYE −=−
czyli zmienna losowa wyznaczona zgodnie z zasadą najmniejszych kwadratów
Wykres funkcji )x(hy = nazywamy wówczas krzywą regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X.
RACHUNEK PRAWDOPODOBIEŃSTWA
68
8.4. Regresja II rodzaju
Wyznaczanie regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X polegało na znalezieniu funkcji h rzeczywistej zmiennej rzeczywistej takiej, by wyraŜenie
2g ))X(gY(E −=δ
miało wartość najmniejszą, gdy funkcja g jest równa funkcji h, czyli szukaliśmy w klasie wszystkich funkcji takiej funkcji h, dla której wyraŜenie hδ jest najmniejsze. Wtedy zmienna
losowa )X(gY = , zwana regresją I rodzaju zmiennej losowej Y względem zmiennej losowej X aproksymuje zaleŜność stochastyczną zmiennych losowych zaleŜnością funkcyjną (najlepiej zgodnie z przyjętym kryterium wyboru funkcji h, czyli zgodnie z zasadą najmniejszych kwadratów). W zagadnieniach praktycznych posługiwanie się regresją I rodzaju jest niewygodne, bowiem na ogół nie jest znany wzór określający funkcję h, co stanowi kłopot przy przewidywaniu wartości zmiennej losowej Y, gdy znana jest wartość zmiennej losowej X. Aby ominąć tę trudność, poszukujemy funkcji h zgodnie z zasadą najmniejszych kwadratów nie w klasie wszystkich funkcji, tylko w pewnej klasie K funkcji określonych wspólnym wzorem zaleŜnym od parametrów.
Wówczas zmienną losową )X(hY = nazywamy regresją II rodzaju w klasie K zmiennej losowej Y względem zmiennej losowej X.
Przykład 8.5
Nazwa klasy K Wzór określający
funkcję naleŜącą do klasy K
Parametry funkcji
Kryterium wyboru parametrów funkcji
Klasa funkcji liniowych
ba += xy ba, min [ ]2)ba( +− XYE
Klasa funkcji wykładniczych
xbay = b,a min [ ]2x )baYE −
Klasa funkcji potęgowych
baxy = b,a min [ ]2x )abYE −
Klasa hiperbol cbx
ay +
−= cb,a, min
2
cbx
aYE
+−
−
8.5. Liniowa regresja II rodzaju
RozwaŜania dotyczące regresji II rodzaju ograniczymy do regresji liniowej, tj. regresji w klasie K funkcji liniowych. Czynimy to z kilku powodów 1. W wielu zagadnieniach praktycznych zaleŜność stochastyczna rzeczywiście mało róŜni się od
zaleŜności liniowej (choć nie jest tą zaleŜnością). 2. W niektórych przypadkach regresję nieliniową moŜna dość łatwo sprowadzić do regresji
liniowej. 3. Metodę wyznaczania regresji moŜna najłatwiej przedstawić w przypadku regresji liniowej. 4. Wyznaczanie regresji względem klasy K funkcji róŜnych od funkcji liniowych przebiega
podobnie jak względem klasy funkcji liniowych. RozwaŜamy zmienną losową dwuwymiarową (X,Y). Oznaczamy
,YDσ,XDσY,Em,EXm 22Y
22X0110 ====
)Y,Xcov( - kowariancja zmiennych losowych X i Y,
ρ - współczynnik korelacji zmiennych losowych X i Y. Zakładamy, Ŝe powyŜsze parametry istnieją oraz, Ŝe 0σX > i .0σY >
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
69
Regresja liniowa II rodzaju zmiennej losowej Y względem zmiennej losowej X jest to zmienna
losowa
YY βXαY +=
gdzie liczby YβiαY są wyznaczone tak, by funkcja
[ ]2)βXα(YE)βα,(g +−=
miała w punkcie )β,α( YY wartość najmniejszą.
Prostą o równaniu
YY βxαy +=
nazywamy prostą regresji II rodzaju zmiennej losowej Y względem zmiennej losowej X.
Liczby YβiαY nazywamy współczynnikami prostej regresji II rodzaju cechy Y względem cechy X.
Współczynnik Yα oznacza średni przyrost zmiennej losowej Y, gdy zmienna losowa X wzrośnie
o jednostkę, natomiast współczynnik Yβ jest rzędną punktu przecięcia prostej regresji
YY xy βαˆ += z osią Oy.
Wyznaczanie współczynników YY βiα
Przekształcimy funkcję )βα,(g
[ ]2)βXα(YE)βα,(g +−= = ( ) ( ) ( )[ ]210011001 βammX-mαmYE −−+−−
MoŜna wykazać16, współczynniki minimalizujące powyŜszą funkcje są równe
Y
X
σα ρ
σ= , 101o10
X
Y01 mmmm α−=ρ
σ
σ−=β
Stosując poznane w matematyce metody moŜemy stwierdzić, Ŝe dla powyŜszych wartości α i β funkcja g ma wartość najmniejszą. Zatem
ρσ
σα
X
YY = , 10Y01Y mαmβ −= współczynniki regresji liniowej Y względem X
xρσ
σy
X
Y= + 10X
Y01 mρ
σ
σm − równanie prostej regresji II rodzaju Y względem X
Xρσ
σY
X
Y= + 10X
Y01 mρ
σ
σm − regresja liniowa II rodzaju liniowa Y względem X
Przykład 8.6
Zmienna losowa X oznacza cenę sztuki pewnego towaru (w zł.), natomiast zmienna losowa Y podaŜ tego towaru (w tys. sztuk). Funkcja prawdopodobieństwa zmiennej losowej dwuwymiarowej (X,Y) i funkcje prawdopodobieństwa brzegowe zmiennych losowych X i Y przedstawione są w tabeli.
jy
ix 5 6 7 8 9 .ip
2,0 0,10 0,05 0,02 0,17 2,5 0,08 0,15 0,03 0,26 3,0 0,02 0,08 0,05 0,02 0,02 0,19 3,5 0,02 0,05 0,05 0,05 0,17 4,0 0,10 0,03 0,08 0,21
j.p 0,20 0,30 0,25 0,10 0,15 Suma 1,00
16 Dowód podano w punkcie 20.8. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
70
Znajdziemy prostą regresji II zmiennej losowej Y względem zmiennej losowej X.
Rozwiązanie
∑==i
.ii10 pxEXm = 2 0,17 2,5 0,26 3 0,19 3,5 0,17 4 0,21 2,995⋅ + ⋅ + ⋅ + ⋅ + ⋅ =
01 j . jj
m EY y p 5 0, 2 6 0,3 7 0,25 8 0,1 9 0,15 6,70= = = ⋅ + ⋅ + ⋅ + ⋅ + ⋅ =∑
== 220 EXm =∑
i.i
2i px
2 2 2 2 22 0,17 2,5 0,26 3 0,19 3,5 0,17 4 0,21⋅ + ⋅ + ⋅ + ⋅ + ⋅ = 9,4575
== 202 EYm 2 2 2 2 2 2
j . jj
y p 5 0,2 6 0,3 7 0,25 8 0,1 9 0,15= ⋅ + ⋅ + ⋅ + ⋅ + ⋅ =∑ 46,60
( ) == XYEm11 ∑∑i j
ijji pyx +⋅⋅+⋅⋅+⋅⋅= 02,07205,0621,052
2,5 5 0,08 2,5 6 0,15 2,5 7 0,03 3 5 0,02 3 6 0,08
3 7 0,05 3 8 0,02 3 9 0,02 3,5 6 0,02 3,5 7 0,05
3,5 8 0,05 3,5 9 0,05 4 7 0,01 4 8 0,03 4 9 0,08 20,725
+ ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ +
+ ⋅ ⋅ + + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ +
+ ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ =
=−= 21020
2X mmσ 9,4575 22,995 0,49− = , Xσ 0,49 0,7= =
=−= 20102
2Y mmσ 46,6 26,7 4,71− = , Yσ 1,71 1,3= =
( ) =Y,Xcov 11 10 01m m m 20,725 2,995 6,70 0,66− = − ⋅ = 1,46
X Y
cov(X, Y) 0,66ρ 0,72
σ σ 0,7 1,3= = =
⋅
Widzimy, Ŝe współczynnik korelacji zmiennych losowych X i Y jest dość wysoki, więc ma sens aproksymacja zaleŜności tych zmiennych losowych zaleŜnością liniową, czyli wyznaczenie regresji liniowej II rodzaju
YY
X
σ 1,3α ρ 0,72
σ 0,7= = ⋅ =1,35,
Y 01 Y 10m m 6,7 1,35 2,995 2,65β = − α = − ⋅ =
y 1,35x 2,65= + równanie prostej regresji II rodzaju zm. los. Y względem zm. los. X
Y 1,35X 2,65= + regresja liniowa II rodzaju zm. los. Y względem zm. los. X
Współczynnik Yα 1,35= oznacza, Ŝe wzrostowi ceny jednostki towaru o 1 zł odpowiada średni
wzrost podaŜy o 1,35 tys. sztuk towaru. Natomiast współczynnik Yβ 2,65= nie ma interpretacji
ekonomicznej.
Wartości liniowej regresji II rodzaju i regresji I rodzaju (patrz przykład 8.4) zmiennej losowej Y dla wszystkich wartości zmiennej losowej X przedstawia tabela
ix 2 2,5 3 3,5 4
i iy 1,35x 2,65= + 5,4 6,0 6,7 7,4 8,1
)x(my i2i = 5,5 5,8 6,7 7,8 7,6
Obie regresje przedstawione są na rys. 8.5.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
71
Rys. 8.5
Jako miarę błędu aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y przyjmujemy wartość funkcji )βα,(g w punkcie )β,(α YY .
MoŜna obliczyć, Ŝe
)ρ1(σ)β,α(g 22YYY −=
Z drugiej strony 2
YY )YY(E)β,α(g −=
czyli jest momentem rzędu 2 zmiennej losowej YYZ −= , a poniewaŜ
0)mαm(mαm
bEXαm)bXα(EmYEEYEZ
10Y0110Y01
YY01YY01
=−−−=
=−−=+−=−=
więc )β,α( YYg jest wariancją zmiennej losowej YYZ −= . Oznaczmy ją 2Zσ i nazywamy
wariancją resztową zmiennej losowej Y. Zatem:
Miara błędu aproksymacji zmiennej losowej Y liniową regresją II rodzaju Y jest równa wariancji 2
Zσ zmiennej losowej YYZ −= (wariancji resztowej) i wyraŜa się wzorem
2Zσ = )ρ1(σ 22
Y −
Wnioski
1. Błąd aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y jest największy, gdy współczynnik korelacji ρ zmiennych losowych X i Y jest równy zeru, tzn. gdy te zmienne są nieskorelowane. Wtedy takŜe współczynnik Yα 0= , co oznacza, Ŝe prosta regresji jest
równoległa do osi Ox.
2. Błąd aproksymacji zmiennej losowej Y regresją liniową II rodzaju Y jest najmniejszy (równy zeru), gdy współczynnik korelacji ρ zmiennych losowych X i Y ma moduł równy jeden. Wtedy zmienne losowe są zaleŜne liniowo (z prawdopodobieństwem 1).
Wariancja resztowa jest bezwzględną miarą błędu aproksymacji zmiennej losowej Y regresją
liniową II rodzaju Y . W praktyce wygodniej posługiwać się miarami względnymi. Skonstruujemy
taką miarę. Mamy
( ) ( )0101 mYYYmY −+−=−
Podnosimy do kwadratu obie strony tej równości.
( ) ( ) ( )( )01
2
01
2201 mYYY2mYYY)mY( −−+−+−=−
i obliczmy wartości oczekiwane
( ) ( ) ( )( )[ ]01
2
01
2201 mYYYE2mYEYYE)mY(E −−+−+−=−
RACHUNEK PRAWDOPODOBIEŃSTWA
72
Lewa strona powyŜszej równości jest wariancją zmiennej losowej Y (oznaczenie 2Yσ ), pierwszy
składnik prawej strony, to znana nam wariancja resztowa 2Zσ , drugi składnik jest wariancją
liniowej regresji II rodzaju Y ( oznaczenie 2
Yσ ), bowiem
( ) 01010101 mammamEXXEYE =−+=β+α=β+α=
Natomiast trzeci składnik, jak moŜna wykazać jest równy zeru. Zatem 2
Yσ = 2Zσ + 2
Yσ równość wariancyjna
Podzielimy obie strony tej równości przez 2Yσ
12
Y
2
Y2
Y
2Z =
σ
σ+
σ
σ
Oznaczmy
=ϕ22
Y
2Z
σ
σ
Liczba 2ϕ jest miarą względną błędu aproksymacji zmiennej losowej Y liniową regresją II Y i ma
własności
1. 2ϕ = 21 ρ− (bo 2Zσ = )ρ1(σ 22
Y − )
2. ≤0 2ϕ 1≤ ( wynika to z równości 12
Y
2Y
2Y
2Z =
σ
σ+
σ
σ)
3. 2ϕ = 0 wtedy i tylko wtedy, gdy zmienne losowe są zaleŜne liniowo,
4. 2ϕ =1 wtedy i tylko wtedy, gdy zmienne losowe X i Y są nieskorelowane.
Oznaczmy
=ν 22
Y
2
Y
σ
σ
Liczba 2ν jest miarą względną stopnia zdeterminowania wartości zmiennej losowej Y przez
wartości regresji Y i ma własności
1. 2ν = 2ρ (bo +2ϕ 2ν = 1 i 2ϕ = 21 ρ− )
2. ≤0 2ν 1≤
3. 2ν = 0 wtedy i tylko wtedy, gdy zmienne losowe X i Y są nieskorelowane
4. 2ν =1 wtedy i tylko wtedy, gdy zmienne losowe są zaleŜne liniowo.
Liczba 2ν bywa nazwana współczynnikiem determinacji, bowiem podaje ona w jakim stopniu
wartości zmiennej losowej Y są zdeterminowane wartościami Y regresji liniowej II rodzaju. Wtedy liczbę 2ϕ nazywamy współczynnikiem indeterminacji. Podaje on w jakim stopniu wartości
zmiennej losowej Y są zdeterminowane przez inne przyczyny niŜ regresja. ZauwaŜmy jeszcze, Ŝe dla ρ>0 mamy Ya 0> , więc zmienną losową Y aproksymujemy zaleŜnością
liniową rosnącą, natomiast, gdy ρ<0, to zmienną losową Y aproksymujemy zaleŜnością liniową
malejącą. W pierwszym przypadku mówimy, Ŝe zmienne losowe są skorelowane dodatnio,
w drugim przypadku, Ŝe są skorelowane ujemnie.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
73
Wniosek Wartość bezwzględna współczynnika korelacji informuje nas o sile związku liniowego
zmiennych losowych, natomiast znak współczynnika korelacji o tym czy związek ten jest rosnący
czy malejący.
Przykład 8.7
Dla danych z przykładu obliczymy współczynniki determinacji i indeterminacji zmiennej losowej Y.
Rozwiązanie
W przykładzie 8.6 obliczyliśmy, Ŝe ρ = 0,72, zatem 2ν = 2ρ = 0,72 2 = 0,52 współczynnik determinacji 2ϕ = 21 ρ− = 0,48 współczynnik indeterminacji.
Interpretacja Popyt na towar jest w 52% zdeterminowany przez cenę jednostki towaru i w 48% przez inne czynniki ( np. przez czynniki losowe).
MoŜna takŜe wprowadzić pojęcie regresji liniowej II rodzaju cechy X względem cechy Y. Mianowicie:
Regresja liniowa II rodzaju zmiennej losowej X względem zmiennej losowej Y jest to zmienna
losowa
XX βYαX +=
gdzie liczby XX βiα są wyznaczone tak, by funkcja
[ ]2)βα()βα,( +−= YXEg
miała w punkcie )β,α( XX wartość najmniejszą.
Prostą o równaniu
XX βyαx +=
nazywamy prostą regresji II rodzaju zmiennej losowej X względem zmiennej losowej Y.
Liczby XX βiα nazywamy współczynnikami prostej regresji II rodzaju cechy X względem cechy
Y. Współczynnik Xα oznacza średni przyrost zmiennej losowej X, gdy zmienna losowa Y wzrośnie
o jednostkę, natomiast współczynnik Xβ jest odciętą punktu przecięcia prostej
regresji XX βyαx += z osią Ox.
Współczynniki regresji liniowej zmiennej losowej X względem zmiennej losowej Y wyraŜają się wzorami
ρσ
σα
Y
XX = , 01X10X mαmβ −= współczynniki regresji liniowej X względem Y
yρσ
σx
Y
X= + 01Y
X10 mρ
σ
σm − równanie prostej regresji II rodzaju X względem Y
Yρσ
σX
Y
X= + 01Y
X10 mρ
σ
σm − regresja liniowa II rodzaju liniowa X względem Y
Miarą bezwzględną aproksymacji zmiennej losowej X liniową regresją II rodzaju jest wariancja
zmiennej losowej XXU −=
2Uσ = 2
Xσ )1( 2ρ− wariancja resztowa zmiennej losowej X
RACHUNEK PRAWDOPODOBIEŃSTWA
74
PoniewaŜ współczynnik korelacji zmiennych losowych Y i X jest taki sam jak zmiennych losowych X i Y, więc współczynnik determinacji zmiennej losowej X jest taki sam jak zmiennej losowej Y. To samo dotyczy współczynnika indeterminacji.
Przykład 8.8
Dla zmiennej losowej dwuwymiarowej (X,Y) z przykładu 8.6 wyznaczymy prostą regresji II rodzaju cechy X względem cechy Y.
Rozwiązanie
Posługujemy się wielkościami obliczonymi w tym przykładzie :
ρσ
σα
Y
XX = =
0,700,72 0,39
1,3⋅ = , 01X10X mαmβ −= = 2,995 0,39 6,7− ⋅ = 0,41
x 0,39y 0,41= + równanie prostej regresji II rodzaju zmiennej losowej X względem zmiennej losowej Y.
Na rysunku 8.6 przedstawione są obie proste regresji II rodzaju zmiennej losowej Y względem zmiennej losowej X i zmiennej losowej Y względem zmiennej losowej X.
Rys. 8.6
Oznaczenia do rysunku: 1) Prosta regresji liniowej II rodzaju zmiennej losowej Y względem zmiennej losowej X 2) Prosta regresji liniowej II rodzaju zmiennej losowej X względem zmiennej losowej Y
Uwagi
1. Proste regresji II rodzaje zmiennej losowej Y względem zmiennej losowej X oraz zmiennej losowej X względem zmiennej losowej Y są na ogół róŜnymi prostymi.
2. Obie proste regresji II rodzaju przecinają się w punkcie ),( 0110 mm . 3. Jeśli moduł współczynnika korelacji jest równy 1, to obie proste regresji II rodzaju pokrywają
się. 4. Jeśli zmienne losowe są nieskorelowane, to proste regresji II rodzaju są prostopadłe
i równoległe do osi układu.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
75
9. PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA
W wielu problemach probabilistycznych znajomość rozkładów prawdopodobieństwa jest kluczowa. Wiedza o tych rozkładach jest niezbędna do rozwiązania szeregu praktycznych problemów, m.in. dotyczących oszacowania określonych charakterystyk zmiennych losowych, czy teŜ symulowania lub prognozowania ich wartości. Znajomość rozkładów prawdopodobieństwa określonych zmiennych losowych warunkuje takŜe rozwiązanie szeregu problemów teoretycznych statystyki matematycznej w zakresie estymacji parametrów czy weryfikacji hipotez.
9.1. Rozkłady skokowe
9.1.1. Rozkład jednopunktowy
Rozkład jednopunktowy w punkcie c, zwany takŜe rozkładem Diraca, jest to rozkład prawdopodobieństwa zmiennej losowej skokowej X o funkcji prawdopodobieństwa
( ) 1cXP == czyli
( ) 0cXP =≠
Dystrybuanta rozkładu jednopunktowego ma postać
>
≤=
cdla x
cdla x
1
0)x(F
Wartość oczekiwana EX = c, a wariancja D2X=0. NaleŜy podkreślić, Ŝe rozkład jednopunktowy jest jedynym rozkładem o wariancji równej zeru (nie ma rozproszenia od wartości oczekiwanej).
9.1.2. Rozkład dwupunktowy
Zmienna losowa X ma dwupunktowy rozkład prawdopodobieństwa z parametrami a, b i p, jeŜeli ma funkcję prawdopodobieństwa
( )
=
=−==
bdla x
adla x
p
p1xXP a < b
Dystrybuanta rozkładu dwupunktowego ma postać
( )
>
≤<
≤
−=
b dla x
bx dla a
a dla x
1
p1
0
xF
Wartość oczekiwana pba)p1(EX +−= ; wariancja ( )( )22 bap1pXD −−= .
JeŜeli a = 0 i b =1 to rozkład dwupunktowy nazywa się rozkładem zerojedynkowym.
Zmienne losowe o rozkładzie dwupunktowym są modelami słuŜącymi do opisu własności urządzeń dwustanowych, jak np. wszelkiego rodzaju układy przekaźnikowe.
Rozkładem dwupunktowym (zerojedynkowym) posługujemy się takŜe wtedy, gdy w doświadczeniu spodziewamy się tylko dwóch wyników. Jeden z nich czasami nazywamy sukcesem i spodziewamy się go z prawdopodobieństwem p . Drugi nazywamy niepowodzeniem lub poraŜką i jest on oczekiwany z prawdopodobieństwem p1q −= . Taka sytuacja moŜe dotyczyć losowego sprawdzania wyrobów. Wprowadzamy zmienną losową, która przyjmuje wartość 1, gdy wylosowany wyrób posiada określone wady, a 0 gdy Ŝadnych wad nie stwierdzono. Wtedy parametr p nazywany jest wadliwością partii.
RACHUNEK PRAWDOPODOBIEŃSTWA
76
Wartość oczekiwana i wariancja rozkładu zerojedynkowego są równe:
pq0p1EX
pq0p1EX222 =⋅+⋅=
=⋅+⋅=
Zatem
( ) qpp1pppmm 222
2 ⋅=−=−=−=σ
9.1.3. Rozkład dwumianowy
Schemat Bernoulliego Mówimy, Ŝe ciąg doświadczeń jest wykonany według schematu Bernoulliego, jeśli spełnione są dwa poniŜsze warunki:
a) w wyniku kaŜdego doświadczenia moŜe zajść zdarzenie A, zwane sukcesem lub zdarzenie do niego przeciwne A’ zwane poraŜką;
b) wyniki poszczególnych doświadczeń są niezaleŜne, przy czym prawdopodobieństwo sukcesu w kaŜdym doświadczeniu jest takie samo.
Tak więc poszczególne doświadczenia moŜna modelować zmiennymi losowymi niezaleŜnymi o tym samym rozkładzie zerojedynkowym z parametrem p będącym prawdopodobieństwem sukcesu w jednym doświadczeniu.
Tabela 9.1. Przykłady prób Bernoulliego
Lp Próby Bernoulliego Sukces PoraŜka
b) Rzut monetą Orzeł Reszka
c) Strzelanie do celu Trafienie Nie trafienie
d) Losowanie ze zwracaniem
sztuk towaru Sztuka wadliwa Sztuka dobra
Liczba sukcesów Niech zmienna losowa X oznacza liczbę sukcesów w n doświadczeniach Bernoulliego. MoŜna wykazać, Ŝe prawdopodobieństwo wystąpienia k sukcesów w n doświadczeniach wyraŜa się wzorem
P(X = k) =
k
n kp knq −
gdzie k = 0, 1,........, n, p jest prawdopodobieństwem sukcesu w jednym doświadczeniu
( )p 0;1∈ , zaś p1q −= jest prawdopodobieństwem poraŜki w tym doświadczeniu.
O zmiennej losowej X, której funkcja prawdopodobieństwa ma powyŜszą postać mówimy, Ŝe ma rozkład dwumianowy lub rozkład Bernoulliego z parametrami n i p. MoŜna obliczyć, Ŝe dla rozkładu dwumianowego
npq,npm 2 =σ= 17 Deska Galtona jest praktyczną wizualizacją schematu Bernoulliego. Jest to deska z rozmieszczonymi na kształt trójkąta gwoździami. Kulki spuszczane z góry odbijają się od gwoździ na róŜne strony, a ich ostateczne połoŜenie jest całkowicie losowe. JeŜeli przyjmiemy, Ŝe spadek w prawą stronę oznaczymy jako 1 (sukces), zaś spadek w lewo jako 0 (poraŜka), to deska Galtona moŜe słuŜyć jako przykład moŜliwości zdarzeń losowych - mało prawdopodobny jest spadek zawsze w lewą lub prawą stronę, a najbardziej prawdopodobna jest średnia wartość (mniej więcej równa liczba sukcesów i poraŜek). Rys. 9.1.
17 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
77
Zmienna losowa o rozkładzie dwumianowym moŜe być traktowana jako suma n zmiennych niezaleŜnych o takim samym rozkładzie dwupunktowym z parametrem p.
Przykład 9.1
Prawdopodobieństwo trafienia do celu w jednym strzale wynosi 4
3. Do celu oddano niezaleŜnie 6
strzałów. Obliczymy prawdopodobieństwo, Ŝe cel został trafiony: a) jeden raz, b) ani razu, c) co najmniej raz, d) co najwyŜej raz.
Rozwiązanie
Niech sukcesem będzie trafienie do celu w jednym strzale, zaś X zmienną losową oznaczającą liczbę celnych strzałów spośród 6 strzałów. Zmienna losowa ma rozkład dwumianowy
z parametrami n = 6, p = 4
3=0,75.
a) P(X = 1) =
1
6
4
35
4
1
= 2048
9 = 0,0044
Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr FAŁSZ (moŜna wpisać takŜe 0 – dotyczy to takŜe innych funkcji).
b) P(X = 0) =
0
6
0
4
3
6
4
1
= 4096
1 = 0,0002
Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
RACHUNEK PRAWDOPODOBIEŃSTWA
78
Tak jak poprzednio wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr FAŁSZ.
c) P(X ≥ 1) = 1 – P(X < 1) = 1 – P(X = 0) = 1 – 0,0002 = 0,9998
d) P(X ≤ 1) = P(X = 0) + P(X = 1) = 0,0002 + 0,0044 = 0,0046
Sposób obliczenia prawdopodobieństwa za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.DWUM wpisując wymagane dane i parametr PRAWDA (moŜna wpisać takŜe 0 – dotyczy to takŜe innych funkcji).
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
79
Przykład 9.2
Prawdopodobieństwo trafienia do celu w jednym strzale wynosi 0,6. Ile strzałów naleŜy oddać niezaleŜnie, aby z prawdopodobieństwem 0,95 lub większym, cel był trafiony co najmniej raz?
Rozwiązanie
Niech X oznacza liczbę celnych strzałów spośród n strzałów. Zgodnie z treścią zadania powinno być:
P(X ≥ 1) ≥ 0,95 ale
P(X ≥ 1) = 1 – P(X < 1) = 1 – P(X = 0) = 1 – ( n)4,0 więc
1 – ( n)4,0 ≥ 0,95 stąd
( n)4,0 ≤ 0,05 i po obliczeniu otrzymujemy, Ŝe n ≥ 4.
9.1.4. Rozkład geometryczny
Zmienna losowa X skokowa ma rozkład geometryczny z parametrem p, jeśli jej funkcja prawdopodobieństwa wyraŜa się wzorem:
( ) ( ) 1p0,...2,1np1pnXP 1n <<=−== −
Wartość oczekiwana: p
1EX = Wariancja:
22
p
p1XD
−=
Interpretacja. Zmienna losowa o rozkładzie geometrycznym oznacza numer doświadczenia Bernoulliego, w którym sukces wypadnie po raz pierwszy.
Przykład 9.3 W partii towaru, w której prawdopodobieństwo wylosowania sztuki wadliwej wynosi 0,35 naleŜy określić prawdopodobieństwo, Ŝe podczas losowania wadliwa sztuka pojawi się za trzecim razem.
2 2P(X 3) 0,35 (1 0,35) 0,35 0,65 0,147875= = ⋅ − = ⋅ = Sposób obliczeń za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.DWUM.PRZEC wpisując wymagane dane.
RACHUNEK PRAWDOPODOBIEŃSTWA
80
9.1.5. Rozkład Poissona
Zmienna losowa skokowa ma rozkład Poissona z parametrem λ, jeśli jej funkcja prawdopodobieństwa wyraŜa się wzorem:
( ) 0,...,2,1,0,!
>=== − λλ λ
kek
kXPk
Rozkład Poissona jest stablicowany (patrz tablica w punkcie 2 części VII). Parametr λ jest wartością oczekiwaną oraz wariancją zmiennej losowej X.
Zgodnie z lokalnym twierdzeniem Poissona (patrz pkt 8.3.) moŜna w prosty sposób obliczyć przybliŜoną wartość prawdopodobieństwa w rozkładzie Bernoulliego, przy duŜej liczbie prób i niskim prawdopodobieństwie sukcesu, w oparciu o rozkład Poissona w sposób następujący
( ) λλ −− ≈
== e
kqp
k
nkXP
kknk
n ! (przybliŜenie Poissona)
gdzie np=λ .
Przykład 9.4
Wadliwość produkcji oporników wynosi 0,015. Obliczymy prawdopodobieństwo, Ŝe w pudełku liczącym 200 oporników będą dwa wadliwe.
Rozwiązanie
Niech X będzie zmienną losową oznaczającą liczbę oporników wadliwych w pudełku liczącym 200 sztuk. NaleŜy obliczyć P(X = 2). PoniewaŜ X ma rozkład dwumianowy o parametrze p=0,015, więc:
( ) 1982 985,0015,02
2002XP ⋅⋅
==
Wartość powyŜszego wyraŜenia obliczamy stosując przybliŜenie Poissona. Mamy 3015,0200np =⋅= , więc:
( ) 32
1982
!2
3985,0015,0
2
2002 −≈⋅⋅
== eXP
Z tablicy rozkładu Poissona (pkt 2) dla k=2 i λ= 3 odczytujemy wartość P(X=2)=!2
3 32 −e
= 0,2240
i ostatecznie otrzymujemy, Ŝe P(X = 2) = 0,2240
Lokalne twierdze Poissona (patrz pkt 7.3.) wyjaśnia genezę rozkładu Poissona, mianowicie rozkład ten jest granicą ciągu rozkładów dwumianowych. Inne wyjaśnienie jest następujące:
RozwaŜmy pewne zjawisko i zdarzenie, które moŜe zachodzić w losowych chwilach np. • Zjawisko – rozpad radioaktywny, zdarzenie - wyemitowanie cząsteczki α • Zjawisko – obsługa rozmów telefonicznych zgłaszanych do centrali, zdarzenie – zgłoszenie
rozmowy do centrali. • Produkcja na automatycznej linii detali, zdarzenie – wyprodukowanie detalu wadliwego.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
81
Niech Xt będzie zmienną losową oznaczającą liczbę wystąpień wyróŜnionego zdarzenia w czasie od 0 do t (w czasie t). Zakładamy, Ŝe spełnione są warunki: • Liczby wystąpień tego zdarzenia w rozłącznych przedziałach czasu są zmiennymi losowymi
niezaleŜnymi, dla dowolnie wielu tych przedziałów, czyli dla losowo wybranych chwil
o 1 2 nt t t ... t< < < < zmienne losowe t t t t t t t0 1 0 2 1 n n 1X , X X , X X ,...., X X
−− − − są niezaleŜne.
• Dla dowolnego przedziału czasu prawdopodobieństwo wystąpienia zdarzenia w przedziale czasu zaleŜy tylko od jego długości.
• Prawdopodobieństwo wystąpienia zdarzenia tylko jeden raz w krótkim przedziale czasu o długości t wynosi
( )tot +λ gdzie o(t) dąŜy do zera szybciej niŜ t, tzn.
0t
)t(olim
0t=
→
• Dla przedziału o krótkiej długości t prawdopodobieństwo wystąpienia zdarzenia więcej niŜ raz wynosi o(t). Oznacza to, Ŝe zdarzenia nie mogą zachodzić parami.
• W chwili t = 0 wyróŜnione zdarzenie nie wystąpiło, czyli 0P(X 0) 1= =
MoŜna udowodnić, Ŝe przy spełnieniu powyŜszych warunków zmienna losowa Xt ma rozkład Poissona z parametrem λt, czyli prawdopodobieństwo, Ŝe w czasie t zdarzenie zajdzie k razy wyraŜa się wzorem
( )k
tt
( t)P X k e , k 0,1,2,..., 0 , t 0
k!−λλ
= = = λ > ≥
2t tEX t, D X t= λ = λ
Z powyŜszych równości wynika, Ŝe parametr λ jest średnią liczbą wystąpień zdarzenia w czasie jednostki czasu, jak równieŜ wariancją liczby tych wystąpień.
Przykład 9.5
Badano występowanie awarii urządzenia elektronicznego. Na podstawie wielokrotnych obserwacji ustalono, Ŝe średnia liczba awarii na godzinę wynosi 0,001 oraz, Ŝe spełnione są warunki przedstawione powyŜej. Zatem zmienna losowa Xt oznaczająca liczbę awarii w czasie t ma rozkład Poissona z parametrem 0,001t. NaleŜy obliczyć, Ŝe w czasie 2000 godzin: a) nie wystąpi awaria b) wystapią co najwyŜej dwie awarie. Rozwiązanie
a) Z tablicy rozkładu Poissona dla λ=2000 ⋅ 0,001=2 i k=0 odczytujemy P(X2000=0)=
135,0!0
2 20
=−e
Zatem prawdopodobieństwo, Ŝe w czasie 2000 godzin nie wystąpi awaria wynosi P( X2000 = 0) = 135,0
Sposób rozwiązania przykładu za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
RACHUNEK PRAWDOPODOBIEŃSTWA
82
Wykorzystano funkcję statystyczną ROZKŁAD.POISSON wpisując wymagane dane i parametr FAŁSZ.
b) Z tablicy rozkładu Poissona dla λ=2000 ⋅ 0,001=2 odczytujemy P(X2000=0)= 135,0!0
2 20
=−e
P(X2000=1)= 271,0!1
2 20
=−e P(X2000=2)= 271,0!2
2 20
=−e Zatem prawdopodobieństwo, Ŝe w
czasie 2000 godzin wystąpią co najwyŜej dwie wynosi P( X2000 ≤2) = P(X2000=0)+ P(X2000=1)+ P(X2000=2)=0,135 + 0,271 + 0,271 = 0,676
Sposób rozwiązania przykładu za pomocą arkusza kalkulacyjnego Excel ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.POISSON wpisując wymagane dane i parametr PRAWDA.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
83
9.1.6. Powiązanie rozkładów skokowych
Rys. 9.2 a
Rys. 9.2 b
Rozkład dwupunktowy
Rozkład zerojedynkowy
Rozkład dwumianowy
Rozkład geometryczny
Rozkład Poissona
Schemat Bernoulliego
Rozkład dwumianowy
84
9.2. Rozkłady ciągłe
9.2.1. Rozkład jednostajny
Rozkład jednostajny (zwany teŜ równomiernym lub prostokątnym) w przedziale (a ; b) jest to ciągły rozkład prawdopodobieństwa, dla którego gęstość prawdopodobieństwa w tym przedziale jest stałą dodatnią, a poza nim jest równa zeru.
PoniewaŜ rozkład jest ciągły, nie ma większego znaczenia czy punkty a i b włączy się do przedziału czy nie. Rozkład jest określony parą parametrów a i b, takich, Ŝe b>a.
Rozkład jednostajny w przedziale (a, b) jest to rozkład zmiennej losowej ciągłej o gęstości
( )0 dla x a lub x b
f x 1dla a x b
b a
< >
= < < −
a < b
Dystrybuanta wyraŜa się wzorem
( )
>
≤<−−
≤
=
bx dla 1
bxa dla ab
ax
ax dla 0
xF
Parametry rozkładu18
2
baEX
+= środek przedziału (a, b)
12
)ab(XD
22 −
= rozproszenie zaleŜy od długości przedziału
MoŜna wykazać, Ŝe jeŜeli X jest dowolną ciągłą zmienną losową o dystrybuancie F(x), to zmienna losowa Y = F(X) ma rozkład jednostajny w przedziale (0, 1).
Oznacza to, Ŝe kaŜda zmienna losowa ciągła o dystrybuancie F(x) moŜe być transformowana za pomocą przekształcenia Y = F(X) na zmienną losową o rozkładzie jednostajnym w przedziale [0,1]. Wykorzystuje się to zarówno w zastosowaniach teoretycznych (m.in. dowodzenie twierdzeń), jak i praktycznych (generowanie sygnałów losowych).
Zmienną losową o rozkładzie jednostajnym wykorzystuje się w metodzie Monte Carlo19. Wyobraźmy sobie, Ŝe chcemy wyznaczyć pole koła wpisanego w kwadrat. W tym celu za pomocą generatora rozkładu jednostajnego wyznaczamy wewnątrz kwadratu duŜo losowych punktów. Następnie zliczamy te punkty, które wpadają do wnętrza koła. Pole koła jest w przybliŜeniu równe:
Pn
nP 1
1 =
gdzie: P1 – pole koła P – pole kwadratu n1 – liczba punktów w kole Rys. 9.3 n – liczba wszystkich punktów
http://www.i-lo.tarnow.pl/edu/inf/alg/calki/pages/005.php
18 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami 19 Metoda Monte Carlo (MC) jest stosowana do modelowania matematycznego procesów zbyt złoŜonych, aby moŜna było
obliczyć ich wyniki za pomocą podejścia analitycznego. Istotną rolę w metodzie MC odgrywa losowanie (wybór przypadkowy) wielkości charakteryzujących proces, przy czym losowanie dotyczy rozkładów znanych skądinąd.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
85
9.2.2. Rozkłady normalne
Rozkład normalny jednowymiarowy
Rozkład normalny, zwany teŜ rozkładem Gaussa, jest jednym z najwaŜniejszych rozkładów prawdopodobieństwa. Pełni waŜną rolę zarówno w rozwaŜaniach teoretycznych, jak równieŜ w najrozmaitszych zastosowaniach. Rozkład ten jest często spotykany wśród zjawisk mających charakter przyrodniczy, fizyczny, ekonomiczny i techniczny. Przykładowo rozkładowi normalnemu podlegają:
• Losowe błędy pomiarów czy obserwacji; • Losowe odchyłki wartości cechy wyrobów od nominalnej (znamionowej) jej wartości; • Losowe zakłócenia w kanale nakładające się na przesyłane sygnały.
Zmienna losowa ciągła X ma rozkład normalny N(m, σ), jeśli jej gęstość wyraŜa się wzorem:
2(x m)221
f (x) e2
−−
σ=πσ
Rys 9.4
Gęstość rozkładu normalnego N(m,σ)
Wykres gęstości f(x) jest symetryczny względem prostej y = 020, ma maksimum w punkcie x = m
wynoszące 1/( 2 )πσ , zaś punkty x = m ±σ są punktami przegięcia tej funkcji.
Parametr m jest wartością oczekiwaną zmiennej losowej X, zaś σσσσ jest odchyleniem standardowym tej zmiennej
21. Na rys. 9.5 przedstawione są wykresy gęstości trzech zmiennych losowych o rozkładzie normalnym, przy czym wartość oczekiwana jest dla wszystkich zmiennych taka sama, zaś odchylenia standardowe są odpowiednio równe 1σ < 2σ < 3σ . Widać wyraźnie, Ŝe im mniejsze jest
odchylenie standardowe σ, tym rozkład jest bardziej skupiony dokoła wartości oczekiwanej. Jest to zgodne z wcześniej podaną interpretacją parametru σ.
Rys.9.5
20 Dowód podano w punkcie 20.6. części VII Wybrane twierdzenia z dowodami 21 Dowód podano w przykładzie zamieszczonym w punkcie 22.2. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
86
Zmienna losowa Y o rozkładzie normalnym N(0,1) ma gęstość:
( )2x
21f x e
2
−=
π
Rys.9.6
Gęstość rozkładu normalnego N(0,1)
Dystrybuanta tej zmiennej wyraŜa się wzorem:
( )2tx21
x e dt2
−
−∞
Φ =π∫
PoniŜszy rysunek pokazuje wykres dystrybuanty rozkładu normalnego N(0, 1). Wartości tej dystrybuanty są pokazane takŜe na rysunkach 9.5 i 9.7
Rys. 9. 7
Dystrybuanta rozkładu normalnego N(0,1)
Funkcje f(x) i Ф(x) są stablicowane dla argumentów z przedziału <0; 4,99) (patrz tablice w punktach 3 i 4). Dla argumentów co najmniej równych 5 gęstość jest praktycznie równa 0, natomiast dystrybuanta 1. Przy obliczaniu wartości tych funkcji dla x ujemnych korzystamy ze wzorów:
f(-x) = f(x)
Ф(-x) = 1 - Ф(x)
Pierwszy wzór jest oczywisty, drugi jest zilustrowany na rys 9.8
Rys 9.8
Ф(x)
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
87
Przykład 9.6
Zmienna losowa X ma rozkład normalny N(0 ,1). Obliczymy prawdopodobieństwa P(X 2), P( 1 X 3), P(X 6).< − − ≤ < ≥
Rozwiązanie
P(X 2) ( 2) 1 (2)< − = Φ − = − Φ Z tablicy 4 odczytujemy wartość Φ(2)=0,97725
Zatem
P(X 2) ( 2) 1 (2) 1 0,97725< − = Φ − = − Φ = − = 0,02275.
Wartość dystrybuanty moŜna otrzymać takŜe arkusza kalkulacyjnego Excel, ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.NORMALNY.S22 wpisując wartość argumentu.
Postępując analogicznie otrzymujemy
18413,09987,01)1()3()1()3()31( −+=−Φ+Φ=−Φ−Φ=<≤− XP ==0,8400 011)6(1)6(1)6( =−=Φ−=<−=≥ XPXP
Standaryzacja
Jeśli zmienna losowa X ma rozkład normalny N(m,σ), to zmienna losowa
X mY
σ
−=
ma rozkład normalny N(0, 1), czyli przez standaryzację zmiennej losowej X o rozkładzie normalnym
N(m,σ) otrzymujemy zmienną losową standaryzowaną Y o rozkładzie normalnym N(0,1)23.
22 Wartość dystrybuanty dla rozkładu normalnego N(m,σ) moŜna otrzymać wykorzystując funkcję
ROZKŁAD.NORMALNY 23 Dowód dla dowolnego rozkładu podano w punkcie 20.5. części VII Wybrane twierdzenia z dowodami
RACHUNEK PRAWDOPODOBIEŃSTWA
88
Przykład 9.7
Czas naprawy pewnego urządzenia (w godzinach) jest losową X o rozkładzie normalnym N(8,2). Obliczymy prawdopodobieństwa P(X 5), P(6 X 11)< ≤ ≤ , P(X 12).> Rozwiązanie
X 8 5 8P(X 5) P P(Y 1,5) ( 1,5) 1 ( 1,5) 1 0,93319 0,06681
2 2
− − < = < = < − = Φ − = − Φ − = − =
P(6 X 11)≤ ≤ =6 8 X 8 11 8
P2 2 2
− − − ≤ < =
P( 1 Y 1,5)− ≤ ≤ =
(1,5) ( 1) (1,5) (1) 1 0,9332 0,8413 1= Φ − Φ − = Φ + Φ − = + − = 0,7745
X 8 12 8P(X 12) P P(Y 2) 1 (2) 0,02275
2 2
− − > = > = > = − Φ =
Obliczone prawdopodobieństwa zilustrowane są na rys. 9.9
Rys. 9.9
Interpretacja otrzymanych prawdopodobieństw: • około 6,7% napraw wykonywanych jest w czasie krótszym od 5 godzin, • około 77,5% napraw wykonywanych jest w czasie od 6 do 11 godzin, • około 2,3% napraw wykonywanych jest w czasie dłuŜszym od 12 godzin.
Przykład 9.7a
Czas naprawy pewnego urządzenia (w godzinach) jest losową X o rozkładzie normalnym N(8,2). Wymagamy, aby prawdopodobieństwo naprawy wynosiło 0,9. Jaki czas na naprawę naleŜy w tym przypadku zarezerwować?
Rozwiązanie
Szukany czas wyznaczamy z równania
gr grgr
x 8 x 8X 8P(X x ) P ( ) 0,9
2 2 2
− − −< = < = Φ =
Z tabeli … odczytujemy argument dystrybuanty dla którego jest ona równa 0,9
Zatem równanie do wyznaczenia xgr ma postać
grx 81,28
2
−=
Czyli grx 2 1,28 8 2,56 8 10,56= ⋅ + = + =
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
89
Argument dystrybuanty moŜna otrzymać takŜe arkusza kalkulacyjnego Excel, ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.NORMALNY.ODW24 wpisując wymagane dane.
Przykład 9.8
Zmienna losowa X ma rozkład normalny N(m,σ). Obliczymy prawdopodobieństwo a) P( X m kσ)− < , gdzie k 0> , następnie prawdopodobieństwa b) P( X m σ)− < ,
c) P( X m 2σ),− < d) P( X m 3σ)− < .
Rozwiązanie.
a) P( X m kσ)− < = ( ) X mP kσ X m kσ P k k (k) ( k) 2 (k) 1
σ
− = − < − < = − < < == Φ − Φ − = Φ −
Stąd b) P( X m σ) 2 (1) 1 2 0,8413 1 0,6826 68%− < = Φ − = ⋅ − = ≈
c) P( X m 2σ) 2 (1) 1 2 097725 1 0,9545 95%− < = Φ − = ⋅ − = ≈
d) P( X m 3σ) 2 (3) 1 2 0,998650 1 0,9973 99,73%− < = Φ − = ⋅ − = ≈
PowyŜsze prawdopodobieństwa zilustrowane są na rys. 9.10
Rys 9.10
24 Argument dystrybuanty dla rozkładu normalnego N(0,1) moŜna otrzymać wykorzystując funkcję
ROZKŁAD.NORMALNY.S.ODW
RACHUNEK PRAWDOPODOBIEŃSTWA
90
Teoretycznie zmienna losowa o rozkładzie normalnym przyjmuje wartości od −∞ do + ∞ , praktycznie jednak prawie wszystkie wartości tej zmiennej (około 99,73%) naleŜą do przedziału (m 3σ;m 3σ)− + , czyli do otoczenia wartości oczekiwanej o promieniu równym trzem odchyleniom standardowym (reguła trzysigmowa). Długość tego przedziału zaleŜy od wartości σ, co jeszcze raz potwierdza interpretację tego parametru.
Przykład 9.9 Przypuśćmy, Ŝe wzrost męŜczyzn jest modelowany zmienną losową X o rozkładzie normalnym N(175 cm, 5 cm). Uwzględniając wyniki otrzymane w przykładzie 9.8 moŜemy stwierdzić, Ŝe około 68% męŜczyzn ma wzrost od 170 cm do 180 cm, około 95% męŜczyzn ma wzrost od 165 do 185 cm, natomiast około 99,73% męŜczyzn ma wzrost od 160 do 190 cm. Zgodnie z regułą trzech sigm przedziałem typowego wzrostu męŜczyzn jest przedział (160 cm; 190 cm). ZauwaŜmy, Ŝe
X 175 0 175P(X 0) P ( 37)
5 5
− − < = < = Φ −
>0
czyli w przyjętym modelu prawdopodobieństwo, Ŝe męŜczyzna ma wzrost ujemny jest dodatnie, jednak jest niewyobraŜalnie małe. Dlatego róŜnica między zjawiskiem a jego modelem jest w tym przypadku niewielka, niemniej zdarzenie, Ŝe X < 0 nie jest w tym modelu zdarzeniem niemoŜliwym. Widzimy, Ŝe zjawisko i jego matematyczny model mogą się róŜnić, model doświadczenia losowego jest idealizacją i uproszczeniem tego doświadczenia.
Rozkład normalny odgrywa wyjątkowo wielką rolę w rachunku prawdopodobieństwa zarówno teoretyczną jaki i praktyczną, bowiem wiele twierdzeń w rachunku prawdopodobieństwa jest prawdziwych przy załoŜeniu, Ŝe zmienna losowa ma rozkład normalny oraz wiele waŜnych doświadczeń losowych moŜe być modelowanych tym rozkładem.
Podamy teraz jeszcze trzy waŜne własności rozkładu normalnego.
Jeśli zmienna losowa X ma rozkład normalny N(m,σ), to zmienna losowa
Y aX b= + a 0≠
ma rozkład normalny N(am + b, |a|σ), zatem funkcja liniowa zmiennej losowej o rozkładzie
normalnym ma rozkład normalny25
.
Jeśli zmienne losowe X i Y są niezaleŜne o rozkładach normalnych N(m1,σ1) i N(m2,σ2), to zmienna
losowa Z = X + Y ma rozkład normalny 2 21 2 1 2N(m m , σ σ )+ + , czyli suma zmiennych losowych
niezaleŜnych o rozkładach normalnych ma rozkład normalny26
.
Jeśli zmienne losowe X i Y są niezaleŜne o rozkładach normalnych N(m1,σ1) i N(m2,σ2), to zmienna
losowa Z = X - Y ma rozkład normalny 2 21 2 1 2N(m m , σ σ )− + , czyli róŜnica zmiennych losowych
niezaleŜnych o rozkładach normalnych ma rozkład normalny.
Przykład 9.10
Cena jednostkowa pewnego towaru jest zmienną losową X o rozkładzie normalnym N(20,2). PodaŜ Y tego towaru zaleŜy od ceny jednostkowej: Y = 5X+10. Obliczymy prawdopodobieństwo, Ŝe podaŜ nie przekroczy 150.
Rozwiązanie
Zmienna losowa Y ma rozkład normalny N(5 20 10, 5 2)⋅ + ⋅ = )10,110(N .
Zatem Y 110 150 110
P(Y 150) P (4) 0,9999710 10
− − ≤ = ≤ = Φ =
Odp. Prawdopodobieństwo, Ŝe podaŜ nie przekroczy 150 wynosi 0,99997. Prawdopodobieństwo to jest bardzo duŜe, więc moŜna uznać, iŜ jest praktycznie pewne zajście tego zdarzenia.
25 Dowód podano w punkcie 20.7. części VII Wybrane twierdzenia z dowodami 26 Dowód podano w punkcie 20.7. części VII Wybrane twierdzenia z dowodami
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
91
Przykład 9.11
Urządzenie złoŜone z dwóch bloków pracuje w ten sposób, Ŝe najpierw włączony jest pierwszy blok, a w chwili zepsucia się tego bloku włącza się drugi blok. Czasy pracy poszczególnych bloków są niezaleŜnymi zmiennymi losowymi o rozkładach normalnych N(60h, 4h) i N(80h, 3h). Obliczymy prawdopodobieństwo, Ŝe urządzenie będzie pracować co najmniej 160h.
Rozwiązanie
Niech X będzie zmienną losową oznaczającą czas pracy pierwszego bloku, Y czas pracy drugiego bloku, zaś Z czas pracy urządzenia. Z treści zadania wynika, Ŝe Z = X + Y, więc zmienna losowa Z
ma rozkład normalny N( 60+80 h, h)34 22 + = N(140 h, 5 h) oraz, Ŝe naleŜy obliczyć P(Z 150).≥ Zatem
Z 140 150 140P(Z 150) P 1 (2) 1 0,97725 0,02275
5 5
− − ≥ = ≥ = − Φ = − =
Odp. 2,3%.
Jedną z najwaŜniejszych własności rozkładu normalnego jest fakt, Ŝe przy pewnych załoŜeniach rozkład sumy duŜej liczby zmiennych losowych jest w przybliŜeniu normalny. Są to tak zwane centralne twierdzenia graniczne – patrz rozdział 8.
Rozkład normalny dwuwymiarowy
Dwuwymiarowa zmienna losowa (X, Y) ma rozkład normalny dwuwymiarowy ),,,m,m(N 2121 ρσσ , jeśli jej gęstość wyraŜa się wzorem:
f(x, y) =
σ
−+
σσ
−−ρ−
σ
−
ρ−−
ρ−σπσ
22
2)2my(
21
)2my)(1mx(2
21
2)1mx(
)21(2
1
221
e12
1
Znaczenie parametrów występujących w powyŜszym wzorze jest następujące: 1m = EX,
2m = EY, 21σ = XD2 , 2
2σ = YD2 , ρ - współczynnik korelacji zmiennych losowych X i Y.
Własności dwuwymiarowego rozkładu normalnego: Jeśli (X,Y) ma rozkład ),,,m,m(N 2121 ρσσ , to
• X ma rozkład N( 1m , 1σ )
• Y ma rozkład N( 2m , 2σ ).
• Zmienne losowe nieskorelowane są niezaleŜne • Regresja I rodzaju jest funkcją liniową, a więc krzywe regresji I i II rodzaju pokrywają się.
Przykład 9.12
Dana jest gęstość dwuwymiarowej zmiennej losowej (X,Y) o rozkładzie normalnym 2w / 21
f (x, y) e9,6
−=Π
gdzie2 2
2 1 (x 1) yw 0,2y(x 1)
0,36 4 16
−= − − +
a) Wyznaczymy parametry tego rozkładu. b) Wyznaczymy rozkłady brzegowe zmiennych losowych X i Y. c) Wyznaczymy krzywe regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X i
zmiennej losowej X względem zmiennej losowej Y.
RACHUNEK PRAWDOPODOBIEŃSTWA
92
Rozwiązanie
a) Wykładnik 2w moŜna zapisać w postaci 2 2
22 2 2
1 (x 1) x 1 y yw 2 0,8
2 41 0,8 2 4
− −= − ⋅ +
−
zaś 2w / 2
2
1f (x, y) e
2 2 4 1 0,8
−=Π ⋅ ⋅ −
Z powyŜszych równości odczytujemy, Ŝe 1 2 1 2m 1, m 0, σ 2, σ 4, ρ 0,8= = = = = . Zatem zmienna losowa dwuwymiarowa (X,Y) ma dwuwymiarowy rozkład normalny N(1, 0, 2, 4, 0,8).
b) Zmienna losowa X ma rozkład normalny N(1, 2), zaś zmienna losowa Y ma rozkład normalny N(0,4) .
c) PoniewaŜ krzywa regresji I rodzaju jest dla rozkładu normalnego dwuwymiarowego jest toŜsama z prostą regresji II rodzaju, więc krzywa regresji I rodzaju zmiennej losowej Y względem zmiennej losowej X jest linią prostą o równaniu
Y Yy x= α + β
gdzie
YY
X
σ 4ρ 0,8 1,6,
σ 2α = = ⋅ = Y 01 Y 10m m 0 1,6 1 1,6β = − α = − ⋅ = −
Zatem y 1,6x 1,6= −
jest równaniem prostej regresji I i II rodzaju zmiennej losowej Y względem zmiennej losowej X, natomiast krzywa regresji I rodzaju zmiennej losowej X względem zmiennej losowej Y jest prostą o równaniu
X xx y= α + β , gdzie
XX
Y
σ 2ρ 0,8 0,4,
σ 4α = = ⋅ = X 10 X 01m m 1 0,4 0 1β = − α = − ⋅ =
Zatem x 0,4y 1= +
jest równaniem prostej regresji I i II rodzaju zmiennej losowej X względem zmiennej losowej Y.
Przykład 9.13
Zmienna losowa X oznacza cenę jednostki towaru (w zł.), zaś zmienna losowa Y popyt na ten towar (w tys. sztuk). Wiadomo, Ŝe zmienna losowa dwuwymiarowa (X,Y) ma rozkład dwuwymiarowy normalny N(10, 30, 0,5, 1,5, - 0,9). Znajdziemy równanie prostej regresji zmiennej losowej Y względem zmiennej losowej X.
Rozwiązanie
Y Yy x= α + β gdzie
YY
X
σ 1,5ρ ( 0,9) 2,7,
σ 0,5α = = ⋅ − = − Y 01 Y 10m m 30 ( 2,7) 10 57β = − α = − − ⋅ =
zatem y 2,7x 57= − + to równanie prostej regresji I i II rodzaju zmiennej losowej Y względem zmiennej losowej X
Interpre tac ja współczynnika Y 2,7α = −
Jeśli cena jednostki towaru zwiększy się o 1 zł., to popyt na ten towar zmniejszy się o 2,7 tys. sztuk.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
93
Przykład 9.14
Zmienna losowa dwuwymiarowa ciągła (X,Y) ma gęstość 2 2(x 6) (y 4)
8 181f (x, y) e
12
+ −− −
=Π
Sprawdzimy, czy zmienne losowe X i Y są niezaleŜne.
Rozwiązanie
Daną gęstość moŜna zapisać w postaci 2 21 (x 6) (y 4)
2 22 2 31f (x, y) e
2 2 3
+ − − + =
Π ⋅ ⋅
zatem zmienna losowa dwuwymiarowa (X,Y) ma rozkład dwuwymiarowy normalny N(-6, 4, 2, 3,0). PoniewaŜ ρ=0, więc zmienne losowe X i Y są nieskorelowane, a dla rozkładu dwuwymiarowego normalnego oznacza, Ŝe są niezaleŜne. Odp. Zmienne losowe X i Y są niezaleŜne.
9.2.3. Rozkład wykładniczy
Zmienna losowa X ma rozkład wykładniczy z parametrem a, jeśli jej gęstość wyraŜa się wzorem:
( )axae dla x 0
f x0 dla x 0
− >=
≤ a > 0
MoŜna obliczyć, Ŝe m = EX = 1/a oraz σ2=D2X = 1/a2
Rozkład wykładniczy jest przykładowo modelem czasu Ŝycia atomu pierwiastka promieniotwórczego, czasu między dwoma kolejnymi wezwaniami w centrali telefonicznej, czasu między dwoma kolejnymi uszkodzeniami urządzenia (maszyny).
Rozkład wykładniczy jest rozkładem gamma dla p=1 i dowolnego, nieujemnego a.
9.2.4 Rozkład chi kwadrat
Niech zmienne losowe 1X , 2X , …, nX będą niezaleŜne i kaŜda z nich ma rozkład N(0, 1). O zmiennej losowej
nY = 21X + 2
2X + … + 2nX
mówimy, Ŝe ma rozkład 2χ (chi kwadrat) z n stopniami swobody.
Dowodzi się, Ŝe rozkład 2χ z n stopniami swobody jest szczególnym przykładem rozkładu gamma
==2
1a ,
2
np , więc gęstość zmiennej losowej nY wyraŜa się wzorem:
( )
n y1
2 2n2
1y e dla y 0
nf y 2 ( )2
0 dla y 0
− − >
= Γ ≤
Rozkład 2χ jest stablicowany (patrz tablica w punkcie 5 części VII). Z tablicy tej dla stopni swobody
1, 2, …,30 i niektórych wartości )1,0(∈α , odczytujemy liczbę αu taką, Ŝe:
P( nY ≥ αu ) = α Ilustruje to rysunek 6.11.
RACHUNEK PRAWDOPODOBIEŃSTWA
94
Rys. 6.11
Jeśli liczba stopni swobody jest większa od 30, to zmienna losowa nY2 ma w przybliŜeniu rozkład
normalny N( 1n2 − , 1).
Przykład 6.15
a) Zmienna losowa Y17 ma rozkład 2χ z 17 stopniami swobody. Obliczyć P( 17Y ≥ 10).
b) Zmienna losowa 61Y ma rozkład 2χ z 61 stopniami swobody. Obliczyć P( 61Y ≥ 50).
Rozwiązanie
a) Z tabeli 5 odczytujemy dla liczby stopni swobody r = 17 wartość α dla której P(Yr ≥ 10) = α
Zatem szukane prawdopodobieństwo P( 17Y ≥ 10) jest równe 0,9
Prawdopodobieństwo moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.CHI27 wpisując wymagane dane.
b) Przy obliczeniu prawdopodobieństwa skorzystamy z faktu, Ŝe zmienna losowa 61Y2 ma w
przybliŜeniu rozkład N(11, 1) i wykorzystamy tablicę 4 z częśći VII
P( 61Y ≥ 50) = P( 61Y ≥ 100) = P( 61Y2 ≥ 10) = P( 61Y2 - 11 ≥ -1) =
= 1 - Ф(-1) = Ф(1) = 0,8413
27 Argument moŜna otrzymać wykorzystując funkcję ROZKŁAD.CHI.ODW po podaniu prawdopodobieństwa i stopni
swobody
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
95
Dokładną wartość prawdopodobieństwo moŜna otrzymać za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy rysunek
Tak jak poprzednio wykorzystano funkcję statystyczną ROZKŁAD.CHI wpisując wymagane dane.
9.2.5. Rozkład Studenta
Niech zmienne losowe X i nY będą zmiennymi losowymi niezaleŜnymi X o rozkładzie normalnym
N(0, 1), zaś nY o rozkładzie 2χ z n stopniami swobody. O zmiennej losowej:
nY
XT
n
n =
mówimy, Ŝe ma rozkład Studenta z n stopniami swobody. Gęstość zmiennej losowej nT wyraŜa się wzorem:
g(t) = 2
1n
nt )1(
1
)2
n(n
)2
1n(
2+
+Γπ
+Γ
Wykres gęstości g(t) jest symetryczny względem prostej t = 0 i ma kształt zbliŜony (szczególnie dla duŜych n) do wykresu gęstości rozkładu normalnego N(0, 1) (rys.6.12) Rozkład Studenta jest stablicowany (patrz tablica w punkcie 6 części VII). Z tablicy tej dla stopni swobody 1, 2, ..., 30, 40, 60, 120 i niektórych wartości )1,0(∈α , odczytujemy liczbę αt taką, Ŝe: P(| nT | ≥ αt ) = α.
Rys. 6.12
Ilustruje to rysunek 6.12. W ostatnim wierszu tej tablicy podane są graniczne prawdo-podobieństwa, gdy liczba stopni swobody dąŜy do nieskończoności. Są to prawdopodobień-stwa obliczane wg rozkładu normalnego N(0, 1), gdyŜ ciąg dystrybuant rozkładów T Studenta przy liczbie stopni swobody dąŜącej do nieskończoności jest zbieŜny do dystrybuanty rozkładu normalnego N(0, 1).
RACHUNEK PRAWDOPODOBIEŃSTWA
96
Przykład 6.15a
Dla α=0,1 i liczby stopni swobody równej 5 wyznaczyć wartość αt dla której P(| nT | ≥ αt ) = α.
Z tablic rozkładu Studenta
odczytujemy, Ŝe 1,0t =2,015
Wartość 1,0t moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy
rysunek
Wykorzystano funkcję statystyczną ROZKŁAD.T.ODW wpisując wymagane dane.
W arkuszu Excel dostępna jest takŜe funkcja pozwalająca wyznaczyć dla liczby stopni swobody prawdopodobieństwo α na podstawie αt
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
97
Wykorzystano funkcję statystyczną ROZKŁAD.T wpisując wymagane dane – parametr Ślady=2 określa rozkład dwustronny (dla uzyskania rozkładu jednostronnego naleŜy podać parametr Ślady=1). 9.2.6. Rozkład Snedecora
Niech 1nX i
2nY będą zmiennymi losowymi niezaleŜnymi o rozkładach 2χ z 1n i 2n stopniami
swobody. O zmiennej losowej:
F = 2
1
n1
n2
Yn
Xn
mówimy, Ŝe ma rozkład Snedecora z parą ( 1n , 2n ) stopni swobody.
Rozkład Snedecora jest stablicowany (patrz tablice w punkcie 7 części VII). Z tablic tych dla α = 0,01 lub α = 0,05 i dla niektórych stopni swobody ( 1n , 2n ) odczytujemy liczbę αf taką, Ŝe:
P(F ≥ αf ) = α
Przykład 6.15b
Dla liczby stopni swobody (32, 20) wyznaczyć wartość f0,01 dla której P(F ≥ 01,0f ) = 0,01
Z tablic rozkładu Snedecora
odczytujemy, Ŝe 01,0f =1,91
Wartość 01,0f moŜna otrzymać takŜe za pomocą arkusza kalkulacyjnego Excel, co ilustruje poniŜszy
rysunek
RACHUNEK PRAWDOPODOBIEŃSTWA
98
Wykorzystano funkcję statystyczną ROZKŁAD.F.ODW wpisując wymagane dane.
W arkuszu Excel dostępna jest takŜe funkcja pozwalająca wyznaczyć dla liczby stopni swobody prawdopodobieństwo α na podstawie αf
Wykorzystano funkcję statystyczną ROZKŁAD.F wpisując wymagane dane.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
99
9.2.8. Powiązania rozkładów ciągłych
Rys. 9.13
Uwaga: Oznaczają z jakich rozkładów tworzony jest rozkład wynikowy
Rozkład N(m,σ)
Rozkład N(0,1)
Rozkład Gamma
Rozkład wykładniczy
Rozkład Beta
Rozkład jednostajny
2
1
X
X
Rozkład Cauchy’ego
.
.
.
X1: )1,0(N
X2: )1,0(N
Xn: )1,0(N
Yn=2n
22
21 X...XX +++
Rozkład χ2 o n stopniach swobody
Tn= nY
X
n
1
Rozkład T Studenta o n stopniach swobody
Ym Rozkład χ2 o m
stopniach swobody
m
n
Yn
Ym
⋅
⋅
Rozkład Snedecora o (n,m) stopniach
swobody
RACHUNEK PRAWDOPODOBIEŃSTWA
100
9.3 Zestawienie rozkładów
9.3.1. Zestawienie rozkładów skokowych
Tabela 9.2. Zestawienie rozkładów skokowych
L p Nazwa
rozkładu
Funkcja prawdopodobieństwa
Własności rozkładu
Funkcja
charakterystyczna
Funkcja tworząca
prawdopodobieństwa
Wartość oczekiwana
Wariancja
Parametry
1
Rozkład jedno –punktowy w punkcie c
P(X c) 1= = Rozkład wykorzystywany w prawach wielkich liczb.
itc
c
(t) e
(s) s
ϕ =
φ =
m c= 2 0σ =
2
Rozkład zerojedynkowy z parametrem p
P(X 1) p,
P(X 0) 1 p q
= =
= = − =
Szczególny przypadek rozkładu dwumianowego (n = 1) Parametr p oznacza frakcję elementów populacji o wyróŜnionej własności
it(t) pe q
(s) ps q
ϕ = +
φ = +
m p= 2
k
pq
m p
σ =
=
3
Rozkład dwumianowy z parametrami n i p
k n knP(X k) p q
k−
= =
p (0;1), q 1 p
k 0,1,2,..., n
∈ = −
=
Rozkład liczby sukcesów: P(X=k) oznacza prawdopodobień – stwo, Ŝe w n doświadczeniach Bernoulliego sukces wypadnie k razy, p -prawdopodobieństwo sukcesu q – prawdopodobieństwo poraŜki
( )( )
nit
n
(t) pe q
(s) ps q
ϕ = +
φ = +
m= np σ2 = npq
4
Rozkład geometryczny z parametrem p
k 1P(X k) q p
k 1,2, , , , , ,; p (0;1)
−= =
= ∈q=1-p
P(X=k) oznacza prawdopodo- bieństwo, Ŝe w ciągu doświadczeń Bernoulliego sukces wypadnie pierwszy raz w doświadczeniu o nu- merze k
it
it
pe(t)
1 qeϕ =
−
ps(s)
1 qsφ =
−
22
1m
p
q
p
=
σ =
5
Rozkład Poissona z parametrem λ
P(X = k) = λ−λe
!k
k
(k = 0, 1, 2, ...;
λ > 0)
PrzybliŜenie Poissona k
knp q e ; np
k k!−λ λ
≈ λ =
n – duŜe, p - małe.
it(e 1)
(s 1)
(t) e
(s) e
λ −
λ −
ϕ =
φ =
2
m = λ
σ = λ
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
101
9.3.2. Zestawienie rozkładów ciągłych
Tabela 9.3. Zestawienie rozkładów ciągłych
Lp Nazwa
rozkładu
Gęstość Funkcja charakterystyczna
Własności rozkładu
Wartość oczekiwana
Wariancja
Parametry
1
Rozkład jednostajny w przedziale (a; b)
1dla x (a;b)
f (x) b a0 dla x (a;b)
∈= − ∉
ibt iate edla t 1
(t) it1 dla t 1
− ≠
ϕ = =
22
b am
2
(b a)
12
+=
−σ =
2
Rozkład normalny N(0,1)
2x21
f (x) e2
−=
π
2t2(t) e
−ϕ = Gęstość f(x) i dystrybuanta (x)Φ są stablicowane f ( x) f (x); ( x) 1 (x)− = Φ − = − Φ
2
m 0
1
=
σ =
3
Rozkład normalny N(m,σ)
2(x m)221
f (x) e m R, 02
−−
σ= ∈ σ >σ π
2 2itm t / 2(t) e −σϕ = Jeśli Y ma rozkład N(0,1), X ma rozkład N(m,σ), to
X m
Y−
=σ
standaryzacja
oraz X Y m= σ +
2 2
2k 1
2k
2k
EX m,
D X
0
(2k 1)!!
−
=
= σ
µ =
µ =
= σ −
4
Rozkład gamma z parametrami a i p
pp 1 ax
p 1 x
0
ax e dla x 0
f (x) (p)
0 dla x 0
(p) x e dx, a 0, p 0
− −
∞− −
>
= Γ ≥
Γ = > >∫
( )
p
p
a(t)
a itϕ =
−
pm
a=
22
p
aσ =
5
Rozkład Rayleigha z parametrem σ
2 2x /(2 )2
xe dla x 0
f (x) 0
0 dla x 0
− σ >= σ >σ ≤
2 2
EX2
D X (2 / 2)
π= σ
= σ − π
6
Rozkład Pareto z parametrami a i x0
a 10
000
0
xadla x x
f (x) a, x 0x x
0 dla x x
+ > = >
≤
20
22 0
2
am x dla a 1
a 1
a x
(a 1) (a 2)
dla a 2
= >−
σ =− −
>
RACHUNEK PRAWDOPODOBIEŃSTWA
102
Lp Nazwa
rozkładu
Gęstość Funkcja charakterystyczna
Własności rozkładu
Wartość oczekiwana
Wariancja
Parametry
7
Rozkład wykładniczy z parametrem a
axae dla x 0f (x) a 0
0 dla x 0
− >= >
≤
a(t)
a itϕ =
−
Rozkład wykładniczy jest szczególnym przypadkiem rozkładu gamma (p = 1)
1m
a=
2
2
1
aσ =
8
Rozkład χ2 (chi kwadrat) z n stopniami swobody
n / 2 1 x / 2n / 2
1x e dla x 0
f (x) 2 (n / 2)
0 dla x 0
n N
− − >= Γ ≤
∈
( )n / 2
1(t)
1 2itϕ =
−
Rozkład χ2 jest szczególnym przypadkiem rozkładu gamma a= 0,5, p = n/2
Rozkład χ2 z n stopniami swobody jest rozkładem
zmiennej losowej 2 2 2n 1 2 nY X X X= + + + ,
gdzie 1 n2X , X ,...,X są zmiennymi losowymi
niezaleŜnymi o rozkładach normalnych N(0,1). Rozkład χ2 jest tablicowany.
m n= 2 2nσ =
9
Rozkład beta z parametrami p i q
p 1 q 1(p q)f (x) x (1 x) dla x (0,1)
(p) (q)
0 dla x (0,1)
− −Γ + = − ∈ Γ Γ ∉
p, q >0
pm
p q=
+
22
pq
(p q) (p q 1)σ =
+ + +
10
Rozkład Cauchy’ego z parametrami λ i µ
2 2
1 1f (x)
(x )=
π λ + − µ λ>0
i t t(t) e µ −λϕ =
Momenty nie istnieją
11
Rozkład Laplace’a z parametrami λ i µ
x1
f (x) e2
−µ−
λ=λ
λ >0
t
2 2
e(t)
1 t
µ
ϕ =+ λ
m=µ σ2=2λ2
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
103
Lp Nazwa
rozkładu
Gęstość Funkcja charakterystyczna
Własności rozkładu
Wartość oczekiwana
Wariancja
Parametry
12
Rozkład Studenta z n stopniami swobody
2 (n 1) / 2
((n 1) / 2) 1dla
n (n / 2) (1 t / n)
f (t) t 0
0 dla t 0
n N
+
Γ + πΓ +
= > ≤
∈ Dla n 30≥ gęstość rozkładu Studenta i gęstość rozkładuN(0,1) mało się róŜnią.
Rozkład Studenta jest stablicowany.
Rozkład Studenta z n stopniami swobody jest rozkładem
zmiennej losowej nn
XT n
Y= ,
gdzie X i Yn są zmiennymi losowymi niezaleŜnymi, X o rozkładzie N(0,1), Yn o rozkładzie χ2 z n stopniami swobody.
2 nn 1
m 0
dla n 2
dla n 3−
=
≥
σ =
≥
13
Rozkład Erlanga z parametrami a i m
mm 1 axa
x e dla x 0f (x) (m 1)!
0 dla x 0
a 0, m N
− −>
= − ≥
> ∈
( )
m
m
a(t)
a itϕ =
−
mm
a=
22
m
aσ =
14
Rozkład Snedecora z m i n stopniami swobody
( )( )( ) ( )
( )( )
n / 2 m / 2 1
m n / 2
m n / 2m x
f (x) m / 2 n / 2n x n / m
0 dla x 0
−
+
Γ + = Γ Γ
+ ≤Rozkład Snedecora z m i n stopniami swobody jest
rozkładem zmiennej losowej X / m
FY / n
=
X – zmienna losowa o rozkładzie χ2 z m stopniami swobody, Y – zmienna losowa o rozkładzie χ2 z n stopniami swobody, X i Y zmienne losowe niezaleŜne Rozkład Snedecora jest tablicowany
n
mn 2dla n 2
=−
>
2
2
2
2n (m n 2)
m(n 2) (n 4)
dla n 4
σ =
+ −=
− −
>
RACHUNEK PRAWDOPODOBIEŃSTWA
104
Lp Nazwa
rozkładu
Gęstość Funkcja charakterystyczna
Własności rozkładu
Wartość oczekiwana
Wariancja
Parametry
15
Rozkład Weibula z parametrami a i p
pp 1 axapx e dla x 0f (x) a 0,p 00 dla x 0
− >= > >≤
Rozkład Weibula jest dla p =1 rozkładem wykładniczym, natomiast dla p =2 i dla
2
1a
2=
σjest rozkładem Rayleigha.
1/ a
(1/ p)m
pa
Γ=
2
122 / p2p a
22p
p
1
p
σ = ×
Γ − ×
−Γ
16
Rozkład Logarytmicz-no normalny z parametrami m i σ
2 2(ln x m) /(2 )1e dla x 0
f (x) 0x 20 dla x 0
− − σ >= σ >σ π ≤
Rozkład logarytmiczno normalny jest to rozkład zmiennej losowej X będącej logarytmem naturalnym zmiennej losowej Y o rozkładzie normalnym N(m,σ) X = lnY Y ma rozkład N(m,σ).
17
Rozkład normalny dwuwymia – rowy N(m1, m2, σ1,
σ2, ρ)
2w / 2
1 2
1f (x, y) e
2 σ σ−=
Π
gdzie
( ) ( )2 21 22 1 2
2 2 21 21 2
x m y mx-m y m1w 2ρ
σ σ1 ρ σ σ
− −− = − + −
ρ0,σ,σ,, 2121 >∈ Rmm <1
( ) ( 2 2 2 21 2 1 1 2 2
1(t, u) exp i m t m u t 2 tu u
2 ϕ = + − σ + ρσ σ + σ
X ma rozkład 1 1N(m , )σ , Y ma rozkład 2, 2N(m )σ
Jeśli X i Y są nieskorelowane (ρ = 0), to są niezaleŜne. Regresje I i II rodzaju są identyczne.
1
2
2 21
2 22
EX m ,
EY m ,
D X ,
D ,
Wsp.korel.
=
=
= σ
= σ
= ρ
18
Rozkład normalny n wymiarowy
1 Tn / 2
1 1f (x) exp (x m)M (x m)
2(2 ) det M− = − − −
π
gdzie [ ] [ ]1 2 n 1 2 nx x , x ,...., x , m m ,m ,....m= =
ijM = µ - macierz kwadratowa stopnia n,
symetryczna , dodatnio określona.
i i
2i ii
i j
ij
EX m
D X
cov(X ,X )
dla i j
=
= µ
=
= µ ≠
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
105
10. TWIERDZENIA GRANICZNE
10.1. Rodzaje twierdzeń granicznych
RozwaŜać będziemy ciągi zmiennych losowych określonych na zbiorze zdarzeń elementarnych Ω.
Twierdzenia graniczne są to twierdzenia podające warunki dostateczne lub warunki konieczne i dostateczne zbieŜności ciągów zmiennych losowych dla róŜnych rodzajów zbieŜności.
Zestawienie zbiorcze najwaŜniejszych twierdzeń granicznych przedstawiono w poniŜszej tabeli.
Tabela 10.1. Zestawienie twierdzeń granicznych
Naz
wa
twie
rdze
nia
TWIERDZENIA INTEGRALNE
TWIERDZENIA LOKALNE
PRAWA WIELKICH LICZB
Rod
zaj z
bieŜ
nośc
i
ZbieŜność według dystrybuant
ZbieŜność ciągu: • funkcji
prawdopodobieństwa, gdy zmienne losowe są skokowe,
• gęstości, gdy zmienne losowe są ciągłe.
ZbieŜność według prawdopodobieństwa
Wyk
az
twie
rdze
ń
• Twierdzenie Lindeberga-Levy’ego
• Integralne twierdzenie Moivre’a-Laplace’a
• Twierdzenie lokalne Poissona
• Twierdzenie lokalne Moivre’a-Laplace’a
• Prawo wielkich liczb Chinczyna
• Prawo wielkich liczb Bernoulliego
PoniewaŜ sformułowania twierdzeń granicznych są trudne dlatego ograniczymy się do podania wniosków z tych twierdzeń.
10.2. Twierdzenia integralne
10.2.1. ZbieŜność według dystrybuant
Oznaczenia: Xn, X - zmienne losowe, Fn - dystrybuanta zmiennej losowej Xn, F - dystrybuanta zmiennej losowej X.
Mówimy, Ŝe ciąg (Xn ) zmiennych losowych jest zbieŜny według dystrybuant do zmiennej losowej X, jeśli ciąg (Fn) jest zbieŜny do dystrybuanty F w kaŜdym punkcie jej ciągłości.
Interpretacja Jeśli n jest duŜą liczbą to dystrybuanta Fn mało róŜni się od dystrybuanty F, zatem prawdopodobieństwa: P(Xn < a), P(a ≤ X < b), P(X ≥ b), mogą być obliczone (w przybliŜeniu) za pomocą dystrybuanty F.
Jak wynika z powyŜszej tabeli twierdzenia integralne są to twierdzenia, w których bada się zbieŜność wg dystrybuant ciągów zmiennych losowych.
Twierdzenia integralne, w których zmienną losową graniczną jest zmienna losowa o rozkładzie normalnym N(0, 1) nazywamy twierdzeniami centralnymi rachunku prawdopodobieństwa.
10.2.2. Twierdzenie Lindeberga – Levy’ego
Dla duŜych n zmienna losowa
RACHUNEK PRAWDOPODOBIEŃSTWA
106
Yn = X1 + X2 + … + Xn.
gdzie: X1, … , Xn są niezaleŜnymi zmiennymi losowymi o takim samym rozkładzie z wartością
oczekiwaną m i wariancją σ2 > 0 ma w przybliŜeniu rozkład normalny N( nm, σn ), stąd
nY nmP( a) (a)
n
−< ≅ Φ
σ, nY nm
P(a b) (b) (a)n
−≤ < ≅ Φ − Φ
σ
)b(1)bn
nmY(P n Φ−≅≥
σ
−
Przykład 10.1
Zmienne losowe 1X , 2X , …. 100X są niezaleŜne i mają rozkład Poissona z parametrem λ=4. Niech
∑=
=100
1kk100 XY
Obliczymy P(360 < nY ≤ 460).
Rozwiązanie
W rozkładzie Poissona wartość oczekiwana i wariancja są równe λ, więc w naszym przykładzie
4EXm k == , 24DXk ===σ , nm = 400, nσ = 20
97590,0197725,099865,01)2()3(
)2()3()20
400460
n
nmY
20
400360(P)460Y360(P n
n
=−+=−Φ+Φ=
=−Φ−Φ≈−
<σ
−≤
−=<≤
10.2.3. Integralne twierdzenie Moivre’a – Laplace’a
Dla duŜych n zmienna losowa X o rozkładzie dwumianowym z parametrami n i p ma rozkład
w przybliŜeniu normalny N(np, ( )p1np − ).
stąd
Φ(a)ap)np(1
npXP ≅
<
−
−, Φ(a)Φ(b)b
p)np(1
npXaP −≅
<
−
−≤
X npP b 1 Φ(b)
np(1 p)
−≥ ≅ − −
Przykład 10.2
Prawdopodobieństwo, Ŝe Ŝarówka przepali się w ciągu pewnego czasu T wynosi 4
1. Obliczymy
prawdopodobieństwo, Ŝe w ciągu tego czasu spośród 192 Ŝarówek przepalą się co najmniej 42 Ŝarówki i mniej niŜ 60 Ŝarówek.
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
107
Rozwiązanie
Niech X będzie zmienną losową oznaczającą liczbę przepalonych Ŝarówek spośród 192 Ŝarówek. NaleŜy obliczyć )60X42(P <≤ . Do obliczenia szukanego prawdopodobieństwa zastosujemy wniosek z integralnego twierdzenia Moivre’a – Laplace’a.
83999,0184134,099865,01)1()3()1()3(
)3npq
npX1(P)
6
4860
npq
npX
6
4842(P)60X42(P
=−+=−Φ+Φ=−Φ+Φ≈
≈<−
≤−=−
<−
≤−
=<≤
10.2.5. Związek pomiędzy twierdzeniami granicznymi integralnymi
Rys. 10.1
10.2.6. Uwagi końcowe o twierdzeniach integralnych
Twierdzenia graniczne Moivre’a-Laplace'a i Lindeberga-Levy’ego wskazują na wyjątkową rolę rozkładu normalnego. Przyjmując dość ogólne załoŜenia na zmienne losowe X1, X2, …, Xn
stwierdzamy na podstawie tych twierdzeń, Ŝe zmienna losowa ∑=
=n
1kkn XY ma dla duŜych n rozkład
w przybliŜeniu normalny. W tych więc zagadnieniach praktycznych, w których obserwujemy wartości pewnej zmiennej losowej Y będącej sumą duŜej liczby zmiennych losowych niezaleŜnych, z których Ŝadna nie ma decydującego wpływu na wielkość tej sumy, naleŜy oczekiwać, Ŝe zmienna Y będzie miała w przybliŜeniu rozkład normalny.
Przykład 10.3
Pomiar wielkości fizycznej. Na wyniki pomiarów wpływa wiele drobnych, wzajemnie niezaleŜnych i nie dających się wyeliminować czynników, takich jak niewielkie zmiany temperatury, oświetlenia, wilgotności powietrza, zmiany w mechanizmie przyrządu, w psychice mierzącego itp. KaŜdy z tych czynników powoduje niewielki błąd elementarny, który jest zmienną losową. W rezultacie łącznego działania tych czynników pomiary są obarczone błędami, które nazywamy błędami przypadkowymi. Błąd przypadkowy jest więc zmienną losową będącą sumą duŜej liczby błędów elementarnych. MoŜna więc oczekiwać, Ŝe ma on rozkład normalny.
10.3. Twierdzenia lokalne
10.3.1. Twierdzenie Poissona
Twierdzenie Poissona orzeka, Ŝe dla duŜych n i małych p prawdopodobieństwa rozkładu dwumianowego mogą być obliczone przy pomocy prawdopodobieństwa rozkładu Poissona z parametrem np=λ .
P(Xn = k) =
k
n knp kn
n )p1( −− ≈ λ−λe
!k
k
dla k=0,1,2,…,n
Twierdzenie Lindeberga-
Levy’ego
Twierdzenie Moivre’a-
Laplace’a
RACHUNEK PRAWDOPODOBIEŃSTWA
108
10.3.2. Lokalne twierdzenie Moivre’a – Laplace’a
Dla duŜych n prawdopodobieństwa rozkładu dwumianowego mogą być obliczone przy pomocy funkcji gęstości rozkładu normalnego
k
n kp knq −
−≅
npq
npkf
npq
1
gdzie f oznacza gęstość rozkładu N(0, 1).
Przykład 10.4
Prawdopodobieństwo, Ŝe Ŝarówka przepali się w ciągu pewnego czasu T wynosi 4
1. Obliczymy
prawdopodobieństwo, Ŝe w ciągu tego czasu spośród 192 Ŝarówek przepalą się 42 Ŝarówki.
Rozwiązanie
Niech X będzie zmienną losową oznaczającą liczbę przepalonych Ŝarówek spośród 192. NaleŜy obliczyć P(X = 42). Zmienna losowa X ma rozkład dwumianowy, więc:
( )15042
4
3
4
1
42
19242XP
==
PoniewaŜ iloczyn np= 48 jest duŜy, więc do obliczenia szukanego prawdopodobieństwa stosujemy przybliŜenie lokalne Moivre’a – Laplace’a.
0405,024197,06
1)1(f
6
1)1(f
6
1
6
4842f
6
1
4
3
4
1
42
192)42X(P
15042
===−=
−≈
==
Wartość f(1) odczytaliśmy w tablicy gęstości rozkładu normalnego N(0, 1) (tablica 3 - część VII).
10.4. Prawa wielkich liczb
10.4.1. ZbieŜność według prawdopodobieństwa.
Prawa wielkich liczb są to twierdzenia graniczne, w których bada się zbieŜność ciągów zmiennych losowych w sensie zbieŜności według prawdopodobieństwa (słabe prawa) lub w sensie zbieŜności z prawdopodobieństwem 1 (mocne prawa). W tym podręczniku ograniczymy się do rozwaŜenia jedynie słabych praw wielkich liczb.
Niech ( )nY będzie ciągiem zmiennych losowych określonych na zbiorze zdarzeń elementarnych Ω i
niech kaŜda ze zmiennych losowych nY ma wartość oczekiwaną
NndlamEYn ∈=
Mówimy, Ŝe ciąg ( )nY jest zbieŜny według prawdopodobieństwa do wartości oczekiwanej m, jeśli
dla dowolnej dodatniej liczby ε 1)mY(Plim n
n=ε<−
∞→
Mówimy wówczas, Ŝe dla ciągu ( )nY zachodzi prawo wielkich liczb. Oznacza to, Ŝe gdy n jest duŜe,
to prawdopodobieństwo, iŜ zmienna losowa nY przyjmie wartość z dowolnie małego (ale ustalonego)
otoczenia wartości oczekiwanej jest bliskie jedności, czyli nY ma rozkład silnie skupiony przy wartości oczekiwanej m. Tę interpretację zbieŜności według prawdopodobieństwa potwierdza poniŜsze twierdzenie:
Prawa wielkich liczb są szczególnym przypadkiem twierdzeń integralnych (ale nie są twierdzeniami centralnymi).
PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE
109
10.4.2. Prawo wielkich liczb Bernoulliego
−nX liczba sukcesów w n doświadczeniach Bernoulliego,
n
XY n
n = - częstość sukcesu (liczba sukcesów na jedno doświadczenie),
p - prawdopodobieństwo sukcesu w jednym doświadczeniu.
Prawo wielkich liczb Bernolulliego orzeka, Ŝe dla ciągu Yn zachodzi prawo wielkich liczb, co oznacza, Ŝe jeśli liczba doświadczeń Bernoulliego jest duŜa, to z prawdopodobieństwem bliskim jedności, częstość sukcesu Yn przyjmuje wartości mało róŜniące się od prawdopodobieństwa sukcesu p
nn
XY p
n= ≈
Prawo wielkich liczb Bernoulliego moŜna zapisać w postaci poniŜej zaleŜności
n
n
Xlim P( p ) 1
n→∞− < ε =
Z prawa wielkich liczb Bernoulliego wynika, Ŝe prawdopodobieństwo zdarzenia moŜe być oceniane przez częstość tego zdarzenia w długim ciągu powtórzeń doświadczenia, w którym to zdarzenie występuje.
Z powyŜszych faktów wynika, Ŝe uprawniona jest interpretacja prawdopodobieństwa zdarzenia za pomocą częstości tego zdarzenia.
Na podstawie twierdzenia integralnego Moivre’a – Laplace’a moŜna wykazać, Ŝe dla duŜych n zachodzi zaleŜność:
1pq
n2p
n
XP n −
εΦ≈
ε<− (ε > 0) (10.1)
Przykład 10.5
Wadliwość partii towaru wynosi 0,2. Z partii tej pobrano losowo ze zwracaniem próbę liczącą 400 sztuk. Obliczymy prawdopodobieństwo, Ŝe wadliwość w tej próbie będzie odchylać się od wadliwości partii towaru o mniej niŜ o 0,05.
Rozwiązanie
Niech 400X oznacza liczbę sztuk wadliwych w próbie liczącej 400 sztuk, wtedy 400
X 400 jest
wadliwością w tej próbie. Wadliwość partii wynosi p = 0,2, naleŜy zatem obliczyć
<− 05,02,0
400
XP 400 . Na podstawie wzoru (10.1) otrzymujemy:
9876,019938,02
1)5,2(218,02,0
40005,0205,02,0
400
XP 400
=−⋅=
=−Φ=−
⋅Φ≈
<−
10.4.3. Prawo wielkich liczb Chinczyna
Niech X1, …, Xn będą zmiennymi losowymi niezaleŜnymi o jednakowym rozkładzie o wartości oczekiwanej m. Prawo wielkich liczb Chinczyna orzeka, Ŝe dla ciągu nX zachodzi prawo wielkich liczb, to znaczy, Ŝe średnia arytmetyczna duŜej liczby zmiennych losowych niezaleŜnych o jednakowym rozkładzie o wartości oczekiwanej m przyjmuje przyjmuje wartości mało róŜniące się od m
nX m≈
RACHUNEK PRAWDOPODOBIEŃSTWA
110
Prawo wielkich liczb Chinczyna moŜna zapisać w postaci poniŜej zaleŜności
1)mY(Plim nn
=ε<−∞→
PowyŜsza interpretacja ma liczne zastosowania np. w teorii błędów przypadkowych. Dokonujemy duŜej liczby pomiarów pewnej wielkości m. Zakładamy, Ŝe pomiary są niezaleŜne, jednakowo dokładne i pozbawione systematycznego błędu. Otrzymane wyniki pomiarów moŜna traktować jako wartości zmiennych losowych niezaleŜnych o jednakowym rozkładzie o wartości oczekiwanej m. Z interpretacji prawa wielkich liczb Chinczyna wynika, Ŝe średnia arytmetyczna otrzymanych wyników pomiarów z praktyczną pewnością mało róŜni się od wielkości mierzonej m.
W prawie wielkich liczb Chinczyna, w odróŜnieniu od twierdzenia Lindeberga-Levy'ego, nie zakłada się, Ŝe zmienne losowe kX mają wariancję. Jeśli jednak załoŜyć, Ŝe zmienne te mają wariancję
2 0σ > , to z twierdzenia Lindeberga-Levy'ego moŜna wyprowadzić zaleŜność (dla duŜych n)
nn
P(| X m | ) 2 1 ε
− < ε ≈ Φ − δ , (ε > 0), (10.2)
Przykład 10.6
Dokonano 100 pomiarów pewnej wielkości fizycznej. Obliczyć prawdopodobieństwo, Ŝe średnia arytmetyczna tych pomiarów będzie odchylać się od wielkości mierzonej o mniej niŜ 0,05 cm, jeśli wiadomo, Ŝe odchylenie standardowe poszczególnego pomiaru wynosi 0,5 cm. Rozwiązanie. Niech 100X oznacza średnią ze stu pomiarów. Na podstawie wzoru (10.2) i danych zadania otrzymujemy:
1000,05 100
P(| X m |) 0,05) 2 1 2 (1) 1 2 0,84134 1 0,680,5
⋅− < ≈ Φ − = Φ − = ⋅ − ≈