curso intermedio de probabilidad - dynamics.unam.edu · independencia de eventos . . . . . . . . ....

201
Curso intermedio de PROBABILIDAD LuisRinc´on Departamento de Matem´aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´ exico DF Mayo 2005 El presente texto corresponde a la versi´ on electr´ onica de mayo de 2005, si han transcurrido m´ as de tres meses desde entonces seguramente existir´ a una versi´ on corregida y aumentada disponible en http://www.matematicas.unam.mx/lars

Upload: hathuy

Post on 02-May-2018

237 views

Category:

Documents


0 download

TRANSCRIPT

Curso intermedio de

PROBABILIDAD

Luis RinconDepartamento de Matematicas

Facultad de Ciencias UNAM

Circuito Exterior de CU

04510 Mexico DF

Mayo 2005

El presente texto corresponde a la version electronica de mayo de 2005, si han

transcurrido mas de tres meses desde entonces seguramente existira una version

corregida y aumentada disponible en http://www.matematicas.unam.mx/lars

Prefacio

El presente texto esta dirigido a estudiantes de mitad de carrera de laslicenciaturas de matematicas, actuarıa y areas afines. Contiene el materialbasico para un curso intermedio de probabilidad y tiene como origen lasnotas de clase del curso semestral de Probabilidad II impartido por el autoren la Facultad de Ciencias de la UNAM a lo largo de varios semestres.

El texto contiene una gran cantidad de ejercicios la mayorıa de los cualesson de tipo mecanico, algunos de ellos son muy sencillos y en otros se pidereproducir lo realizado antes, de modo que el termino “ejercicios” me parecejusto y adecuado. La intencion es la de crear confianza y soltura por partedel alumno en el manejo de los conceptos y notacion involucrados. El numerode ejercicios excede lo que normalmente puede realizarse en un semestre yel objetivo que siempre tuve en mente estos anos fue el tener un numerosuficiente de ellos para presentar algunos en clase, dejar otros para trabajoen casa y asignar algunos otros para preguntas de examen, usando materialligeramente distinto cada semestre para evitar repeticiones. Los ejerciciosse encuentran regularmente al final de cada seccion y se han numerado demanera consecutiva a lo largo del curso.

Al final del texto aparece una lista de referencias que me permito sugerir allector consultar para profundizar y a veces precisar en algunos temas. Al-gunos de estos textos no han sido referenciados explıcitamente pero aparecenen la lista por que en algun momento he obtenido inspiracion de ellos.

Me disculpo de antemano por cualquier error u omision y agradezco sincera-mente cualquier correccion o comentario en el correo electronico que apareceabajo.

Luis RinconMayo 2005

Ciudad Universitaria [email protected]

1

Contenido

1. Espacios de probabilidad 41.1. Espacios de probabilidad . . . . . . . . . . . . . . . . . . . . . 41.2. σ-algebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1. Conjuntos de Borel . . . . . . . . . . . . . . . . . . . . 111.2.2. Sucesiones de eventos . . . . . . . . . . . . . . . . . . 14

1.3. Medidas de probabilidad . . . . . . . . . . . . . . . . . . . . . 201.3.1. Propiedades elementales . . . . . . . . . . . . . . . . . 231.3.2. Continuidad . . . . . . . . . . . . . . . . . . . . . . . . 281.3.3. Independencia de eventos . . . . . . . . . . . . . . . . 321.3.4. Lema de Borel-Cantelli . . . . . . . . . . . . . . . . . 34

2. Variables aleatorias 362.1. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 362.2. Funcion de distribucion . . . . . . . . . . . . . . . . . . . . . 442.3. Tipos de variables aleatorias . . . . . . . . . . . . . . . . . . . 502.4. Integral de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . 532.5. Caracterısticas numericas . . . . . . . . . . . . . . . . . . . . 55

2.5.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . . . 552.5.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . 592.5.3. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . 61

2.6. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . 632.7. Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . 70

3. Vectores aleatorios 803.1. Vectores aleatorios . . . . . . . . . . . . . . . . . . . . . . . . 803.2. Distribucion conjunta . . . . . . . . . . . . . . . . . . . . . . 813.3. Densidad conjunta . . . . . . . . . . . . . . . . . . . . . . . . 843.4. Distribucion marginal . . . . . . . . . . . . . . . . . . . . . . 873.5. Distribucion condicional . . . . . . . . . . . . . . . . . . . . . 883.6. Independencia de variables aleatorias . . . . . . . . . . . . . . 913.7. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . 953.8. Varianza condicional . . . . . . . . . . . . . . . . . . . . . . . 983.9. Esperanza de una funcion de un vector aleatorio . . . . . . . 993.10. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1023.11. Coeficiente de correlacion . . . . . . . . . . . . . . . . . . . . 1053.12. Esperanza y varianza de un vector aleatorio . . . . . . . . . . 1103.13. Distribuciones multivariadas discretas . . . . . . . . . . . . . 111

2

3.14. Distribuciones multivariadas continuas . . . . . . . . . . . . . 112

4. Transformaciones 1144.1. Transformacion de una variable aleatoria . . . . . . . . . . . . 1144.2. Transformacion de un vector aleatorio . . . . . . . . . . . . . 116

4.2.1. Distribucion de la suma (convolucion) . . . . . . . . . 1184.2.2. Distribucion de la resta . . . . . . . . . . . . . . . . . 1224.2.3. Distribucion del producto . . . . . . . . . . . . . . . . 1244.2.4. Distribucion del cociente . . . . . . . . . . . . . . . . . 126

5. Distribuciones muestrales y estadısticas de orden 1305.1. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . 1315.2. Estadısticas de orden . . . . . . . . . . . . . . . . . . . . . . . 140

5.2.1. Distribuciones individuales . . . . . . . . . . . . . . . 1415.2.2. Distribucion conjunta . . . . . . . . . . . . . . . . . . 145

6. Convergencia 1506.1. Convergencia puntual . . . . . . . . . . . . . . . . . . . . . . 1506.2. Convergencia casi segura . . . . . . . . . . . . . . . . . . . . . 1516.3. Convergencia en probabilidad . . . . . . . . . . . . . . . . . . 1526.4. Convergencia en media . . . . . . . . . . . . . . . . . . . . . . 1536.5. Convergencia en media cuadratica . . . . . . . . . . . . . . . 1546.6. Convergencia en distribucion . . . . . . . . . . . . . . . . . . 1546.7. Relaciones generales entre los tipos de convergencia . . . . . . 1566.8. Dos resultados importantes de convergencia . . . . . . . . . . 160

7. Funciones generadoras 1627.1. Funcion generadora de probabilidad . . . . . . . . . . . . . . 1627.2. Funcion generadora de momentos . . . . . . . . . . . . . . . . 1667.3. Funcion caracterıstica . . . . . . . . . . . . . . . . . . . . . . 171

8. Teoremas lımite 1788.1. Desigualdades de Markov y de Chebyshev . . . . . . . . . . . 1788.2. Ley de los grandes numeros . . . . . . . . . . . . . . . . . . . 1838.3. Teorema del lımite central . . . . . . . . . . . . . . . . . . . . 185

A. Distribuciones de probabilidad 188

B. Formulario 193

C. Tabla de la distribucion normal estandar 196

3

Capıtulo 1

Espacios de probabilidad

La teorıa de la probabilidad es la parte de las matematicas que se encargadel estudio de los fenomenos o experimentos aleatorios. Se entiende porexperimento aleatorio todo aquel experimento tal que cuando se le repitebajo las mismas condiciones iniciales, el resultado que se obtiene no siemprees el mismo. A menudo y por muy diversas razones es necesario aceptarque no es posible predecir el resultado de un experimento particular y enconsecuencia se considera aleatorio. Bajo estas circunstancias, la teorıa dela probabilidad tiene el objetivo de modelar matematicamente cualquierexperimento aleatorio de interes.

1.1. Espacios de probabilidad

El modelo matematico creado durante el primer tercio del siglo XX para es-tudiar los experimentos aleatorios es el ası llamado espacio de probabilidad.Este modelo consiste de una terna ordenada, denotada usualmente por

(Ω,F , P ),

en donde Ω es un conjunto arbitrario, F es una σ-algebra de subconjuntosde Ω y P es una medida de probabilidad definida sobre F . Explicamos acontinuacion brevemente cada uno de estos elementos.

Espacio muestral. El conjunto Ω es llamado espacio muestral o espacio mues-tra y tiene como objetivo agrupar a todos los posibles resultados del exper-imento aleatorio en cuestion. No es imprescindible darle esta interpretacional conjunto Ω y matematicamente se le considera entonces un conjunto ar-bitrario.

σ-algebras. Una clase o coleccion no vacıa F de subconjuntos de Ω es una σ-algebra si es cerrada bajo las operaciones de tomar complementos y unionesnumerables. A los elementos de una σ-algebra se les llama ”eventos” o ”con-juntos medibles”. En particular, un evento es ”simple” si consta de a lo mas

4

un elemento de Ω y es ”compuesto” cuando consta de dos o mas elementosde Ω.

Medidas de probabilidad. Una funcion P definida sobre una σ-algebra F y convalores en [0, 1] es una medida de probabilidad si P (Ω) = 1 y es σ-aditiva,es decir,

P (∞⋃

n=1

An) =∞∑

n=1

P (An).

cuando A1, A2, . . . ∈ F son ajenos dos a dos. El numero P (A) representauna forma de medir la ”posibilidad”de observar la ocurrencia del evento Aal efectuar una vez el experimento aleatorio. Tenemos entonces formalmentela siguiente definicion.

Definicion 1 Un espacio de probabilidad es una terna (Ω,F , P ) en dondeΩ es un conjunto arbitrario, F es una σ-algebra de subconjuntos de Ω yP : F → [0, 1] es una medida de probabilidad.

En este primer capıtulo se estudian con mas detalle los conceptos de σ-algebra y medida de probabilidad.

1.2. σ-algebras

En esta seccion se estudia el concepto de σ-algebra y se define la mınimaσ-algebra generada por una coleccion arbitraria. Recordemos nuevamente ladefinicion de esta estructura.

Definicion 2 Una coleccion F de subconjuntos de Ω es una σ-algebra sicumple las siguientes condiciones.

1. Ω ∈ F .

2. Si A ∈ F entonces Ac ∈ F .

3. Si A1, A2, . . . ∈ F entonces∞⋃

n=1

An ∈ F .

A la pareja (Ω,F) se le llama “espacio medible” y a los elementos de F seles llama “eventos” o “conjuntos medibles”.

En palabras, una σ-algebra es una coleccion de subconjuntos de Ω que esno vacıa y cerrada bajo las operaciones de tomar complemento y efectu-

5

ar uniones infinitas numerables. De esta forma al conjunto Ω se le puedeasociar una coleccion F de subconjuntos de sı mismo. En general existenvarias σ-algebras que pueden asociarse a un conjunto Ω como se muestra acontinuacion.

Ejemplo 1 Sea Ω un conjunto cualquiera. Los siguientes son ejemplos sen-cillos de σ-algebras de subconjuntos de Ω.

1. F1 = ∅,Ω.

2. F2 = ∅, A,Ac,Ω, en donde A ⊆ Ω.

3. F3 = 2Ω (conjunto potencia).

Es facil ver que las tres condiciones de la definicion de σ-algebra se cumplenpara cada caso en el ejemplo anterior. La σ-algebra del inciso (1) es la σ-algebra mas pequena que podemos asociar a un conjunto cualquiera Ω, yla σ-algebra del inciso (3) es la mas grande. En la Figura 1.1 puede obser-varse graficamente una σ-algebra como una coleccion de subconjuntos de Ω.Veamos otro ejemplo.

Ejemplo 2 Sean A y B subconjuntos de Ω tales que A ⊆ B. Entonces lacoleccion

F = ∅, A,B,Ac, Bc, B −A, (B −A)c,Ωes una σ-algebra de subconjuntos de Ω que contiene explıcitamente a losconjuntos A y B. Esto puede verificarse directamente con la ayuda de undiagrama de Venn.

Figura 1.1: Una σ-algebra F = A, B, C, D, E, . . . es una coleccion no vacıa de subcon-juntos de Ω que es cerrada bajo complementos y uniones numerables.

En la seccion de ejercicios se pueden encontrar algunos otros ejemplos deσ-algebras. El uso de la letra F para denotar una σ-algebra proviene delnombre en ingles “field” que significa “campo”. En algunos textos se usa

6

tambien la letra A, proveniente de la palabra “algebra”, para denotar unaσ-algebra tambien llamada σ-campo. Observe el uso y significado de lossımbolos de contencion y pertenencia: A ⊆ Ω y A ∈ F .

Se demuestran a continuacion algunas otras propiedades que satisface cualquierσ-algebra.

Proposicion 1 Sea F una σ-algebra de subconjuntos de Ω. Entonces

1. ∅ ∈ F .

2. Si A1, A2, . . . ∈ F entonces∞⋂

i=1

Ai ∈ F .

3. Si A,B ∈ F entonces A−B ∈ F .

4. Si A,B ∈ F entonces AB ∈ F .

Demostracion. (1) Como Ω ∈ F y F es una coleccion cerrada bajo comple-mentos entonces Ωc = ∅ ∈ F . (2) Si A1, A2, . . . ∈ F entonces Ac

1, Ac2, . . . ∈ F .

Por lo tanto⋃∞

n=1Acn ∈ F . Tomando complementos y usando las leyes de

De Morgan se obtiene

( ∞⋃

n=1

Acn

)c

=∞⋂

n=1

An ∈ F .

(3) Como A−B = A∩Bc, de lo anterior se concluye que A−B ∈ F . (4) Seescribe AB = (A−B) ∪ (B −A). Esto demuestra que AB ∈ F cuandoA,B ∈ F .

La proposicion anterior establece entonces que las σ-algebras son estructurastambien cerradas bajo las operaciones de diferencia e intersecciones numer-ables. En la seccion de ejercicios pueden encontrarse algunas otras defini-ciones de σ-algebra equivalentes a la que hemos enunciado y que involucranlas operaciones de la proposicion anterior. Una operacion de particular im-portancia es aquella en la que se intersectan dos σ-algebras produciendo unanueva σ-algebra. Este es el contenido del siguiente resultado.

Proposicion 2 La interseccion de dos σ-algebras es una σ-algebra.

Demostracion. Sean F1 y F2 dos σ-algebras de subconjuntos de Ω. EntoncesF1∩F2 es aquella coleccion de subconjuntos de Ω cuyos elementos pertenecentanto a F1 como a F2. Demostraremos que F1 ∩ F2 es una σ-algebra. (1)Como F1 y F2 son σ-algebras entonces Ω ∈ F1 y Ω ∈ F2. Por lo tantoΩ ∈ F1 ∩ F2. (2) Sea A un elemento en F1 ∩ F2. Entonces A ∈ F1 yA ∈ F2. Por lo tanto Ac ∈ F1 y Ac ∈ F2, es decir, Ac ∈ F1 ∩ F2. (3) SeaA1, A2, . . . una sucesion de elementos en F1 ∩ F2. Entonces A1, A2, . . . ∈ F1

7

y A1, A2, . . . ∈ F2. Por lo tanto⋃∞

n=1An ∈ F1 y⋃∞

n=1An ∈ F2, es decir,⋃∞

n=1An ∈ F1 ∩ F2.

En general no es cierto que la union de dos σ-algebras produce una nuevaσ-algebra. Vease por ejemplo el Ejercicio 13 en la pagina 10. Por otro ladose puede extender la validez de la proposicion recien demostrada a intersec-ciones mas generales como indica el siguiente resultado.

Proposicion 3 La interseccion finita, infinita numerable o bien arbitrariade σ-algebras es nuevamente una σ-algebra.

Demostracion. Sea T un conjunto arbitrario. Suponga que para cada t en Tse tiene una σ-algebra Ft de subconjuntos de Ω. Sea F =

t∈T Ft. Siguiendolos mismos pasos que en la demostracion anterior es facil probar que F esuna σ-algebra. Observe que como T es un conjunto arbitrario, la σ-algebraF es efectivamente una interseccion arbitraria de σ-algebras.

El resultado anterior garantiza que la siguiente definicion tiene sentido.

Definicion 3 Sea C una coleccion no vacıa de subconjuntos de Ω. La σ-algebra generada por C, denotada por σ(C), es la coleccion

σ(C) =⋂

F : F es σ-algebra y C ⊆ F.

Por la proposicion anterior sabemos que σ(C) es una σ-algebra pues es lainterseccion de todas aquellas σ-algebras que contienen a C. Tambien se lellama “mınima σ-algebra generada” por C y el adjetivo “mınima” es claroa partir del hecho de que σ(C) es la σ-algebra mas pequena que contienea la coleccion C. Es decir, si F es una σ-algebra que contiene a C entoncesforzosamente σ(C) ⊆ F . Observe que C ⊆ σ(C) pues a la coleccion C se lehan anadido posiblemente algunos otros subconjuntos para convertirla en laσ-algebra σ(C).

Ejemplo 3 Sean A,B ⊆ Ω con A∩B = ∅. Defina la coleccion C = A,B.En general esta coleccion no es una σ-algebra pero podemos anadirle algunossubconjuntos de Ω para encontrar la σ-algebra generada por C. Esto es

σ(C) = ∅, A,B, (A ∪B)c, A ∪B,Ac, Bc,Ω.No es difıcil verificar que esta es la mınima σ-algebra que contiene a lacoleccion C.

Los siguientes dos resultados son proposiciones sencillas y naturales acer-ca de σ-algebras generadas. Las demostraciones son cortas pero requierenalgunos momentos de pensamiento en una primera lectura.

8

Proposicion 4 Sean C1 y C2 dos colecciones de subconjuntos de Ω tales queC1 ⊆ C2. Entonces σ(C1) ⊆ σ(C2).

Demostracion. Claramente C1 ⊆ C2 ⊆ σ(C2). Entonces σ(C2) es una σ-alge-bra que contiene a la coleccion C1. Por lo tanto σ(C1) ⊆ σ(C2).

Proposicion 5 Si F es una σ-algebra entonces σ(F) = F .

Demostracion. Sabemos que F ⊆ σ(F). Como F es una σ-algebra que con-tiene a F entonces σ(F) ⊆ F . Esto demuestra la igualdad.

En la siguiente seccion se estudia un ejemplo importante de una σ-algebrade subconjuntos de los numeros reales: la σ-algebra de Borel.

EJERCICIOS

1. Defina con precision y de manera completa los siguientes conceptos:σ-algebra, espacio medible, evento, evento simple y evento compuesto.

2. Definicion alternativa de σ-algebra. Demuestre que F es una σ-algebrade subconjuntos de Ω si y solo si

a) ∅ ∈ F .

b) A ∈ F ⇒ Ac ∈ F .

c) A1, A2, . . . ∈ F ⇒∞⋂

n=1

An ∈ F .

3. Definicion alternativa de σ-algebra. Demuestre que F es una σ-algebrade subconjuntos de Ω si y solo si

a) Ω ∈ F .

b) A,B ∈ F ⇒ A−B ∈ F .

c) A1, A2, . . . ∈ F ⇒∞⋂

n=1

An ∈ F .

4. Sean A1, A2, . . . , An eventos de un espacio muestral Ω. Demuestre queel conjunto de elementos de Ω que pertenecen a exactamente k de estoseventos es un evento, 1 ≤ k ≤ n.

5. Sea F una σ-algebra de subconjuntos de Ω. Demuestre que la coleccion

Fc = F c : F ∈ F

es una σ-algebra. Compruebe ademas que Fc = F .

9

6. Sea (Ω,F , P ) un espacio de probabilidad. Defina la coleccion

G = F ∈ F : P (F ) = 0 o P (F ) = 1.

Demuestre que G es una sub σ-algebra de F .

7. Sea Ω = a, b, c, d y sean A = a, b y B = b, c. Defina la coleccionC = A,B. Claramente C no es una σ-algebra. Encuentre σ(C).

8. Sea F una σ-algebra de subconjuntos de Ω y sea A un elemento de F .Demuestre que la siguiente coleccion es una σ-algebra de subconjuntosde A,

FA = A ∩ F = A ∩ F : F ∈ F.

9. Sea Ω un conjunto no numerable. Demuestre que la siguiente colecciones una σ-algebra,

F = A ⊆ Ω : A o Ac es finito o numerable.

10. Sea X : Ω1 → Ω2 una funcion en donde (Ω2,F2) es un espacio medible.Demuestre que la siguiente coleccion es una σ-algebra de subconjuntosde Ω1,

X−1F2 = X−1F : F ∈ F2.

11. Sean F1 y F2 dos σ-algebras de subconjuntos de Ω. Demuestre queF1 ∩ F2 es una σ-algebra de subconjuntos de Ω.

12. Sea Fn : n ∈ N una sucesion de σ-algebras de subconjuntos de unmismo espacio muestral Ω. Demuestre que

⋂∞n=1 Fn es una σ-algebra.

13. Sean F1 y F2 dos σ-algebras de subconjuntos de Ω. Demuestre que F1∪F2 no necesariamente es una σ-algebra. Sugerencia: Considere el espa-cio Ω = 1, 2, 3 y F1 = ∅, 1, 2, 3,Ω y F2 = ∅, 1, 2, 3,Ω.

14. Sean F1 y F2 dos σ-algebras de subconjuntos de Ω tales que F1 ⊆ F2.Demuestre que F1 ∪ F2 es una σ-algebra.

15. Sea J un conjunto arbitrario de ındices. Suponga que para cada j enJ se tiene una σ-algebra Fj de subconjuntos de Ω. Demuestre que⋂

j∈J Fj es una σ-algebra.

16. Sea F una σ-algebra. Demuestre que σ(F) = F .

17. Sea C una coleccion de subconjuntos de Ω. Demuestre que σ(σ(C)) =σ(C).

18. Sean C1 y C2 dos colecciones de subconjuntos de Ω tales que C1 ⊆ C2.Demuestre que σ(C1) ⊆ σ(C2).

19. Sean A,B ⊆ Ω arbitrarios. Demuestre que la cardinalidad de σA,Bes a lo sumo 16.

10

20. Sean A,B ⊆ Ω arbitrarios. Encuentre explıcitamente todos los ele-mentos de σA,B. Por el ejercicio anterior, el total de elementos enσA,B en el caso mas general es 16.

21. Sea A1, . . . , An una particion finita de Ω. Demuestre que la cardi-nalidad de σA1, . . . , An es 2n.

22. Sea A,B,C una particion de Ω. Encuentre explıcitamente los ochoelementos de σA,B,C.

23. Sea C una coleccion de subconjuntos de Ω. Diga falso o verdaderojustificando en cada caso: C ⊆ σ(C) ⊆ 2Ω.

24. Demuestre que 2Ω es una σ-algebra de subconjuntos de Ω y que noexiste una σ-algebra de subconjuntos de Ω que sea mas grande.

25. Sea F una σ-algebra de un espacio muestral finito. Demuestre que Fcontiene un numero par de elementos.

26. Sea Ω un conjunto, F una σ-algebra de subconjuntos de Ω y A unevento. Determine cual de las dos expresiones siguientes es notacional-mente correcta. Explique su respuesta.

a) Ω ∈ F o Ω ⊆ F .

b) A ∈ Ω o A ⊆ Ω.

c) ∅ ∈ F o ∅ ⊆ F .

d) A ∈ F o A ⊆ F .

1.2.1. Conjuntos de Borel

Considere la coleccion de todos los intervalos abiertos (a, b) de R en dondea ≤ b. A la mınima σ-algebra generada por esta coleccion se le llama σ-algebra de Borel de R y se le denota por B(R).

Definicion 4 B(R) = σ (a, b) ⊆ R : a ≤ b

A los elementos de B(R) se les llama “conjuntos de Borel” , “Borelianos”o “conjuntos Borel medibles”. De esta forma se puede asociar la σ-alge-bra B(R) al conjunto de numeros reales y obtener ası el espacio medible(R,B(R)). Mediante algunos ejemplos se muestran a continuacion algunoselementos de la σ-algebra B(R).

Proposicion 6 Para cualesquiera numeros reales a ≤ b, los subconjuntos

[a, b], (a,∞), (−∞, b), [a, b), (a, b], ason todos elementos de B(R).

11

Demostracion. Primeramente observe que los intervalos cerrados [a, b] sonconjuntos Borelianos pues podemos escribirlos en terminos de una intersec-cion numerable de intervalos abiertos de la siguiente forma

[a, b] =∞⋂

n=1

(a− 1

n, b+

1

n).

Observe que cada elemento de la interseccion anterior es un conjunto Bore-liano. Siendo B(R) una σ-algebra, la interseccion infinita es un elementode B(R). De esta forma se concluye que cada intervalo cerrado [a, b] es unelemento de B(R). Asi mismo tenemos que

(a,∞) =∞⋃

n=1

(a, a+ n) ∈ B(R),

y (−∞, b) =∞⋃

n=1

(b− n, b) ∈ B(R).

Por lo tanto

[a,∞) =∞⋂

n=1

(a− 1

n,∞) ∈ B(R),

y (−∞, b] =∞⋂

n=1

(−∞, b+1

n) ∈ B(R).

De forma analoga se puede hacer ver que los intervalos semiabiertos de laforma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan deun solo numero tambien son conjuntos Borelianos pues

a =∞⋂

n=1

(a− 1

n, a+

1

n).

Complementos, intersecciones y uniones numerables de estos conjuntos sontodos ellos Borelianos. Observe que la σ-algebra B(R) es muy amplia yes natural preguntarse acerca de la existencia de algun subconjunto de R

que no sea un conjunto Boreliano. La respuesta es afirmativa aunque no lademostraremos. Efectivamente, existe un subconjunto de R que no pertenecea B(R).

Ademas de la definicion enunciada, existen otras formas equivalentes degenerar a los conjuntos Borelianos. Este es el contenido del siguiente resul-tado.

Proposicion 7 Las siguientes σ-algebras son todas identicas a B(R).

12

1. σ[a, b] : a ≤ b.

2. σ(a, b] : a ≤ b.

3. σ[a, b) : a ≤ b.

4. σ(a,∞) : a ∈ R.

5. σ(−∞, b) : b ∈ R.

Demostracion. Se prueba unicamente el inciso (1). El resto de los incisosse demuestra usando el mismo procedimiento. Para demostrar que B(R) =σ[a, b] : a ≤ b se verifican ambas contenciones. Claramente [a, b] ∈ B(R),por lo tanto [a, b] : a ≤ b ⊆ B(R). Entonces

σ[a, b] : a ≤ b ⊆ σ(B(R)) = B(R).

Ahora se demuestra la contencion contraria. Sabemos que (a, b) ∈ σ[a, b] :a ≤ b pues (a, b) =

⋃∞n=1[a+ 1

n , b− 1n ]. Entonces

(a, b) : a ≤ b ⊆ σ[a, b] : a ≤ b.

Por lo tanto

B(R) = σ(a, b) : a ≤ b ⊆ σ[a, b] : a ≤ b.

De manera equivalente se puede definir a B(R) como la mınima σ-algebragenerada por una coleccion mas grande, aquella de todos los subconjuntosabiertos de R. En ambos casos la σ-algebra generada es B(R). Es posibleconsiderar tambien la σ-algebra de conjuntos de Borel restringidos a unaporcion de los numeros reales como se indica a continuacion.

Definicion 5 Sea A ∈ B(R). La σ-algebra de Borel de A, denotada porB(A), se define como sigue

B(A) = A ∩ B(R) = A ∩B : B ∈ B(R).

No es difıcil comprobar que B(A) es efectivamente una σ-algebra de subcon-juntos de A. Observe que el nuevo conjunto total es A y no R. El conceptode σ-algebra de Borel de R puede extenderse a dimensiones mayores de lasiguiente forma. Considere la coleccion C de todas los rectangulos abiertosde R2, es decir,

C = (a, b) × (c, d) : a ≤ b, c ≤ d.Se definen los conjuntos de Borel de R2 como los elementos de la mınimaσ-algebra generada por la coleccion C, es decir, B(R2) = σ(C). De maneraequivalente se puede definir B(R2) = σ(B(R) × B(R)). En forma analoga sedefine B(Rn) usando productos cartesianos de intervalos, o equivalentemente

B(Rn) = σ(B(R) × · · · × B(R)).

13

EJERCICIOS

27. Defina con precision a la σ-algebra de Borel de R y de Rn.

28. Demuestre que los conjuntos (a, b] y [a, b) con a ≤ b son Borel medibles.

29. Demuestre que N, Z y Q son elementos de B(R).

30. Demuestre que el conjunto de numeros irracionales es un conjunto deBorel de R.

31. Demuestre que B(R) = σ[a, b] : a ≤ b.

32. Demuestre que B(R) = σ(a, b] : a ≤ b.

33. Demuestre que B(R) = σ[a, b) : a ≤ b.

34. Demuestre que B(R) = σ(a,∞) : a ∈ R.

35. Demuestre que B(R) = σ[a,∞) : a ∈ R.

36. Demuestre que B(R) = σ(−∞, b) : b ∈ R.

37. Demuestre que B(R) = σ(−∞, b] : b ∈ R.

38. Sea A ∈ B(R). Demuestre que B(A) es efectivamente una σ-algebra desubconjuntos de A.

39. Diga falso o verdadero. Justifique su respuesta.

a) σ ( 1n+1 ,

1n ] : n ∈ N = B(0, 1].

b) σ (0, 1n ] : n ∈ N = B(0, 1].

c) σ ( 1n+1 ,

1n ] : n ∈ N = σ (0, 1

n ] : n ∈ N .

40. Demuestre que B(R2) = σ[a, b] × [c, d] : a ≤ b, c ≤ d.

41. Demuestre que el producto cartesiano de dos σ-algebras no es nece-sariamente σ-algebra. Esto es, suponga que (Ω1,F1) y (Ω2,F2) sondos espacios medibles. Mediante un ejemplo muestre que F1 × F2 nonecesariamente es una σ-algebra de subconjuntos del espacio produc-to Ω1 × Ω2. Sin embargo se define la σ-algebra producto de la formasiguiente, F1 ⊗F2 = σ(F1 ×F2).

1.2.2. Sucesiones de eventos

En esta seccion se estudia el concepto de convergencia de una sucesion infini-ta de eventos. Para enunciar tal concepto necesitaremos antes la definicionesde lımite superior y lımite inferior que se establecen a continuacion.

14

Definicion 6 Para una sucesion de eventos An : n ∈ N se define el lımitesuperior y el lımite inferior como sigue

1. lım supn→∞

An =∞⋂

n=1

∞⋃

k=n

Ak.

2. lım infn→∞

An =∞⋃

n=1

∞⋂

k=n

Ak.

Tanto el lımite superior como el lımite inferior son operaciones bien definidas,es decir, el resultado siempre existe y es unico. En cada caso el conjuntoresultante es siempre un evento, es decir, un conjunto medible. Es sencillocomprobar que

lım infn→∞

An ⊆ lım supn→∞

An.

Tampoco es difıcil verificar que un elemento pertenece al evento lım supn→∞

An

si y solo si pertenece a una infinidad1 de elementos de la sucesion. Porotro lado un elemento pertenece al evento lım inf

n→∞An si y solo si pertenece

a todos los elementos de la sucesion excepto un numero finito de ellos. Conestos antecedentes podemos ahora establecer la definicion de convergenciade una sucesion infinita de eventos.

Definicion 7 (Convergencia de eventos) Sea An : n ∈ N una suce-sion de eventos. Si existe un evento A tal que

lım infn→∞

An = lım supn→∞

An = A

entonces se dice que la sucesion converge al evento A y se escribe

lımn→∞

An = A.

Para calcular el posible lımite de una sucesion de eventos debemos entoncescalcular el lımite superior y el lımite inferior y cuando el resultado de ambasoperaciones coincida en el mismo evento entonces a tal resultado comun sele llama el lımite de la sucesion. Por supuesto que no todas las sucesiones deeventos convergen. Mostramos a continuacion que en particular toda suce-sion monotona es convergente. Mas adelante presentaremos algunos ejemplosconcretos de sucesiones de eventos y en la seccion de ejercicios se encuentranalgunos otros.

1En textos de habla inglesa a menudo se escribe lım supn→∞

An = (An i.o.), en donde i.o.

significa “infinitely often”.

15

Proposicion 8 Sea An : n ∈ N una sucesion monotona de eventos.

1. Si A1 ⊆ A2 ⊆ · · · entonces lımn→∞

An =∞⋃

n=1

An.

2. Si A1 ⊇ A2 ⊇ · · · entonces lımn→∞

An =∞⋂

n=1

An.

Demostracion. (1) Como la sucesion es creciente,

∞⋃

k=n

Ak =

∞⋃

k=1

Ak.

Por lo tanto

lım supn→∞

An =∞⋂

n=1

∞⋃

k=n

Ak

=

∞⋂

n=1

∞⋃

k=1

Ak

=∞⋃

k=1

Ak.

Por otro lado

∞⋂

k=n

Ak = An. Entonces

lım infn→∞

An =∞⋃

n=1

∞⋂

k=n

Ak

=

∞⋃

n=1

An.

(2) La demostracion es completamente analoga al inciso anterior. En estecaso como la sucesion de eventos es decreciente se tiene que

∞⋂

k=n

Ak =∞⋂

k=1

Ak

y

∞⋃

k=n

Ak = An.

Ejemplo 4 Para cada numero natural n sea An = [−1/n, 0] si n es impary An = [0, 1/n] si n es par. Entonces

lım supn→∞

An =∞⋂

n=1

∞⋃

k=n

Ak =∞⋂

n=1

[−1/n, 1/n] = 0.

16

lım infn→∞

An =∞⋃

n=1

∞⋂

k=n

Ak =∞⋃

n=1

0 = 0.

Por lo tanto lımn→∞

An = 0.

El siguiente resultado establece que a partir de una sucesion de eventospuede construirse otra sucesion cuyos elementos son ajenos dos a dos y cuyaunion es la union de la sucesion original. Este procedimiento de separacionsera de utilidad mas adelante.

Proposicion 9 Sea An : n ∈ N una sucesion de eventos. Sea B1 = A1 ypara n ≥ 2 defina

Bn = An −n−1⋃

k=1

Ak.

Entonces Bn : n ∈ N es una sucesion de eventos con las siguientespropiedades.

1. Bn ⊆ An.

2. Bn ∩Bm = ∅ si n 6= m.

3.∞⋃

n=1

Bn =∞⋃

n=1

An.

Demostracion. El inciso (1) es evidente a partir de la definicion de Bn. Parademostrar (2) suponga n < m, entonces

Bn ∩Bm = (An −n−1⋃

k=1

Ak) ∩ (Am −m−1⋃

k=1

Ak)

= (An ∩n−1⋂

k=1

Ack) ∩ (Am ∩

m−1⋂

k=1

Ack)

= ∅.

Ahora se demuestra (3) considerando cada contencion por separado.

(⊆) Sea x en⋃∞

n=1Bn. Entonces existe un ındice n tal que x ∈ Bn ⊆ An.Por lo tanto x pertenece a An y entonces x pertenece a

⋃∞n=1An.

(⊇) Sea ahora x un elemento en⋃∞

n=1An. Entonces existe un ındice n talque x ∈ An. Sea n0 el primer ındice tal que x ∈ An0 y x /∈ An para1 ≤ n ≤ n0 − 1. Entonces x ∈ An0 −

⋃n0−1n=1 An = Bn0 . Por lo tanto x

pertenece a⋃∞

n=1Bn.

17

EJERCICIOS

42. Sea An : n ∈ N una sucesion de eventos. Demuestre que

a) lım supn→∞

An es un evento.

b) lım infn→∞

An es un evento.

c) lım infn→∞

An ⊆ lım supn→∞

An.

43. Demuestre que

a) lım supn→∞

An = ω ∈ Ω : ω ∈ An para una infinidad de valores de n.

b) lım infn→∞

An = ω ∈ Ω : ω ∈ An para toda n excepto un numero finito de ellas.

44. Suponga An ⊆ Bn para cada n en N. Demuestre que

a) lım supn→∞

An ⊆ lım supn→∞

Bn.

b) lım infn→∞

An ⊆ lım infn→∞

Bn.

45. Demuestre que si A1 ⊆ A2 ⊆ · · · entonces

lımn→∞

An =

∞⋃

n=1

An.

46. Demuestre que si A1 ⊇ A2 ⊇ · · · entonces

lımn→∞

An =∞⋂

n=1

An.

47. Sea An : n ∈ N una sucesion de eventos. Demuestre que

a) ( lım infn→∞

An )c = lım supn→∞

Acn.

b) ( lım supn→∞

An )c = lım infn→∞

Acn.

c) P ( lım infn→∞

An ) = 1 − P ( lım supn→∞

Acn ).

d) P ( lım supn→∞

An ) = 1 − P ( lım infn→∞

Acn ).

48. Sea An : n ∈ N una sucesion de eventos. Demuestre que

a) lımn→∞

An = A ⇐⇒ lımn→∞

Acn = Ac.

b) lımn→∞

An = A ⇐⇒ lımn→∞

1An= 1A.

49. Sea an : n ∈ N una sucesion de numeros no negativos convergente aa ≥ 0. Sea An = [0, an]. Calcule lım inf

n→∞An y lım sup

n→∞An.

50. Calcule el lımite superior e inferior para cada una de las siguientessucesiones de eventos. Determine en cada caso si la sucesion es con-vergente.

18

a) An = (1

n, 2 + (−1)n).

b) An = (x, y) : x2 + y2 ≤ (1 + 1n)n.

c) An = (x, y) : x2 + y2 ≤ 2 + sin(nπ

2).

51. Demuestre que las siguientes sucesiones de eventos no son conver-gentes.

a) An = ∅ si n es impar y An = Ω si n es par.

b) An = (0, 1 + (−1

2)n).

52. Suponga que lımn→∞

An = A y lımn→∞

Bn = B. Defina la sucesion

Cn =

An si n es impar,Bn si n es par.

Calcule el lımite superior e inferior de Cn y determine si la sucesion esconvergente.

53. Calcule el lımite superior e inferior para cada una de las siguientessucesiones de eventos. Determine en cada caso si la sucesion es con-vergente.

a) Sea A un evento. Defina An =

A si n es impar,Ac si n es par.

b) Sean A y B dos eventos. Defina An =

A si n es impar,B si n es par.

54. Suponga que lımn→∞

An = A. Demuestre que para cualquier evento B,

a) lımn→∞

(An ∩B) = A ∩B.

b) lımn→∞

(An ∪B) = A ∪B.

c) lımn→∞

(An −B) = A−B.

d) lımn→∞

(AnB) = AB.

55. Suponga que lımn→∞

An = A y lımn→∞

Bn = B. Demuestre que

a) lımn→∞

lımm→∞

(An ∩Bm) = A ∩B.

b) lımn→∞

lımm→∞

(An ∪Bm) = A ∪B.

c) lımn→∞

lımm→∞

(An −Bm) = A−B.

d) lımn→∞

lımm→∞

(AnBm) = AB.

56. Suponga que lımn→∞

An = A y lımn→∞

Bn = B. Diga falso o verdadero.

Demuestre en cada caso.

a) lımn→∞

(An ∩Bn) = A ∩B.

19

b) lımn→∞

(An ∪Bn) = A ∪B.

c) lımn→∞

(An −Bn) = A−B.

d) lımn→∞

(AnBn) = AB.

1.3. Medidas de probabilidad

En esta seccion y en lo que resta del presente capıtulo se estudian algu-nas propiedades de las medidas de probabilidad. Empecemos por recordarnuevamente la definicion de este concepto.

Definicion 8 Sea (Ω,F) un espacio medible. Una “medida de probabilidad”es una funcion P : F → [0, 1] que satisface (Kolmogorov, 1933)

1. P (Ω) = 1.

2. P (A) ≥ 0, para cualquier A ∈ F .

3. Si A1, A2, . . . ∈ F son ajenos dos a dos, esto es, An ∩ Am = ∅ para

n 6= m, entonces P (∞⋃

n=1

An) =∞∑

n=1

P (An).

Entonces toda funcion P definida sobre una σ-algebra F , con valores enel intervalo [0, 1] y que cumple los tres postulados anteriores se le llama“medida de probabilidad”. La tercera propiedad se conoce con el nombrede “σ-aditividad”. Se presentan a continuacion tres ejemplos de medidas deprobabilidad.

Ejemplo 5 Considere un experimento aleatorio con espacio muestral unconjunto finito Ω. Asocie al conjunto Ω la σ-algebra el conjunto potencia2Ω. Para cualquier A ⊆ Ω defina

P (A) =#A

#Ω.

Entonces P es una medida de probabilidad y es llamada “probabilidad clasica”.De acuerdo a esta definicion, para calcular la probabilidad de un evento esnecesario entonces conocer su cardinalidad. En esta forma de calcular prob-abilidades surgen muchos y muy variados problemas de conteo, algunos delos cuales no son inmediatos de resolver.

Ejemplo 6 Considere un experimento aleatorio con espacio muestral elconjunto de numeros naturales N. Asocie al conjunto N la σ-algebra el con-

20

junto potencia 2N. Para cualquier A ⊆ N defina

P (A) =∑

n∈A

1

2n.

No es difıcil verificar que P es efectivamente una medida de probabilidad.

Ejemplo 7 Considere el espacio medible (R,B(R)). Sea f : R → R unafuncion no negativa e integrable cuya integral sobre el intervalo (−∞,∞) esuno. Para cualquier A en B(R) defina

P (A) =

Af(x) dx.

Las propiedades de la integral permiten demostrar que P es una medida deprobabilidad.

En la siguiente seccion estudiaremos algunas propiedades generales que cumpletoda medida de probabilidad. Y a lo largo del texto estudiaremos variosmodelos particulares para calcular probabilidades.

Figura 1.2: Andrey Nikolaevich Kolmogorov (Rusia 1903–1987).

EJERCICIOS

57. Escriba de manera completa la definicion de espacio de probabilidad,definiendo claramente cada uno de sus componentes.

58. Determine completamente un espacio de probabilidad (Ω,F , P ) parael experimento aleatorio de

a) lanzar una moneda equilibrada.

b) lanzar un dado equilibrado.

21

c) escoger al azar un numero real dentro del intervalo unitario [0, 1].

d) extraer dos bolas de una urna en donde hay dos bolas blancas ydos negras.

e) lanzar una moneda honesta hasta obtener las dos caras.

59. Defina con precision el concepto de medida de probabilidad.

60. Sea xn : n ∈ N una sucesion de numeros reales. Sea an : n ∈ Notra sucesion de numeros reales no negativos tal que

∑∞n=1 an = 1.

Defina la funcion P : B(R) → [0, 1] de la siguiente forma

P (A) =∞∑

n=1

an1(xn∈A)(n).

Demuestre que P es una medida de probabilidad.

61. Sean P y Q medidas de probabilidad definidas sobre una misma σ-algebra. Demuestre que αP +(1−α)Q es una medida de probabilidadpara cada α en [0, 1].

62. Diga falso o verdadero y demuestre en cada caso. Si P es una medidade probabilidad entonces

a) 1 − P es una medida de probabilidad.

b)1

2(1 + P ) es una medida de probabilidad.

c) P 2 es una medida de probabilidad.

63. Considere el espacio medible (N, 2N). Demuestre en cada caso que Pes una medida de probabilidad. Para cada A ∈ 2N defina

a) P (A) =∑

n∈A

2

3n.

b) P (A) =∑

n∈A

1

2n.

64. Sea Ω = 1, 2, . . . , n y considere el espacio medible (Ω, 2Ω). Investigueen cada caso si P es una medida de probabilidad. Para cada A ∈ 2Ω

defina

a) P (A) =∑

k∈A

2k

n(n+ 1).

b) P (A) =∏

k∈A

(1 − 1

k).

65. Considere el espacio medible ((0, 1),B(0, 1)). Demuestre en cada casoque P es una medida de probabilidad. Para cada A ∈ B(0, 1) defina

a) P (A) =

A2x dx.

22

b) P (A) =

A

3

2

√x dx.

66. Probabilidad condicional. Sea (Ω,F , P ) un espacio de probabilidad ysea B un evento con probabilidad estrictamente positiva. Demuestreque la probabilidad condicional definida para cada A en F como sigue

P (A|B) =P (A ∩B)

P (B),

es una medida de probabilidad. En consecuencia toda propiedad validapara P ( · ) es tambien valida para P ( · |B).

67. Sea P una medida de probabilidad y sean P1( · ) = P ( · |B) y P2( · ) =P1( · |C). Demuestre que

P2(A) = P (A|B ∩ C).

1.3.1. Propiedades elementales

A partir de los postulados enunciados en la seccion anterior es posible de-mostrar una larga serie de propiedades que cumplen todas las medidas deprobabilidad. En esta seccion se estudian algunas propiedades elementalesy mas adelante se demuestran otras propiedades mas avanzadas.

Proposicion 10 Sea P una medida de probabilidad. Entonces

1. P (Ac) = 1 − P (A).

2. P (∅) = 0.

3. Si A ⊆ B entonces P (B −A) = P (B) − P (A).

4. Si A ⊆ B entonces P (A) ≤ P (B).

5. 0 ≤ P (A) ≤ 1.

6. P (A ∪B) = P (A) + P (B) − P (A ∩B).

Demostracion. Para la propiedad (1) expresamos a Ω como la union disjuntaA ∪ Ac. Aplicamos P y obtenemos la igualdad requerida. Tomando el casoparticular A igual a Ω en la propiedad (1) obtenemos la propiedad (2).Para demostrar (3) escribimos B = A ∪ (B − A). Aplicando P obtenemosP (B)− P (A) = P (B −A). Como la probabilidad de cualquier evento es unnumero no negativo de la anterior igualdad obtenemos tambien la propiedad(4). La primera desigualdad de la propiedad (5) es el segundo axioma y lasegunda desigualdad es consecuencia de la propiedad (1) y el primer axioma.Finalmente para demostrar (6) descomponemos el evento A ∪ B como la

23

siguiente union de tres eventos disjuntos dos a dos, A ∪ B = (A − B) ∪(A ∩ B) ∪ (B − A) = (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). Por lo tantoP (A ∪B) = P (A) − P (A ∩B) + P (A ∩B) + P (B) − P (A ∩B).

Se estudian a continuacion algunas otras propiedades de las medidas deprobabilidad.

Proposicion 11 (Desigualdades de Boole) Sea An : n ∈ N una suce-sion de eventos. Entonces

1. P (∞⋃

n=1

An) ≤∞∑

n=1

P (An).

2. P (

∞⋂

n=1

An) ≥ 1 −∞∑

n=1

P (Acn).

Demostracion. (1) Sean B1 = A1 y para n ≥ 2 defina

Bn = An −n−1⋃

k=1

Ak.

Entonces Bn : n ∈ N es una sucesion de eventos disjuntos dos a dos talesque Bn ⊆ An y

⋃∞n=1An =

⋃∞n=1Bn. Esto es consecuencia de la Proposi-

cion 9 de la pagina 17. Por lo tanto

P (∞⋃

n=1

An) = P (∞⋃

n=1

Bn)

=∞∑

n=1

P (Bn)

≤∞∑

n=1

P (An).

El inciso (2) se sigue de (1) tomando complementos.

Proposicion 12 Sea An : n ∈ N una sucesion de eventos.

1. Si P (An) = 1 para toda n entonces P (∞⋂

n=1

An) = 1.

2. Si P (An) = 1 para alguna n entonces P (∞⋃

n=1

An) = 1.

3. Si P (An) = 0 para alguna n entonces P (∞⋂

n=1

An) = 0.

24

4. Si P (An) = 0 para toda n entonces P (∞⋃

n=1

An) = 0.

Demostracion. (1) Por las leyes de De Morgan y la desigualdad de Boole,

P (∞⋂

n=1

An) = 1 − P (∞⋃

n=1

Acn)

≥ 1 −∞∑

n=1

P (Acn)

= 1.

(2) Como An ⊆ ⋃∞n=1An,

1 = P (An) ≤ P (∞⋃

n=1

An).

(3) Como⋂∞

n=1An ⊆ An,

P (∞⋂

n=1

An) ≤ P (An) = 0.

(4) Por la desigualdad de Boole,

P (∞⋃

n=1

An) ≤∞∑

n=1

P (An) = 0.

Las propiedades (1) y (4) de la proposicion anterior pueden interpretarsede la siguiente forma. Intersectar dos eventos produce en general un eventomas pequeno o por lo menos no mayor a los intersectandos. Sin embargola propiedad (1) establece que la interseccion, aun infinita, de eventos conprobabilidad uno produce un evento con probabilidad todavıa uno. Analoga-mente unir dos eventos produce en general un evento mayor, pero por lapropiedad (4), la union, aun infinita, de eventos con probabilidad cero tieneprobabilidad que se mantiene en cero.

EJERCICIOS

68. Demuestre que

a) P (Ac) = 1 − P (A).

b) 0 ≤ P (A) ≤ 1.

69. Demuestre que P (∅) = 0

a) usando P (Ω) = 1.

25

b) sin usar P (Ω) = 1.

70. Demuestre que

a) P (A−B) = P (A) − P (A ∩B).

b) P (A ∩B) − P (A)P (B) = P (Ac)P (B) − P (Ac ∩B).

71. Demuestre que si A ⊆ B entonces

a) P (A) ≤ P (B).

b) P (B −A) = P (B) − P (A).

72. Demuestre que

a) maxP (A), P (B) ≤ P (A ∪B).

b) P (A ∩B) ≤ mınP (A), P (B).

73. Demuestre que

P (A ∪B) = P (A) + P (B) − P (A ∩B).

74. Demuestre que

P (A ∪B ∪ C) = P (A) + P (B) + P (C)

−P (A ∩B) − P (A ∩ C) − P (B ∩ C)

+P (A ∩B ∩ C).

75. Demuestre que

P (n⋃

i=1

Ai) =n∑

i=1

P (Ai) −∑

i<j

P (Ai ∩Aj)

+∑

i<j<k

P (Ai ∩Aj ∩Ak)

− · · · + (−1)n+1P (A1 ∩ · · · ∩An)

76. Demuestre que

P (n⋂

i=1

Ai) =n∑

i=1

P (Ai) −∑

i<j

P (Ai ∪Aj)

+∑

i<j<k

P (Ai ∪Aj ∪Ak)

− · · · − (−1)nP (A1 ∪ · · · ∪An)

77. Demuestre que

P (n⋂

k=1

Ak) ≥ 1 −n∑

k=1

P (Ack).

26

78. Demuestre que

0 ≤ P (A ∩B) ≤ P (A) ≤ P (A ∪B) ≤ P (A) + P (B) ≤ 2.

79. Diga falso o verdadero. Demuestre en cada caso.

a) P (B −A) = P (B) − P (A).

b) P (A ∪B) = P (A−B) + P (B −A).

c) P (A) > 0 =⇒ P (A ∪B) > 0.

d) P (A) > 0 =⇒ P (A ∩B) > 0.

e) P (A) < 1 =⇒ P (A ∪B) < 1.

f ) P (A) < 1 =⇒ P (A ∩B) < 1.

g) P (A) = 0 =⇒ P (A ∪B) = 0.

h) P (A) = 0 =⇒ P (A ∩B) = 0.

i) P (A ∪B) = 0 =⇒ P (A) = 0.

j ) P (A ∩B) = 0 =⇒ P (A) = 0.

k) P (A) = 1 =⇒ P (A ∪B) = 1.

l) P (A) = 1 =⇒ P (A ∩B) = 1.

m) P (A ∪B) = 1 =⇒ P (A) = 1.

n) P (A ∩B) = 1 =⇒ P (A) = 1.

80. Diga falso o verdadero. Demuestre en cada caso.

a) P (A ∩B) ≤ P (A)P (B).

b) P (A|B) < P (A).

c) P (A|B) > P (A) =⇒ P (B|A) > P (B).

81. Teorema de probabilidad total. Sea (Ω,F , P ) un espacio de probabil-idad y sea A1, A2, . . . una particion de Ω tal que para cada n ≥ 1el conjunto An es un evento con P (An) > 0. Demuestre que paracualquier evento B,

P (B) =

∞∑

n=1

P (B|An)P (An).

82. Se lanza una moneda tantas veces como indica un dado previamentelanzado. Calcule la probabilidad de que

a) se obtengan ambas caras de la moneda igual numero de veces.

b) se obtenga una misma cara siempre.

83. Teorema de Bayes. Sea (Ω,F , P ) un espacio de probabilidad y seaA1, A2, . . . una particion de Ω tal que para cada n ≥ 1, el conjuntoAn es un elemento de F y P (An) > 0. Demuestre que para cualquierevento B tal que P (B) > 0 y cualquier m ≥ 1 fijo,

P (Am|B) =P (B|Am)P (Am)∞∑

n=1

P (B|An)P (An)

.

27

84. Regla del producto. Demuestre que

P (A1∩· · ·∩An) = P (A1)P (A2|A1)P (A3|A1∩A2) · · ·P (An|A1∩· · ·∩An−1).

85. Desigualdad de Bonferroni. Demuestre que

P (n⋃

i=1

Ai) ≥n∑

i=1

P (Ai) −∑

i<j

P (Ai ∩Aj).

86. Desigualdad de Kounias. Demuestre que

P (n⋃

i=1

Ai) ≤ mınj

n∑

i=1

P (Ai) −n∑

i=1i6=j

P (Ai ∩Aj).

1.3.2. Continuidad

El siguiente resultado establece que las medidas de probabilidad son fun-ciones continuas respecto de sucesiones no decrecientes de eventos.

Proposicion 13 Sea An : n ∈ N una sucesion no decreciente de eventos,esto es, A1 ⊆ A2 ⊆ · · ·. Entonces

P (∞⋃

n=1

An) = lımn→∞

P (An).

Demostracion. Como An ⊆ An+1 tenemos que P (An) ≤ P (An+1). Por lotanto la sucesion numerica P (An) : n ∈ N es no decreciente y acotadasuperiormente. Entonces el lımite de esta sucesion existe y el lado derechode la igualdad tiene sentido. Defina los eventos

B1 = A1,

Bn = An −An−1 para n ≥ 2.

La sucesion Bn : n ∈ N es una coleccion de eventos disjuntos dos a dos ytal que (Ver Proposicion 9 en la pagina 17)

∞⋃

n=1

An =∞⋃

n=1

Bn.

Por lo tanto

P (∞⋃

n=1

An) = P (∞⋃

n=1

Bn)

28

=∞∑

n=1

P (Bn)

= P (B1) +∞∑

n=2

P (Bn)

= P (A1) +∞∑

n=2

P (An −An−1)

= P (A1) +

∞∑

n=2

P (An) − P (An−1)

= P (A1) + lımm→∞

m∑

n=2

P (An) − P (An−1)

= P (A1) + lımm→∞

P (Am) − P (A1)

= lımm→∞

P (Am).

Las medidas de probabilidad tambien son continuas respecto de sucesionesno crecientes de eventos. Esta afirmacion es el contenido del siguiente resul-tado que se demuestra a partir de la proposicion anterior.

Proposicion 14 Sea An : n ∈ N una sucesion no creciente de eventos,esto es, A1 ⊇ A2 ⊇ · · ·. Entonces

P (∞⋂

n=1

An) = lımn→∞

P (An).

Demostracion. Observe que si An ⊇ An+1 entonces Acn ⊆ Ac

n+1. Por laproposicion anterior,

P (∞⋃

n=1

Acn) = lım

n→∞P (Ac

n).

Aplicando las leyes de De Morgan,

1 − P (∞⋂

n=1

An) = lımn→∞

(1 − P (An)),

de donde se sigue facilmente el resultado.

Ahora se enuncia un resultado mas fuerte. La siguiente proposicion estableceque las medidas de probabilidad son funciones continuas. Esta propiedad esmuy util pues permite el calculo de probabilidades en procedimientos lımite,y se encuentra siempre presente de manera implıcita en toda la teorıa quese desarrolla mas adelante.

29

Proposicion 15 (Continuidad de las medidas de probabilidad) SeaAn : n ∈ N una sucesion de eventos convergente al evento A. Entonces

lımn→∞

P (An) = P (A).

Demostracion. La prueba se basa en las siguientes dos desigualdades

a) lım supn→∞

P (An) ≤ P (lım supn→∞

An).

b) P (lım infn→∞

An) ≤ lım infn→∞

P (An).

Como la sucesion de eventos An : n ∈ N es convergente al evento Aentonces

lım supn→∞

An = lım infn→∞

An = A.

Se sigue entonces de las desigualdades (a) y (b) que

lım supn→∞

P (An) ≤ P (lım supn→∞

An)

= P (A)

= P (lım infn→∞

An)

≤ lım infn→∞

P (An).

De donde se concluye el resultado. Nos concentraremos ahora en demostrarlas desigualdades (a) y (b).

(a) Como An ⊆ ⋃∞k=nAk entonces

P (An) ≤ P (

∞⋃

k=n

Ak),

en donde ⋃∞k=nAk : n ∈ N es una sucesion de eventos decreciente. Toman-

do el lımite superior se obtiene

lım supn→∞

P (An) ≤ lım supn→∞

P (∞⋃

k=n

Ak)

= lımn→∞

P (∞⋃

k=n

Ak)

= P ( lımn→∞

∞⋃

k=n

Ak)

= P (

∞⋂

n=1

∞⋃

k=n

Ak)

= P (lım supn→∞

An).

30

(b) Como⋂∞

k=nAk ⊆ An entonces

P (∞⋂

k=n

Ak) ≤ P (An),

en donde ⋂∞k=nAk : n ∈ N es una sucesion creciente de eventos. Tomando

el lımite inferior se obtiene

lım infn→∞

P (An) ≥ lım infn→∞

P (∞⋂

k=n

Ak)

= lımn→∞

P (∞⋂

k=n

Ak)

= P ( lımn→∞

∞⋂

k=n

Ak)

= P (∞⋃

n=1

∞⋂

k=n

Ak)

= P (lım infn→∞

An).

Ejemplo 8 Se lanza un dado equilibrado una infinidad de veces. Sea el even-to A = 2, 4, 6 y sea An el evento correspondiente a obtener el evento Aen cada uno de los primeros n lanzamientos del dado. Entonces claramenteAn ⊇ An+1 para cualquier n en N. Por lo tanto

lımn→∞

An =∞⋂

n=1

An.

Entonces

P (

∞⋂

n=1

An) = P ( lımn→∞

An)

= lımn→∞

P (An)

= lımn→∞

(1

2)n

= 0.

El evento⋂∞

n=1An se interpreta como aquel resultado en el que siempre seobtiene un numero par en una sucesion infinita de lanzamientos. Hemos de-mostrado que la probabilidad de tal evento es cero. Observe que el argumentopresentado funciona de la misma forma cuando el evento A es cualquier sub-conjunto propio de Ω. Por ejemplo, si A = 1, 2, 3, 4, 5 la probabilidad denunca obtener “6” es cero.

31

EJERCICIOS

87. Se lanza una moneda honesta una infinidad de veces. Demuestre que laprobabilidad de que eventualmente cada una de las dos caras aparezcaes uno. Sugerencia: proceda como en el ejemplo 8.

1.3.3. Independencia de eventos

En esta seccion se define el importante concepto de independencia de even-tos. Este es un concepto central en la teorıa de la probabilidad y uno desus rasgos distintivos. De manera natural la independencia aparecera confrecuencia a lo largo del texto a partir de ahora y nos ayudara a simplificarel calculo de probabilidades. La definicion matematica es la siguiente.

Definicion 9 Dos eventos A y B son independientes si

P (A ∩B) = P (A)P (B).

Aceptar la hipotesis de que dos eventos son independientes es una cuestionde apreciacion por parte del observador. Puede interpretarse en el sentidode que la ocurrencia de uno de los eventos no proporciona informacion quemodifique la probabilidad de ocurrencia del segundo evento. Contrario a al-guna primera concepcion intuitiva erronea, el hecho de que dos eventos seanindependientes no implica que ellos sean ajenos. La proposicion contrariatampoco es valida, dos eventos ajenos no necesariamente son independi-entes. La definicion de independencia puede extenderse a colecciones finitase incluso infinitas de eventos del siguiente modo.

Definicion 10 Los eventos A1, . . . , An son independientes si se cumplentodas y cada una de las siguientes condiciones

P (Ai ∩Aj) = P (Ai)P (Aj), i, j distintos. (1.1)

P (Ai ∩Aj ∩Ak) = P (Ai)P (Aj)P (Ak), i, j, k distintos. (1.2)

...

P (A1 ∩A2 ∩ · · · ∩An) = P (A1)P (A2) · · ·P (An).

Mas generalmente, una coleccion infinita de eventos es independiente sicualquier subcoleccion finita lo es.

Observe que segun la definicion anterior, se necesitan verificar o suponervarias condiciones para que n eventos sean independientes entre sı. De hechoel numero total de igualdades a demostrar es 2n. La independencia dos ados (1.1) no implica en general la independencia tres a tres (1.2), ni viceversa.

32

Tambien se tiene la nocion de independencia entre dos colecciones de eventos.La definicion es la siguiente.

Definicion 11 Dos sub-σ-algebras F1 y F2 son independientes si para cadaA en F1 y cada B en F2 se cumple

P (A ∩B) = P (A)P (B).

EJERCICIOS

88. Demuestre que A y B son independientes si y solo si

a) A y Bc lo son.

b) Ac y B lo son.

c) Ac y Bc lo son.

89. Demuestre que A1, . . . , An son independientes si y solo si Ac1, . . . , A

cn

lo son.

90. Sean A1, A2, A3 eventos. Mediante un contraejemplo demuestre que

a) independencia dos a dos no implica independencia tres a tres.

b) independencia tres a tres no implica independencia dos a dos.

91. Demuestre que un evento A es independiente consigo mismo si y solosi P (A) = 0 o P (A) = 1.

92. Sea A un evento tal que P (A) = 0 o P (A) = 1. Demuestre que A esindependiente de cualquier otro evento B.

93. Mediante un contraejemplo demuestre que

a) A,B independientes 6=⇒ A,B ajenos.

b) A,B ajenos 6=⇒ A,B independientes.

94. Sean A1, . . . , An independientes. Demuestre que

P (n⋃

k=1

Ak) = 1 −n∏

k=1

[1 − P (Ak)].

95. Sea A1, A2, . . . una sucesion infinita de eventos. Defina

Bn =

∞⋃

k=n

Ak y Cn =

∞⋂

k=n

Ak.

Demuestre que si Bn y Cn son independientes para cada n entonceslım sup

n→∞An y lım inf

n→∞An tambien son independientes. En particular,

cuando lımn→∞

An = A entonces P (A) = 0 o P (A) = 1.

96. Sean A y B independientes. Demuestre que σA y σB son inde-pendientes.

33

1.3.4. Lema de Borel-Cantelli

Concluimos este capıtulo con el enunciado y demostracion del famoso lemade Borel-Cantelli. Nuestro objetivo es demostrar este resultado y con elloponer en practica algunas propiedades de las medidas de probabilidad vistasantes. Aplicaremos este resultado para demostrar la ley fuerte de los grandesnumeros en el ultimo capıtulo.

Proposicion 16 (Lema de Borel-Cantelli) Sea An : n ∈ N una suce-sion de eventos. Sea A = lım sup

n→∞An.

1. Si∞∑

n=1

P (An) <∞ entonces P (A) = 0.

2. Si A1, A2, . . . son independientes y∞∑

n=1

P (An) = ∞ entonces P (A) = 1.

Demostracion. (1) Para cada n en N,

P (A) ≤ P (

∞⋃

k=n

Ak) ≤∞∑

k=n

P (Ak).

Como∑∞

n=1 P (An) < ∞, el lado derecho tiende a cero cuando n tiende ainfinito. Esto implica que P (A) = 0.(2) Es suficiente demostrar que para todo numero natural n se cumple laigualdad P (

⋃∞k=nAk) = 1, pues la interseccion numerable de eventos con

probabilidad uno tiene probabilidad uno. Para cada m > n,

1 − P (∞⋃

k=n

Ak) ≤ 1 − P (m⋃

k=n

Ak)

= P (

m⋂

k=n

Ack)

=m∏

k=n

[1 − P (Ak)]

≤ exp(−m∑

k=n

P (Ak)).

Para obtener la ultima expresion se usa la desigualdad 1 − x ≤ e−x, validapara cualquier numero real x. Como

∑∞n=1 P (An) = ∞, el lado derecho

tiende a cero cuando m tiende a infinito. Por lo tanto P (⋃∞

k=nAk) = 1 paracualquier valor de n y entonces P (A) = 1.

34

EJERCICIOS

97. Enuncie con precision el lema de Borel-Cantelli.

35

Capıtulo 2

Variables aleatorias

En este capıtulo se estudian los conceptos de variable aleatoria, funcion dedistribucion, funcion de densidad y esperanza. Se estudian tambien algunasdistribuciones de probabilidad de variables aleatorias discretas y continuasparticulares. A partir de ahora y en el resto del curso consideraremos comoelemento base un espacio de probabilidad (Ω,F , P ).

2.1. Variables aleatorias

Definicion 12 Una variable aleatoria es una funcion X : Ω → R tal quepara cualquier conjunto Boreliano B, se cumple que el conjunto X−1B esun elemento de F .

Esto es, una variable aleatoria (v.a.) es una funcion de Ω en R tal que la im-agen inversa de cualquier conjunto Boreliano es un elemento de la σ-algebradel espacio de probabilidad. Esta condicion se conoce como “medibilidad”en teorıa de la medida. Decimos entonces que dicha funcion es “medible”respecto de las σ-algebras F y B(R).

Se justifica a continuacion las razones tecnicas por las cuales se le pide auna funcion X : Ω → R que cumpla la condicion de medibilidad. Recorde-mos que P es una medida de probabilidad definida sobre el espacio medible(Ω,F). Si X es una variable aleatoria entonces podemos trasladar la medidade probabilidad P al espacio medible (R,B(R)) del siguiente modo. Si B esun conjunto Boreliano definimos PX(B) = P (X−1B), lo cual es consistentepues el conjunto X−1B es un elemento de F , dominio de definicion de P . Lafuncion PX : B(R) → [0, 1] resulta ser una medida de probabilidad y se le lla-ma por tanto la “medida de probabilidad inducida” por la variable aleatoriaX. De este modo se construye el espacio de probabilidad (R,B(R), PX).

36

Si B es un conjunto Boreliano, se usan los sımbolos X−1B y (X ∈ B)para denotar el conjunto ω ∈ Ω : X(ω) ∈ B. Por ejemplo el conjuntoω ∈ Ω : X(ω) ∈ [0,∞) puede ser denotado por X−1[0,∞) o (X ∈ [0,∞)),o simplemente por (X ≥ 0), incluyendo los parentesis. Veamos otro ejemplo.Si (a, b) es un intervalo de la recta real, se puede usar el sımbolo X−1(a, b) o(X ∈ (a, b)) o bien (a < X < b) para denotar el conjunto ω ∈ Ω : X(ω) ∈(a, b). Para hacer la escritura mas corta, a menudo se omite el argumentoω de una v.a. X y se omite tambien el termino “variable aleatoria” para Xasumiendo, en la mayorıa de las veces, que lo es.

Para comprobar que una funcion X : Ω → R es realmente una variablealeatoria, la definicion requiere verificar la condicionX−1B ∈ F para cualquierconjunto Boreliano B. En muy pocos casos tal condicion puede compro-barse de manera tan general. La siguiente proposicion establece que no esnecesario demostrar la condicion de medibilidad para cualquier conjuntoBoreliano B, sino que es suficiente tomar intervalos de la forma (∞, x] paracada x en R. Este resultado, como uno puede imaginar, es de suma utilidadpara demostrar que una funcion dada es variable aleatoria. Lo usaremos confrecuencia en el resto del capıtulo.

Proposicion 17 Una funcion X : Ω → R es una variable aleatoria si y solosi el conjunto X−1(−∞, x] es un elemento de F para cada x en R.

Demostracion.(⇒) Si X es variable aleatoria entonces claramente se cumple que paracualquier numero real x el conjunto X−1(−∞, x] es un elemento de F .(⇐)Ahora suponga que para cada real x, el conjunto X−1(−∞, x] es unelemento de F . Sean B y C las colecciones

B = B ∈ B(R) : X−1B ∈ F,C = (−∞, x] : x ∈ R.

Entonces claramente C ⊆ B ⊆ B(R). La primera contencion es por hipotesisy la segunda es por definicion de la coleccion B. Suponga por un momentoque B es una σ-algebra de subconjuntos de R. Entonces B es una σ-algebraque contiene a C. Por lo tanto σ(C) = B(R) ⊆ B. Esto implica que B =B(R) y entonces X es variable aleatoria. Resta entonces hacer ver que B esefectivamente una σ-algebra.

(i) Primeramente tenemos que R ∈ B pues R ∈ B(R) y X−1R = Ω ∈ F .

(ii) Sea B ∈ B. Entonces B ∈ B(R) y X−1B ∈ F . Entonces Bc ∈ B(R) yX−1Bc = (X−1B)c ∈ F . Es decir, Bc ∈ B.

(iii) Sea B1, B2, . . . una sucesion en B. Es decir, para cada n numero natu-

ral,Bn ∈ B(R) yX−1Bn ∈ F . Entonces∞⋃

n=1

Bn ∈ B(R) y∞⋃

n=1

X−1Bn =

37

X−1∞⋃

n=1

Bn ∈ F . Es decir,∞⋃

n=1

Bn ∈ B.

Ademas de la condicion anterior para demostrar que una funcion es vari-able aleatoria existen otras condiciones igualmente equivalentes y utiles. Porejemplo X es variable aleatoria si para cada x en R, X−1(−∞, x) ∈ F , oX−1(x,∞) ∈ F , o X−1[x,∞) ∈ F . Cualquiera de estas condiciones es nece-saria y suficiente para que X sea variable aleatoria. Tambien la condicionX−1(a, b) ∈ F para cualquier intervalo (a, b) de R es equivalente para queX sea variable aleatoria. La demostracion de todas estas aseveraciones escompletamente analoga al caso demostrado arriba y se pide desarrollar losdetalles en la seccion de ejercicios.

Considere los espacios medibles (Ω,F) y (R,B(R)). Si X es una funcion deΩ en R entonces se denota por σ(X) a la mınima σ-algebra de subconjuntosde Ω respecto de la cual X es variable aleatoria. Es decir,

σ(X) = X−1B : B ∈ B(R).

Es sencillo probar que tal coleccion de imagenes inversas es efectivamenteuna σ-algebra. Claramente X es variable aleatoria si y solo si σ(X) ⊆ F .

A continuacion se demuestra que algunas operaciones basicas entre variablesaleatorias producen nuevas variables aleatorias. Suponga que (Ω,F , P ) es unespacio de probabilidad dado. Todas las variables aleatorias que se consid-eran a continuacion estan definidas sobre este espacio de probabilidad.

Proposicion 18 La funcion constante X = c es una v.a.

Demostracion. Sea B un elemento cualquiera de B(R). Para la funcion con-stante X = c se tiene que X−1B = Ω si c ∈ B, y X−1B = ∅ si c /∈ B. Enambos casos el conjunto X−1B es un elemento de F , por lo tanto X = c esv.a.

Proposicion 19 Si X es v.a. y c es una constante entonces cX es v.a.

Demostracion. Comprobaremos que para cada numero real x, el conjunto(cX)−1(−∞, x] es un elemento de F . Tenemos tres casos. Si c > 0 entonces elconjunto (cX ≤ x) = (X ≤ x/c) es un elemento de F pues X es v.a. Si c < 0entonces nuevamente el conjunto (cX ≤ x) = (X ≥ x/c) es un elemento deF pues X es v.a. Finalmente si c = 0 entonces claramente cX = 0 es v.a.por la proposicion anterior.

Proposicion 20 Si X y Y son v.a.s entonces X + Y es v.a.

38

Demostracion. Probaremos que para cada numero real x, el conjunto (X +Y )−1(x,∞) = (X + Y > x) es un elemento de F . Para ello usaremos laigualdad

(X + Y > x) =⋃

r∈Q

(X > r) ∩ (Y > x− r). (2.1)

Es claro que de esta igualdad se concluye que el conjunto (X+Y > x) es unelemento de F pues tanto X como Y son variables aleatorias y la operacionde union involucrada es numerable. Resta entonces demostrar (2.1).

(⊆) Sea ω en Ω tal que X(ω) + Y (ω) > x. Entonces X(ω) > x − Y (ω).Como los numeros racionales son un conjunto denso en R, tenemosque existe un numero racional r tal que X(ω) > r > x − Y (ω). Porlo tanto X(ω) > r y Y (ω) > x− r. De aqui se desprende que ω es unelemento del lado derecho.

(⊇) Sea ahora ω un elemento de⋃

r∈Q(X > r)∩(Y > x−r). Entonces existeun numero racional r0 tal que X(ω) > r0 y Y (ω) > x− r0. Sumandoobtenemos X(ω) + Y (ω) > x y por lo tanto ω es un elemento del ladoizquierdo.

Proposicion 21 Si X y Y son v.a.s entonces XY es v.a.

Demostracion. Suponga primero el caso particular X = Y . Entonces nece-sitamos probar que para todo numero real x, el conjunto (X2 ≤ x) esun elemento de F . Pero esto es cierto pues (X2 ≤ x) = ∅ si x < 0 y(X2 ≤ x) = (−√

x ≤ X ≤ √x) si x ≥ 0. En ambos casos, (X2)−1(−∞, x]

es un elemento de F . Para el caso general X 6= Y usamos la formula deinterpolacion

XY =(X + Y )2 − (X − Y )2

4.

Por lo demostrado antes, XY es efectivamente una v.a.

Como consecuencia de la proposicion anterior se cumple que si multiplicamosX por si misma n veces entonces Xn es variable aleatoria. Por lo tanto todafuncion polinomial de una variable aleatoria es tambien variable aleatoria.

Proposicion 22 Sean X y Y v.a.s con Y 6= 0. Entonces X/Y es v.a.

Demostracion. Primeramente demostramos que 1/Y es v.a. Para cualquiernumero real y > 0 tenemos que

(1

Y≤ y) = (

1

Y≤ y, Y > 0) ∪ (

1

Y≤ y, Y < 0)

= (Y ≥ 1

y, Y > 0) ∪ (Y ≤ 1

y, Y < 0)

= (Y ≥ 1

y) ∪ (Y < 0),

39

que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemosque

(1

Y≤ y) = (

1

Y≤ y, Y > 0) ∪ (

1

Y≤ y, Y < 0)

= (Y ≤ 1

y, Y > 0) ∪ (Y ≥ 1

y, Y < 0)

= ∅ ∪ (Y ≥ 1

y, Y < 0)

= (1

y≤ Y < 0).

Nuevamente vemos que este conjunto es un elemento de F puesto que Y esv.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de Fpues

(1

Y≤ 0) = (

1

Y≤ 0, Y > 0) ∪ (

1

Y≤ 0, Y < 0)

= ∅ ∪ (Y < 0)

= (Y < 0).

Esto demuestra que 1/Y es v.a. Como el producto de v.a.s es nuevamenteuna v.a. concluimos entonces que X/Y es v.a.

Proposicion 23 Si X y Y son v.a.s entonces maxX,Y y mınX,Y sonvariables aleatorias.

Demostracion. Para cualquier numero real x,

(maxX,Y ≤ x) = (X ≤ x, Y ≤ x) = (X ≤ x) ∩ (Y ≤ x).

Analogamente

(mınX,Y ≥ x) = (X ≥ x, Y ≥ x) = (X ≥ x) ∩ (Y ≥ x).

En ambos casos los dos conjuntos del lado derecho son elementos de F . Porlo tanto el lado izquierdo tambien pertenece a F .

Como consecuencia de la proposicion anterior se obtiene que tanto X+ =max0, X como X− = −min0, X son variables aleatorias.

Proposicion 24 Si X es v.a. entonces |X| es v.a.

Demostracion. Si x ≥ 0 entonces |X|−1(−∞, x] = ω : −x ≤ X(ω) ≤x ∈ F , y si x < 0 entonces |X|−1(−∞, x] = ∅ ∈ F , de modo que |X| esv.a. Alternativamente se puede escribir |X| = X+ +X− y por lo expuestoanteriormente |X| es v.a.

Demostraremos a continuacion que el recıproco de la proposicion anteriores falso. Esto es, si X : Ω → R es una funcion tal que |X| es v.a. entonces

40

no necesariamente X es v.a. Considere por ejemplo el espacio muestral Ω =−1, 0, 1 junto con la σ-algebra F = ∅, 0, −1, 1,Ω. Sea X : Ω → R

la funcion identidad X(ω) = w. Entonces |X| es v.a. pues para cualquierconjunto Boreliano B,

|X|−1B =

Ω si 0, 1 ∈ B,−1, 1 si 0 /∈ B y 1 ∈ B,0 si 0 ∈ B y 1 /∈ B,∅ si 0, 1 /∈ B.

Es decir, |X|−1B es un elemento de F . Sin embargo X no es v.a. puesX−1−1 = −1 no es un elemento de F .

Proposicion 25 Sea Xn : n ∈ N una sucesion de v.a.s. Entonces supnXn

e ınfnXn, cuando existen, son v.a.s

Demostracion. Este resultado se sigue directamente de las siguientes igual-dades. Para cualquier x en R

(supnXn ≤ x) =

∞⋂

n=1

(Xn ≤ x) ∈ F ,

(ınfnXn ≥ x) =

∞⋂

n=1

(Xn ≥ x) ∈ F .

Proposicion 26 Sea Xn : n ∈ N una sucesion de v.a.s. Entonces lım supn→∞

Xn

y lım infn→∞

Xn, cuando existen, son v.a.s

Demostracion. Esto es consecuencia de la proposicion anterior pues

1. lım supn→∞

Xn = ınfk

(supn≥k

Xn) es v.a.,

2. lım infn→∞

Xn = supk

( ınfn≥k

Xn) es v.a.

Proposicion 27 Sea Xn : n ∈ N es una sucesion de v.a.s tales quelım

n→∞Xn(ω) existe para cada ω ∈ Ω. Entonces lım

n→∞Xn es v.a.

Demostracion. Si lım supn→∞

Xn y lım infn→∞

Xn coinciden entonces lımn→∞

Xn existe

y es el valor lımite comun. Por lo anterior, lımn→∞

Xn es v.a.

41

EJERCICIOS

98. Demuestre que la funcion constanteX(ω) = c es una variable aleatoria.

99. Demuestre que la funcion identidad X(ω) = ω no es variable aleatoriacuando Ω = 1, 2, 3 y F = ∅, 1, 2, 3,Ω.

100. Sea Ω = −1, , 0, 1 y F = ∅, 0, −1, 1,Ω. Considere la funcionidentidad X(ω) = ω. Demuestre que X2 es variable aleatoria pero Xno lo es.

101. Demuestre que X es variable aleatoria si y solo si X−1(−∞, x) ∈ Fpara cada x ∈ R.

102. Demuestre que X es variable aleatoria si y solo si X−1[x,∞) ∈ F paracada x ∈ R.

103. Demuestre que X es variable aleatoria si y solo si X−1(x,∞) ∈ F paracada x ∈ R.

104. Demuestre que X es variable aleatoria si y solo si X−1(a, b) ∈ F paracada (a, b) ⊆ R.

105. Demuestre que si X es v.a. entonces |X| tambien lo es.

106. Mediante un contraejemplo demuestre que si |X| es v.a. entonces nonecesariamente X es v.a.

107. Sea (Ω,F) un espacio medible tal que F = ∅,Ω, A,Ac con A ⊆ Ω.Demuestre que toda funcion medible X : Ω → R es constante en A yen Ac. Por lo tanto toda funcion medible respecto de esta σ-algebratoma a los sumo dos valores distintos.

108. Sea c una constante y X una v.a. Demuestre directamente que cX esv.a.

109. Sea c una constante y X una v.a. Demuestre directamente que X + ces v.a.

110. Sea c una constante y sea X una variable aleatoria. Demuestre direc-tamente que tanto X ∨ c com X ∧ c son variables aleatorias.

111. Demuestre directamente que la suma y diferencia de dos variablesaleatorias es variable aleatoria.

112. Sea X una variable aleatoria. Demuestre que la parte entera de X,denotada por ⌊X⌋, es una variable aleatoria discreta.

113. Demuestre que el conjunto de v.a.s definidas sobre un espacio de prob-abilidad es un espacio vectorial con las operaciones usuales de suma yproducto por escalares.

114. Demuestre directamente que el producto y cociente (cuando exista) dedos variables aleatorias es variable aleatoria.

42

115. SeanX y Y v.a.s. Demuestre que tantoX∨Y comoX∧Y son variablesaleatorias.

116. Sea Xn : n ∈ N una sucesion de v.a.s. Demuestre que, si existen,tanto sup

nXn como ınf

nXn son variables aleatorias.

117. Demuestre que si X es variable aleatoria entonces tambien lo son Xn

y 2X3 − 5X.

118. Demuestre queX es variable aleatoria si y solo si tantoX+ = max0, Xcomo X− = −mın0, X lo son.

119. Sea A ⊆ Ω. Demuestre que la funcion indicadora 1A : Ω → R esvariable aleatoria si y solo si el conjunto A es medible.

120. Sean A,B ⊆ Ω. Diga falso o verdadero. Demuestre en cada caso.

a) A,B medibles =⇒ 1A + 1B es v.a.

b) 1A + 1B es v.a. =⇒ A,B son medibles.

121. Sean A,B subconjuntos disjuntos de Ω y sean a, b dos numeros realesdistintos. Demuestre que

a1A + b1B es v.a. ⇐⇒ A,B son medibles.

Una de estas implicaciones resulta falsa cuando se omite la condicionde que los numeros a y b son distintos. ¿Cual de ellas es?

122. Sean A1, . . . , An subconjuntos disjuntos de Ω y a1, . . . , an constantesdistintas. Demuestre que

n∑

i=1

ai1Aies v.a. ⇐⇒ Ai es medible para i = 1, . . . , n.

123. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funcionesindicadoras. Directamente de la definicion demuestre que las funciones1A + 1B y 1A · 1B son variables aleatorias.

124. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos(X = Y ), (X ≤ Y ), (X > Y ) y (X 6= Y ) son eventos. Sugerencia:Proceda como en la formula (2.1) de la pagina 39.

125. Sea X una variable aleatoria y g : (R,B(R)) → (R,B(R)) una funcionBorel medible. Demuestre que g(X) = g X : Ω → R es tambien unavariable aleatoria.Sugerencia: Demuestre que la coleccion B = B ∈ B(R) : g−1B ∈B(R) coincide con B(R) usando los siguientes dos resultados: (1) Dadauna funcion continua de R en R, la imagen inversa de un conjuntoabierto es nuevamente un conjunto abierto. (2) Todo conjunto abiertode R distinto del vacıo puede expresarse como una union numerablede intervalos abiertos.

43

126. Sea X una v.a. Demuestre que

a) Y = eX es v.a.

b) Y = senX es v.a.

c) Y = cosX es v.a.

127. Sea X : Ω → R una funcion. Proporcione un ejemplo en el que X2 seavariable aleatoria pero X no lo sea.

128. Sea X : Ω → R una funcion. Proporcione un ejemplo en el que X2 seavariable aleatoria pero |X| no lo sea.

129. Sean X1, . . . , Xn v.a.s. Demuestre que

a) X =1

n

n∑

i=1

Xi es v.a.

b) S2 =1

n− 1

n∑

i=1

(Xi − X)2 es v.a.

130. Sea X una variable aleatoria y sean a < b dos constantes. Demuestreque las siguientes funciones son variables aleatorias.

a) Y =

X si X < a,a si X ≥ a.

b) Y =

a si X < a,X si a ≤ X ≤ b,b si X > b, .

c) Y =

X si |X| ≤ a,0 si |X| > a.

131. Sean (Ω1,F1) y (Ω2,F2) dos espacios medibles y sea

X : (Ω1,F1) → (Ω2,F2)

una funcion medible. Suponga que P : F1 → [0, 1] es una medida deprobabilidad. Demuestre que

P X−1 : F2 → [0, 1]

es tambien una medida de probabilidad. A la medida P X−1 se lellama “medida de probabilidad inducida” por X.

2.2. Funcion de distribucion

Toda variable aleatoria tiene asociada una funcion llamada “funcion de dis-tribucion”. En esta seccion se define este importante concepto y se demues-tran algunas de sus propiedades.

44

Definicion 13 La funcion de distribucion de X es la funcion F (x) : R → R

definida como sigueF (x) = P (X ≤ x).

Cuando sea necesario especificar la variable aleatoria en cuestion se escribeFX(x), pero en general se omite el subındice X cuando no haya posibili-dad de confusion. El argumento de la funcion es la letra minuscula x quepuede tomar cualquier valor real. Por razones obvias a esta funcion se leconoce tambien con el nombre de “funcion de acumulacion de probabilidad”o “funcion de probabilidad acumulada’’. Observe que la funcion de distribu-cion de una variable aleatoria esta definida sobre la totalidad del conjuntode numeros reales y toma valores en el intervalo [0, 1]. La funcion de dis-tribucion es importante pues, como se ilustrara mas adelante, contiene ellatoda la informacion de la variable aleatoria y la correspondiente medida deprobabilidad. A continuacion se estudian algunas propiedades de la funcionde distribucion.

Proposicion 28 Sea F (x) la funcion de distribucion de una variable aleato-ria. Entonces

1. lımx→+∞

F (x) = 1.

2. lımx→−∞

F (x) = 0.

3. Si x1 ≤ x2 entonces F (x1) ≤ F (x2).

4. F (x) es continua por la derecha, es decir, F (x+) = F (x).1

Demostracion. (1) Sea xn : n ∈ N una sucesion cualquiera de numerosreales creciente a infinito y sean los eventos An = (X ≤ xn). EntoncesAn : n ∈ N es una sucesion de eventos creciente cuyo lımite es Ω. Por lapropiedad de continuidad

lımn→∞

F (xn) = lımn→∞

P (An)

= P (Ω)

= 1.

Como R es un espacio metrico lo anterior implica que F (x) converge a unocuando x tiende a infinito.(2) Sea xn : n ∈ N una sucesion cualquiera de numeros reales decrecientea menos infinito y sean los eventos An = (X ≤ xn). Entonces An : n ∈ N

1La expresion F (x+) significa el lımite por la derecha de la funcion F en el punto x.

45

es una sucesion de eventos decreciente al conjunto vacıo. Por la propiedadde continuidad

lımn→∞

F (xn) = lımn→∞

P (An)

= P (∅)= 0.

Por lo tanto, F (x) converge a cero cuando x tiende a menos infinito.(3) Para x1 ≤ x2,

F (x1) ≤ F (x1) + P (x1 < X ≤ x2)

= P [(X ≤ x1) ∪ (x1 < X ≤ x2)]

= P (X ≤ x2)

= F (x2).

(4) Sea xn : n ∈ N una sucesion cualquiera de numeros reales no negativosy decreciente a cero. Entonces

F (x+ xn) = F (x) + P (x < X ≤ x+ xn),

en donde An = (x < X ≤ x+ xn) es una sucesion de eventos decreciente alconjunto vacıo. Por lo tanto

lımn→∞

F (x+ xn) = F (x).

Es decirF (x+) = F (x).

El recıproco de la proposicion anterior es valido y justifica la importanciade la funcion de distribucion. Se enuncia a continuacion este interesanteresultado cuya demostracion omitiremos y puede encontrarse por ejemploen [8].

Proposicion 29 Sea F (x) : R → R una funcion que satisface las cuatropropiedades de la proposicion anterior. Entonces existe un espacio de prob-abilidad y una variable aleatoria cuya funcion de distribucion es F (x).

Como consecuencia tenemos la siguiente definicion general.

Definicion 14 Una funcion F (x) : R → R es llamada “funcion de distribu-cion” si cumple con las cuatro propiedades anteriores.

Veamos algunas otras propiedades que establecen la forma de calcular prob-abilidades usando la funcion de distribucion.

46

Proposicion 30 Para cualquier numero x y para cualesquiera numerosreales a ≤ b,

1. P (X < x) = F (x−).2

2. P (X = x) = F (x) − F (x−).

3. P (X ∈ (a, b]) = F (b) − F (a).

4. P (X ∈ [a, b]) = F (b) − F (a−).

5. P (X ∈ (a, b)) = F (b−) − F (a).

6. P (X ∈ [a, b)) = F (b−) − F (a−).

Demostracion. (1) Sea xn : n ∈ N una sucesion cualquiera de numerosreales no negativos y decreciente a cero. Sea An el evento (X ≤ a − xn).Entonces An : n ∈ N es una sucesion de eventos decreciente al evento(X < a). Por la propiedad de continuidad

P (X < a) = lımn→∞

P (An)

= lımn→∞

F (a− xn)

= F (a−).

Para (2) simplemente escribimos

P (X = x) = P (X ≤ x) − P (X < x)

= F (x) − F (x−).

Las igualdades (3),(4),(5) y (6) se siguen directamente de (1) y (2).

Observe que como F(x) es una funcion no decreciente y continua por laderecha, la probabilidad P (X = x) = F (x) − F (x−) representa el tamanodel salto o discontinuidad de la funcion de distribucion en el punto x. Enconsecuencia, cuando F (x) es una funcion continua y para a < b,

F (b) − F (a) = P (X ∈ (a, b])

= P (X ∈ [a, b])

= P (X ∈ (a, b))

= P (X ∈ [a, b)).

Es decir, incluir o excluir los extremos de un intervalo no afecta el calculode la probabilidad de dicho intervalo. Por lo tanto para cualquier numero x,P (X = x) = 0. Finalizamos esta seccion con un resultado interesante cuyaprueba es simple.

Proposicion 31 Toda funcion de distribucion tiene a lo sumo un numeronumerable de discontinuidades.

2La expresion F (x−) significa el lımite por la izquierda de la funcion F en el punto x.

47

Demostracion. SeaD el conjunto de puntos de discontinuidad de una funcionde distribucion F (x). Para cada numero natural n defina los subconjuntos

Dn = x ∈ D :1

n+ 1< F (x) − F (x−) ≤ 1

n.

Cada conjunto Dn tiene a lo sumo n elementos. Como D =⋃∞

n=1Dn seconcluye que D es numerable.

EJERCICIOS

132. Demuestre que las siguientes funciones son de distribucion.

a) F (x) = 1 − e−x para x > 0.

b) F (x) = 1 − (1 + x)e−x para x > 0.

c) F (x) =

0 si x < −1,(x+ 1)/2 si x ∈ [−1, 1],1 si x > 1.

133. Investigue si las siguientes funciones son de distribucion.

a) F (x) = x para x ∈ R.

b) F (x) = 1 − e−x2para x > 0.

c) F (x) = e−1/x para x > 0.

d) F (x) =ex

1 + expara x ∈ R.

e) F (x) =ex

ex + e−xpara x ∈ R.

134. Sean F (x) y G(x) dos funciones de distribucion. Determine si las sigu-ientes funciones son de distribucion.

a) aF (x) + (1 − a)G(x) con 0 ≤ a ≤ 1.

b) F (x) +G(x).

c) F (x)G(x).

135. Sea X con funcion de distribucion

F (x) =

0 si x < 2,

1 − 4

x2si x ≥ 2.

Grafique y demuestre que F (x) es una funcion de distribucion. Calculeademas P (X ≤ 4), P (X > 1), P (4 < X < 6) y P (X = 2).

136. Sea X con funcion de distribucion

F (x) =

0 si x < 0,0.2 si 0 ≤ x < 1,0.5 si 1 ≤ x < 3,0.9 si 3 ≤ x < 4,1 si x ≥ 4.

48

Grafique y demuestre que F (x) es una funcion de distribucion. Calculeademas P (X ≤ 1), P (X = 1), P (0 < X < 3), P (X = 4) y P (X ≥ 3).

137. Sea X con funcion de distribucion F(x). Demuestre que

a) lımx→∞

F (x) = 1.

b) lımx→−∞

F (x) = 0.

c) x1 ≤ x2 =⇒ F (x1) ≤ F (x2).

d) F (x+) = F (x).

138. Sea X con funcion de distribucion F(x). Demuestre que

a) P (X < x) = F (x−).

b) P (X = x) = F (x) − F (x−).

c) P (X > x) = 1 − F (x).

139. Sea X con funcion de distribucion F(x). Demuestre que para x ≤ y

a) P (x < X ≤ y) = F (y) − F (x).

b) P (x < X < y) = F (y−) − F (x).

c) P (x ≤ X ≤ y) = F (y) − F (x−).

d) P (x ≤ X < y) = F (y−) − F (x−).

140. En la escuela rusa de probabilidad se define la funcion de distribucionde una variable aleatoria X como F (x) = P (X < x). Observe el signo“<” en lugar de “≤” usado en nuestra definicion. Demuestre que eneste caso la funcion de distribucion es continua por la izquierda.

141. Sea F (x) una funcion de distribucion continua. Demuestre que parapara cualquier entero n ≥ 1, las siguientes funciones tambien son dedistribucion.

a) G(x) = [F (x)]n.

b) G(x) = 1 − [1 − F (x)]n.

142. Sea X con funcion de distribucion F (x). Diga falso o verdadero. De-muestre en cada caso.

a) F (x) = P (X < x) + P (X = x).

b) 1 − F (x) = P (X ≥ x).

c) 1 − P (X < x) − P (X > x) = P (X = x).

143. Encuentre FY (y) en terminos de FX(x) cuando

a) Y = aX + b con a, b constantes.

b) Y = eX .

c) Y = e−X .

d) Y = X2.

49

e) Y = X+ = max0, X.f ) Y = X− = −mın0, X.g) Y = |X|.h) Y = −X.

i) Y = senX.

144. Sea X con funcion de distribucion FX(x) y sean a < b dos constantes.Calcule y grafique la funcion de distribucion de

a) Y =

X si X < a,a si X ≥ a.

b) Y =

a si X < a,X si a ≤ X ≤ b,b si X > b.

c) Y =

X si |X| ≤ a,0 si |X| > a.

145. Sean F (x) y G(x) dos funciones de distribucion continuas y estricta-mente crecientes. Demuestre que

a) si F (x) ≥ G(x) entonces F−1(y) ≤ G−1(y).

b) si X tiene funcion de distribucion F (x) entonces Y = G−1(F (X))tiene funcion de distribucion G(x).

c) si F (x) ≥ G(x) entonces existen variables aleatorias X y Y cuyasfunciones de distribucion son F (x) y G(x) respectivamente, y sontales que X ≤ Y . Sugerencia: Use el inciso anterior.

2.3. Tipos de variables aleatorias

Las variables aleatorias se clasifican en al menos dos tipos: discretas y con-tinuas. La definicion es la siguiente. Sea X una variable aleatoria con funcionde distribucion F (x).

Definicion 15 La variable aleatoria X se llama “discreta” si su correspon-diente funcion de distribucion F (x) es una “funcion constante por pedazos”.Sean x1, x2, . . . los puntos de discontinuidad de F (x). En cada uno de estospuntos el tamano de la discontinuidad es P (X = xi) = F (xi)−F (xi−) > 0.A la funcion f(x) que indica estos incrementos se le llama “funcion de den-sidad” de X y se define como sigue

f(x) =

P (X = x) si x = x1, x2, . . .0 otro caso.

(2.2)

50

En este caso discreto la funcion f(x) siempre existe y se le llama tambien“funcion de masa de probabilidad” o simplemente “funcion de probabilidad”de la variable aleatoria X. Cuando sea necesario especificarlo se escribefX(x) en lugar de f(x). Observe que f(x) es una funcion no negativa quesuma uno en el sentido que

i f(xi) = 1. Recıprocamente toda funcionde la forma (2.2) que cumpla estas dos propiedades se le llama “funcion dedensidad”, sin que haya necesariamente una variable aleatoria de por medio.Es posible reconstruir la funcion de distribucion a partir de la funcion dedensidad mediante la relacion

F (x) =∑

xi≤x

f(xi).

Definicion 16 La variable aleatoria X se llama “continua” si su correspon-dientes funcion de distribucion F (x) es una funcion continua. Cuando existeuna funcion integrable f ≥ 0 tal que

F (x) =

∫ x

−∞f(u) du, (2.3)

para cualquier valor de x, entonces se dice que X es “absolutamente con-tinua”. En tal caso a la funcion f(x) se le llama “funcion de densidad” deX.

No todas las variables aleatorias continuas tienen funcion de densidad, yaun cuando esta exista puede no ser unica pues basta modificarla en unpunto para que sea ligeramente distinta y a pesar de ello seguir cumplien-do (2.3). Es claro que la funcion de densidad de una variable aleatoria ab-solutamente continua es no negativa y su integral sobre toda la recta real esuno. Recıprocamente toda funcion f(x) no negativa que integre uno en R sellama funcion de densidad. Si X es absolutamente continua con funcion dedistribucion F (X) y funcion de densidad continua f(x) entonces el teoremafundamental del calculo establece que, a partir de (2.3), F ′(x) = f(x).

Una variable aleatoria que no es discreta ni continua se llama “variablealeatoria mixta”, y un ejemplo de este tipo de variables se presenta a con-tinuacion.

Ejemplo 9 (Variable aleatoria que no es discreta ni continua.) Sea X unavariable aleatoria con funcion de distribucion

F (x) =

1 − e−x si x > 0,0 si x ≤ 0.

Como F (x) es continua entonces X es una variable aleatoria continua. SeaY = X∧M con M > 0 constante. Observe que Y esta acotada superiormente

51

por la constante M . La funcion de distribucion de Y es

F (y) =

1 si y ≥M,1 − e−x si 0 < y < M,0 si x ≤ 0.

Esta funcion no es constante por pedazos pues es creciente en (0,M) y tam-poco es continua pues tiene una discontinuidad en y = M . Por lo tanto Yes una variable aleatoria que no es discreta ni continua.

EJERCICIOS

146. Encuentre la constante c que hace a f(x) una funcion de densidad.

a) f(x) =c

x(x+ 1)para x = 1, 2, . . .

b) f(x) = ce−x para x = 1, 2, . . .

c) f(x) =c

x!para x = 1, 2, . . .

d) f(x) = cx2 para 0 < x < 1.

e) f(x) = cxe−2x2para x > 0.

f ) f(x) = cx−2 para x > 1.

g) f(x) =cex

(1 + ex)2para x ∈ R.

h) f(x) = cx(1 − x) para 0 < x < 1.

i) f(x) =c√

1 − x2para 0 < x < 1.

j ) f(x) =c

1 + x2para x ∈ R.

147. Demuestre que las siguientes funciones son de densidad. Encuentrela correspondiente funcion de distribucion y demuestre que satisfacelas propiedades de toda funcion de distribucion. Grafique ambas fun-ciones.

a) f(x) = 2x para x ∈ [0, 1].

b) f(x) =3

2x2 para x ∈ [−1, 1].

c) f(x) = 1 − 1

2x para x ∈ [0, 2].

d) f(x) =2

m2x para x ∈ [0,m] con m > 0.

e) f(x) =1

(1 − x)2para x ∈ [0, 1/2].

f ) f(x) =1

2e|x| para x ∈ R.

148. Demuestre que las siguientes funciones son de distribucion. Encuentrela correspondiente funcion de densidad y compruebe que efectivamentees una funcion de densidad. Grafique ambas funciones.

52

a) F (x) =

0 si x < 0,1 si x ≥ 0.

b) F (x) =

0 si x ≤ 0,x si 0 < x < 1,1 si x ≥ 1.

c) F (x) =ex

1 + ex.

d) F (x) =1

2

∫ x

−∞e−|u|du.

149. Sea f(x) una funcion de densidad y sea c una constante. Demuestreque f(x+ c) es tambien una funcion de densidad.

150. Diga falso o verdadero. Demuestre en cada caso.

a) Toda funcion de densidad es acotada.

b) Toda funcion de distribucion es acotada.

151. Sea X absolutamente continua y sea Y = aX + b con a 6= 0, b con-stantes. Demuestre que

fY (y) =1

|a|fX((y − b)/a).

2.4. Integral de Riemann-Stieltjes

En esta seccion se define la integral de Riemann-Stieltjes. Esta es una inte-gral de la forma

∫ b

ah(x) dF (x)

y constituye una generalizacion de la integral de Riemann. Las funcionesh(x) y F (x) deben cumplir ciertas propiedades para que la integral tengasentido y este bien definida. Al integrando h(x) se le pide inicialmente quesea una funcion acotada en el intervalo [a, b], aunque despues se relajara estacondicion. A la funcion integradora F (x) se le pide que sea continua por laderecha, monotona no decreciente y tal que F (∞)−F (−∞) < M para algunnumero M > 0. Observe que F (x) debe cumplir propiedades casi identicasa las de una funcion de distribucion y de hecho la notacion es la misma.Esto no es coincidencia pues usaremos las funciones de distribucion comofunciones integradoras.

Presentamos a continuacion la definicion de la integral de Riemann- Stieltjesbajo las condiciones arriba senaladas. En [8] puede encontrarse una exposi-cion mas completa y rigurosa de esta integral. Nuestro objetivo en esta sec-cion es simplemente presentar la definicion y mencionar algunas propiedades.

53

Sea a = x0 < x1 < · · · < xn = b una particion finita del intervalo [a, b] ydefina

h(xi) = suph(x) : xi−1 ≤ x ≤ xi,h(xi) = ınfh(x) : xi−1 ≤ x ≤ xi.

Se define la suma superior e inferior de Riemann-Stieltjes como sigue

Sn =n∑

i=1

h(xi)[F (xi) − F (xi−1)],

Sn =n∑

i=1

h(xi)[F (xi) − F (xi−1)].

Ahora se hace n tender a infinito de tal forma que la longitud max|xi −xi−1| : 1 ≤ i ≤ n tienda a cero. Si sucede que

−∞ < lımn→∞

Sn = lımn→∞

Sn <∞,

entonces el valor comun se denota por∫ b

ah(x) dF (x),

y se le llama la integral de Riemann-Stieltjes de la funcion h(x) respectode la funcion F (x) sobre el intervalo [a, b]. Cuando la funcion h(x) no esacotada se define

hN (x) =

−N si h(x) < N,h(x) si |h(x)| ≤ N,N si h(x) > N.

y entonces

∫ b

ah(x) dF (x) = lım

N→∞

∫ b

ahN (x) dF (x),

cuando este lımite existe. Se puede extender la definicion de esta integral dela siguiente forma

∫ ∞

−∞h(x) dF (x) = lım

a,b→∞

∫ b

ah(x) dF (x),

cuando el lımite del lado derecho exista.

La integral de Riemann-Stieltjes tiene muchas propiedades semejantes a laintegral de Riemann. Enunciaremos a continuacion algunas de ellas. Primer-amente es lineal tanto en el integrando como en el integrador, es decir, si αes constante entonces∫ b

a(αh1(x) + h2(x)) dF (x) = α

∫ b

ah1(x) dF (x) +

∫ b

ah2(x) dF (x),

∫ b

ah(x) d(αF1(x) + F2(x)) = α

∫ b

ah(x) dF1(x) +

∫ b

ah(x) dF2(x).

54

Cuando h(x) tiene primera derivada continua se cumple la formula

∫ b

ah(x) dF (x) = h(b)F (b) − h(a)F (a) −

∫ b

aF (x)h′(x) dx.

De particular importancia en la teorıa de la probabilidad son los siguientesdos casos particulares. Cuando F (x) es diferenciable entonces

∫ b

ah(x) dF (x) =

∫ b

ah(x)F ′(x) dx.

De modo que integrar respecto de una funcion de distribucion absolutamentecontinua se reduce a efectuar una integral de Riemann. El otro caso intere-sante sucede cuando F (x) es constante excepto en los puntos x1, x2, . . . endonde tiene saltos positivos de tamano p(x1), p(x2), . . . respectivamente yh(x) es continua. En este caso y suponiendo convergencia

∫ b

ah(x) dF (x) =

∞∑

i=1

h(xi)p(xi).

Por lo tanto integrar respecto de la funcion de distribucion de una variablealeatoria discreta se reduce a efectuar una suma. Finalmente enunciamosla propiedad que ilustra el hecho de que la integral de Riemann es un casoparticular de la integral de Riemann-Stieltjes. Cuando F (x) = x se cumple

∫ b

ah(x) dF (x) =

∫ b

ah(x) dx.

EJERCICIOS

152. Sea F (x) una funcion de distribucion absolutamente continua. De-muestre que para cualesquiera numeros naturales n y m

∫ ∞

−∞Fn(x) dFm(x) =

m

n+m.

2.5. Caracterısticas numericas

Se estudian a continuacion algunas caracterısticas numericas asociadas avariables aleatorias. Se definen los conceptos de esperanza, varianza y masgeneralmente los momentos de una variable aleatoria utilizando la integralde Riemann-Stieltjes.

2.5.1. Esperanza

La esperanza de una variable aleatoria es un numero que representa elpromedio ponderado de los posible valores que toma la variable aleatoriay se calcula como se indica a continuacion.

55

Definicion 17 Sea X con funcion de distribucion F (x) y sea g : R → R

una funcion Borel medible. La esperanza de g(X) denotada por E[g(X)] sedefine como el numero

E[g(X)] =

∫ ∞

−∞g(x) dF (x).

cuando esta integral sea absolutamente convergente.

En particular, cuando g(x) = x y suponiendo que la integral existe,

E(X) =

∫ ∞

−∞x dF (x).

A la esperanza se le conoce tambien con el nombre de: “media”, “valoresperado”, “valor promedio” o “valor medio”, y en general se usa la letragriega µ (mu) para denotarla. Cuando X es discreta con funcion de densidadf(x) su esperanza, si existe, se calcula como sigue

E(X) =∑

x

xf(x).

Cuando X es absolutamente continua con funcion de densidad f(x) entoncessu esperanza, si existe, es

E(X) =

∫ ∞

−∞xf(x) dx.

La integral o suma arriba mencionados pueden no existir y en ese caso sedice que la variable aleatoria no tiene esperanza finita. Vease el ejercicio 156en la pagina 57 para algunos ejemplos de esta situacion. Se muestran acontinuacion algunos ejemplos sencillos del calculo de la esperanza.

Ejemplo 10 Sea X discreta con valores en el conjunto 1, 2, . . . y confuncion de densidad f(x) = P (X = x) = 1/2x. Entonces

E(X) =

∞∑

x=1

xf(x) =

∞∑

x=1

x

2x= 1.

Ejemplo 11 Sea X continua con funcion de densidad f(x) = 2x para 0 <x < 1. Entonces

E(X) =

∫ ∞

−∞xf(x) dx =

∫ 1

0x · 2x dx =

2

3.

Mas generalmente,

E(Xn) =

∫ ∞

−∞xnf(x) dx =

∫ 1

0xn · 2x dx =

2

n+ 2.

56

Establecemos a continuacion algunas propiedades de la esperanza.

Proposicion 32 Sean X y Y con esperanza finita y sea c una constante.Entonces

1. E(c) = c.

2. E(cX) = cE(X).

3. Si X ≥ 0 entonces E(X) ≥ 0.

4. Si X ≤ Y entonces E(X) ≤ E(Y ).

5. E(X + Y ) = E(X) + E(Y ).

Las cuatro primeras propiedades de la esperanza se siguen directamente dela definicion.

EJERCICIOS

153. Calcule la esperanza de X, si existe, cuando esta tiene funcion dedensidad

a) f(x) = 15 para x = −2,−1, 0, 1, 2.

b) f(x) = 1e

1x! para x = 0, 1, 2, . . ..

154. Calcule la esperanza de X, si existe, cuando esta tiene funcion dedensidad

a) f(x) = |x| para −1 < x < 1.

b) f(x) = 12e

|x| para x ∈ R.

155. Sean X con esperanza finita y sea c una constante. Demuestre que

a) E(c) = c.

b) E(cX) = cE(X).

c) E(X + c) = E(X) + c.

d) Si X ≥ 0 entonces E(X) ≥ 0.

e) Si X ≤ Y entonces E(X) ≤ E(Y ).

156. Demuestre que E(X) no existe cuando X tiene funcion de densidad

a) f(x) =1

x(x+ 1)para x = 1, 2, . . .

b) f(x) =3

π2x2para x ∈ Z − 0.

57

c) f(x) =1

x2para x > 1.

d) f(x) =1

π(1 + x2)para x ∈ R.

157. (La paradoja de San Petersburgo.) Se lanza una moneda equilibradarepetidas veces hasta que una de las caras en particular aparece porprimera vez. Si n es el numero de lanzamientos realizados entonces unjugador recibe 2n unidades monetarias. ¿Cual debe ser el pago inicialjusto para ingresar a este juego?

158. Sea A1, A2, . . . una coleccion de eventos que forman una particion deΩ tal que P (Ai) > 0 para i ≥ 1. Sea X una variable aleatoria discretacon esperanza finita. Para cualquier evento A con probabilidad positivadefina

E(X|A) =∑

x

xP (X = x|A).

Demuestre que

E(X) =∞∑

i=1

E(X|Ai)P (Ai).

159. Demuestre que

a) E(mınX,Y ) ≤ mınE(X), E(Y ).b) E(maxX,Y ) ≥ maxE(X), E(Y ).

160. Sea X > 0 con esperanza finita. Demuestre que

1

E(X)≤ E

(1

X

)

.

161. Sea X ≥ 0 discreta con valores x1, . . . , xk. Demuestre que

a) lımn→∞

E(Xn+1)

E(Xn)= max

1≤i≤kxi,

b) lımn→∞

n√

E(Xn) = max1≤i≤k

xi.

162. Sea X discreta con valores 0, 1, . . . y con esperanza finita. Demuestreque

E(X) =∞∑

n=1

P (X ≥ n).

163. Sea X ≥ 0 con esperanza finita y sea p ∈ (0, 1). Suponga que se cumpleP (X ≥ k) ≤ pk para k = 0, 1, . . . Demuestre que

E(X) ≤ 1

1 − p.

58

164. Sea X ≥ 0 con esperanza finita y para cada numero natural n definael evento An = (n− 1 ≤ X < n). Demuestre que

∞∑

n=1

(n− 1)1An≤ X <

∞∑

n=1

n1An.

En consecuencia demuestre las desigualdades

∞∑

n=1

P (X ≥ n) ≤ E(X) < 1 +∞∑

n=1

P (X ≥ n).

165. Sea X con funcion de distribucion F (x) y con esperanza finita. De-muestre que

E(X) =

∫ ∞

0[1 − F (x)]dx−

∫ 0

−∞F (x)dx.

166. SeaX con media µ y funcion de distribucion continua F (x). Demuestreque ∫ µ

−∞F (x)dx =

∫ ∞

µ[1 − F (x)]dx.

167. Sea X con funcion de distribucion F (x) y con esperanza finita. De-muestre que

a) lımx→∞

x[1 − F (x)] = 0.

b) lımx→−∞

xF (x) = 0.

2.5.2. Varianza

La varianza de una variable aleatoria es una medida del grado de dispersionde los diferentes valores tomados por la variable aleatoria. Su definicion esla siguiente.

Definicion 18 La varianza de X, denotada por Var(X), se define como elnumero no negativo

Var(X) = E[(X − E(X))2

]

cuando esta esperanza existe.

Cuando X es discreta con funcion de densidad f(x) y esperanza finita µ, lavarianza de X, cuando existe, se calcula como sigue

Var(X) =∑

x

(x− µ)2f(x).

59

Cuando X es absolutamente continua con funcion de densidad f(x) y esper-anza finita µ entonces la varianza de X, cuando existe, es

Var(X) =

∫ ∞

−∞(x− µ)2f(x) dx.

La varianza se denota regularmente por el sımbolo σ2 (sigma cuadrada).Nuevamente la varianza puede no existir y en ese caso decimos que la vari-able aleatoria no tiene varianza finita. Observe que para calcular Var(X) senecesita conocer primero E(X).

Proposicion 33 Sean X y Y con varianza finita. Entonces

1. Var(X) ≥ 0.

2. Var(c) = 0.

3. Var(cX) = c2Var(X).

4. Var(X + c) = Var(X).

5. Var(X) = E(X2) − E2(X).

La demostracion de estas propiedades es sencilla pues todas ellas se siguendirectamente de la definicion y de la propiedad lineal de esperanza. Otraspropiedades de la varianza aparecen mas adelante.

EJERCICIOS

168. Calcule la varianza de X, si existe, cuando esta tiene funcion de den-sidad

a) f(x) = 1/5 para x = −2,−1, 0, 1, 2.

b) f(x) = e−1/x! para x = 0, 1, 2, . . .

169. Calcule la varianza de X, si existe, cuando esta tiene funcion de den-sidad

a) f(x) = |x| para −1 < x < 1.

b) f(x) = 12e

|x| para x ∈ R.

170. Sean X y Y con varianza finita y sea c una constante. Demuestre que

a) Var(X) ≥ 0.

b) Var(c) = 0.

c) Var(cX) = c2Var(X).

60

d) Var(X + c) = Var(X).

e) Var(X) = E(X2) − E2(X).

171. Sea X con valores en [a, b]. Demuestre que

a) a ≤ E(X) ≤ b.

b) 0 ≤ Var(X) ≤ (b− a)2/4.

172. SeaX con varianza finita. Demuestre que la funcion g(u) = E[(X−u)2]se minimiza cuando u = E(X). En consecuencia para cualquier valorde u,

Var(X) ≤ E[(X − u)2].

173. Sea c una constante. Demuestre que

E(X − c)2 = Var(X) + [E(X) − c]2.

174. Sea X con media µ y varianza σ2. Demuestre que

E|X − µ| ≤ σ.

Sugerencia: Var(|X − µ|) ≥ 0.

175. Diga falso o verdadero. Demuestre en cada caso.

a) Si X ≤ Y entonces Var(X) ≤ Var(Y ).

b) Var(X) ≤ E(X2).

2.5.3. Momentos

Los momentos de una variable aleatoria son numeros que representan algu-na caracterıstica de la distribucion de probabilidad asociada. Bajo ciertascondiciones el conjunto de momentos determinan de manera unica a la dis-tribucion de probabilidad.

Definicion 19 Sea X una v.a. con esperanza µ y sea n un numero natural.Cuando existe,

1. E(Xn) es el n-esimo “momento” de X.

2. E|X|n es el n-esimo “momento absoluto” de X.

3. E[(X − µ)n] es el n-esimo “momento central” de X.

4. E|X − µ|n es el n-esimo “momento central absoluto” de X.

Observe que el primer momento de X es E(X) y el segundo momento centrales Var(X). Bajo ciertas condiciones los momentos de una variable aleatoria

61

determinan la distribucion de probabilidad de la misma. Por ejemplo, si Xes tal que E(X), E(X2), . . . son todos finitos y si se cumple que la serie

∞∑

n=0

tn

n!E(Xn)

es absolutamente convergente para algun t > 0, entonces la sucesion demomentos determina de manera unica a la distribucion de X. Las condi-ciones enunciadas para la determinacion de la distribucion de probabilidadson suficientes pero no necesarias.

EJERCICIOS

176. Calcule el n-esimo momento de X, si exsite, cuando esta tiene funcionde densidad

a) f(x) = 1/5 para x = −2,−1, 0, 1, 2.

b) f(x) = e−1/x! para x = 0, 1, 2, . . .

177. Calcule el n-esimo momento de X, si existe, cuando esta tiene funcionde densidad

a) f(x) = |x| para −1 < x < 1.

b) f(x) = 12e

|x| para x ∈ R.

178. Sea X tal que E|X|n <∞ para algun natural n. Demuestre que param = 1, . . . , n,

E|X|m ≤ E|X|n.Esta desigualdad establece que los momentos absolutos anteriores a nexisten cuando el n-esimo existe.

179. Sea A un evento y sea 1A la funcion indicadora de A. Demuestre que

a) E(1A) = P (A).

b) E(1nA) = P (A).

c) Var(1A) = P (A)(1 − P (A)).

d) Var(1A) ≤ 14 .

180. Sea X ≥ 0 con n-esimo momento finito. Demuestre que

E(Xn) = n

∫ ∞

0xn−1[1 − F (x)] dx.

181. Sea X discreta con valores 0, 1, . . . y con segundo momento finito.Demuestre que

E(X2) =∞∑

n=1

(2n− 1)P (X ≥ n).

62

182. (Desigualdad de Cauchy-Schwarz.) Sean X y Y con segundo momentofinito. Demuestre que

E2(XY ) ≤ E(X2)E(Y 2).

Sugerencia: Observe que para cualquier valor real de t, E[(tX+Y )2] ≥0. Desarrolle el cuadrado y encuentre una ecuacion cuadratica en t,¿que puede decir de su discriminante?

183. Use la desigualdad de Cauchy-Schwarz para demostrar que el espacioL2(Ω,F , P ) consistente de todas las variables aleatorias X tales queE|X|2 <∞, es un espacio vectorial.

184. Demuestre que si X es una variable aleatoria acotada, es decir, existek > 0 tal que P (|X| ≤ k) = 1, entonces todos los momentos de Xexisten.

2.6. Distribuciones discretas

En esta seccion se estudian algunas distribuciones discretas de probabilidadde uso comun. Vease el apendice A al final del libro para algunas otrasdistribuciones de probabilidad o para consultar algunas otras propiedadesde las distribuciones enunciadas en esta seccion.

Distribucion uniforme discreta. Se dice que X tiene una distribucionuniforme sobre el conjunto x1, . . . , xn si la probabilidad de que X tomecualquiera de estos valores es 1/n. Esta distribucion surge en espacios deprobabilidad equiprobables, esto es, en situaciones en donde se tienen nresultados diferentes y todos ellos tienen la misma probabilidad de ocur-rir. Los juegos de loterıa justos son un ejemplo donde puede aplicarse estadistribucion. Se escribe X ∼ unifx1, . . . , xn y para x = x1, . . . , xn

f(x) = P (X = x) =1

n.

La grafica de la funcion de densidad unif1, 2, 3, 4, 5, 6, 7 aparece en lafigura 2.1. Es facil ver que

E(X) =1

n

n∑

i=1

xi,

Var(X) =1

n

n∑

i=1

(xi − E(X))2.

EJERCICIOS

185. Sea X con distribucion unif1, . . . , n. Demuestre que

63

1 2 3 4 5 6 7x

1

7

fHxL

Figura 2.1: Funcion de densidad de la distribucion unif1, 2, 3, 4, 5, 6, 7.

a) E(X) =n+ 1

2.

b) E(X2) =(n+ 1)(2n+ 1)

6.

c) Var(X) =n2 − 1

12.

186. Se escogen al azar y de manera independiente dos numeros a y b den-tro del conjunto 1, . . . , n. Demuestre que la probabilidad de que elcociente a/b sea menor o igual a uno es (n+ 1)/2n.

Distribucion Bernoulli. Un “ensayo Bernoulli” es un experimento aleato-rio con unicamente dos posibles resultados, llamados genericamente “exito”y “fracaso”, y con probabilidades respectivas p y 1− p. Se define la variablealeatoria X como aquella funcion que lleva el resultado ”exito” al numero1 y el resultado ”fracaso” al numero 0. Entonces se dice que X tiene unadistribucion Bernoulli con parametro p ∈ (0, 1). Se escribe X ∼ Ber(p) y lacorrespondientes funcion de densidad es

f(x) =

1 − p si x = 0,p si x = 1,0 otro caso.

La grafica de la funcion de densidad de la distribucion Ber(p) para p =0.7aparece en la figura 2.2. Es sencillo verificar que

E(X) = p,

Var(X) = p(1 − p).

EJERCICIOS

187. Compruebe que la funcion de densidad de la distribucion Ber(p) efec-tivamente lo es. Obtenga ademas la correspondiente funcion de dis-tribucion. Grafique ambas funciones.

64

1x

0.3

0.7

fHxL

Figura 2.2: Funcion de densidad de la distribucion Ber(p) para p = 0,7.

188. Sea X con distribucion Ber(p). Demuestre que

a) E(X) = p.

b) E(Xn) = p para n ≥ 1.

c) Var(X) = p(1 − p).

Distribucion binomial. Suponga que se realizan n ensayos independientesBernoulli en donde la probabilidad de exito en cada uno de ellos es p. Sidenotamos por E el resultado “exito” y por F el resultado “fracaso” entoncesel espacio muestral consiste de todas las posibles sucesiones de tamano nde caracteres E y F. Usando el principio multiplicativo, es facil ver que elconjunto Ω tiene 2n elementos. Si ahora se define la variable aleatoria Xcomo el numero de exitos en cada una de estas sucesiones entonces X tomalos valores 0, 1, . . . , n y se dice que X tiene una distribucion binomial conparametros n y p. Se escribe X ∼ bin(n, p) y para x = 0, 1, . . . , n

f(x) = P (X = x) =

(nx

)

px(1 − p)n−x.

1 2 3 4 5 6 7 8 9 10x

0.1

0.2

0.3

fHxL

1 2 3 4 5 6 7 8 9 10x

0.1

0.2

0.3

fHxL

1 2 3 4 5 6 7 8 9 10x

0.1

0.2

0.3

fHxL

(a) (b) (c)

Figura 2.3: Funcion de densidad de la distribucion bin(n, p) para n = 10 y (a) p = 0,3,(b) p = 0,5, (c) p = 0,7.

En la figura 2.3 se muestra el comportamiento de la funcion de densidad dela distribucion bin(n, p) para n = 10 y varios valores del parametro p. Se

65

puede demostrar que

E(X) = np,

Var(X) = np(1 − p).

EJERCICIOS

189. Use el teorema del binomio para comprobar que la funcion de densidadde la distribucion bin(n, p) efectivamente lo es.

190. Sea X con distribucion bin(n, p). Demuestre que

a) E(X) = np.

b) E(X2) = np(1 − p+ np).

c) Var(X) = np(1 − p).

d) E(X − np)3 = npq(q − p).

e) E(X − np)4 = 3n2p2q2 + npq(1 − 6qp).

191. Sea X con distribucion bin(n, p). Demuestre que Y = n − X tienedistribucion bin(n, 1 − p).

192. Sea X con distribucion bin(n, p). Demuestre que

a) P (X = x+ 1) =p

1 − p· n− x

x+ 1· P (X = x).

b) P (X = x− 1)P (X = x+ 1) ≤ P 2(X = x).

193. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad deque cada cara caiga exactamente 3 veces.

194. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad deque ambas caras caigan el mismo numero de veces.

Distribucion geometrica. Suponga que se tiene una sucesion infinita deensayos independientes Bernoulli. Se define X como el numero de fracasosantes de obtener el primer exito. Se dice entonces que X tiene una distribu-cion geometrica con parametro p. Se escribe X ∼ geo(p) y para x = 0, 1, . . .

f(x) = P (X = x) = p(1 − p)x.

La grafica de la funcion de densidad geo(p) aparece en la figura 2.4 parap =0.4. Para la distribucion geo(p) se tiene que

E(X) =1 − p

p,

Var(X) =1 − p

p2.

En algunos textos se define tambien la distribucion geometrica como elnumero de ensayos (no el de fracasos) antes del primer exito. La distribucioncambia ligeramente.

66

1 2 3 4 5 6 7 8 9 10x

0.1

0.2

0.3

0.4

fHxL

Figura 2.4: Funcion de densidad de la distribucion geo(p) con p = 0,4.

EJERCICIOS

195. Compruebe que la funcion de densidad de la distribucion geo(p) efec-tivamente lo es.

196. Sea X con distribucion geo(p). Demuestre que

a) E(X) =1 − p

p.

b) Var(X) =1 − p

p2.

197. Sea X con distribucion geo(p). Demuestre que P (X ≥ n) = (1 − p)2.Ahora use este resultado y la formula del ejercicio 162 en la pagina 58para demostrar que E(X) = (1 − p)/p.

198. Sea X con distribucion geo(p). Demuestre que

P (X ≥ x+ y |X ≥ x) = P (X ≥ y).

Distribucion Poisson. Se dice que X tiene una distribucion Poisson conparametro λ > 0 y se escribe X ∼ Poisson(λ) cuando para x = 0, 1, . . .

f(x) = P (X = x) =λx

x!e−λ.

En la figura 2.5 aparece la grafica de la funcion de densidad de la distribucionPoisson(λ) para λ = 2. Puede demostrarse que

E(X) = λ,

Var(X) = λ.

67

1 2 3 4 5 6 7 8x

0.1

0.2

0.3

fHxL

Figura 2.5: Funcion de densidad de la distribucion Poisson(λ) con λ = 2.

EJERCICIOS

199. Compruebe que la funcion de densidad de la distribucion Poisson(λ)efectivamente lo es.

200. Sea X con distribucion Poisson(λ). Demuestre que

a) E(X) = λ.

b) E(X2) = λ(λ+ 1).

c) Var(X) = λ.

d) E(X3) = λE(X + 1)2.

201. SeanX y Y independientes ambas con distribucion Poisson con paramet-ros λ1 y λ2 respectivamente. Demuestre que X + Y tiene distribucionPoisson(λ1 + λ2).

202. Sea X con distribucion Poisson(λ). Demuestre que

a) P (X = x+ 1) =λ

x+ 1· P (X = x).

b) P (X = x− 1)P (X = x+ 1) ≤ P 2(X = x).

203. Sea X con distribucion Poisson(λ). Demuestre que

a) P (X ∈ 1, 3, 5, . . .) =1

2(1 − e−2λ).

b) P (X ∈ 0, 2, 4, . . .) =1

2(1 + e−2λ).

204. Convergencia de la distribucion binomial a la Poisson. Para cada en-tero positivo n, sea Xn con distribucion bin(n, λ/n) con λ > 0. De-muestre que para k = 0, 1, . . .

lımn→∞

P (Xn = k) = e−λλk

k!

68

Distribucion binomial negativa. Suponga una sucesion infinita de en-sayos independientes Bernoulli en donde la probabilidad de exito en cadaensayo es p. Sea X el numero de fracasos antes de obtener el r-esimo exi-to. Se dice entonces que X tiene una distribucion binomial negativa conparametros r y p. Se escribe X ∼ bin beg(r, p) y para x = 0, 1 . . .

f(x) = P (X = x) =

(r + x− 1

x

)

pr(1 − p)x.

Es claro que esta distribucion es una generalizacion de la distribucion ge-ometrica, la cual se obtiene cuando r = 1. Se puede demostrar que

E(X) =r(1 − p)

p

Var(X) =r(1 − p)

p2.

EJERCICIOS

205. Compruebe que la funcion de densidad de la distribucion bin neg(r, p)efectivamente lo es.

206. Sea X con distribucion bin neg(r, p). Demuestre que

a) E(X) =r(1 − p)

p.

b) Var(X) =r(1 − p)

p2.

Distribucion hipergeometrica. Suponga que se tiene un conjunto de Nobjetos de los cuales K son de una primera clase y N−K son de una segundaclase. Suponga que de este conjunto se toma una muestra de tamano n, lamuestra es sin reemplazo y el orden de los objetos seleccionados no importa.Se define X como el numero de objetos de la primera clase contenidos enla muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n,suponiendo n ≤ K. Decimos que X tiene una distribucion hipergeometricacon parametros N , K y n. Se escribe X ∼ hipergeo(N,K, n) y para x =0, 1, . . . , n

f(x) = P (X = x) =

(Kx

)(N −Kn− x

)

(Nn

) .

Es posible comprobar que

E(X) = nK

N,

Var(X) = nK

N

N −K

N

N − n

N − 1.

69

EJERCICIOS

207. Compruebe que la funcion de densidad de la distribucion hipergeo(N,K, n)efectivamente lo es.

208. SeaX con distribucion hipergeo(N,K, n). Demuestre que cuandoN,Ky N−K tienden a infinito de tal forma que K/N → p y (N−K)/N →(1 − p) entonces

P (X = x) →(nx

)

px(1 − p)n−x.

2.7. Distribuciones continuas

Ahora se estudian algunas distribuciones de probabilidad de variables aleato-rias continuas. Algunas otras distribuciones continuas seran estudiadas enel Capıtulo 5 que trata sobre distribuciones de probabilidad que surgen enla estadıstica.

Distribucion uniforme continua. Se dice que X tiene distribucion uni-forme en el intervalo (a, b) y se escribeX ∼ unif(a, b), cuando para x ∈ (a, b),

f(x) =1

b− a.

En la figura 2.6 se muestra la grafica de la funcion de densidad unif(a, b)

1 2 3 4x

1

2

fHxL

Figura 2.6: Funcion de densidad unif(a, b) con a = 1 y b = 3.

con a = 1 y b = 3. Es facil verificar que

E(X) =a+ b

2,

Var(X) =(b− a)2

12.

70

EJERCICIOS

209. Compruebe que la funcion de densidad de la distribucion unif(a, b)efectivamente lo es. Calcule ademas la correspondiente funcion de dis-tribucion. Grafique ambas funciones.

210. Sea X con distribucion unif(a, b). Demuestre que

a) E(X) =a+ b

2.

b) E(Xn) =bn+1 − an+1

(n+ 1)(b− a).

c) Var(X) =(b− a)2

12.

211. Sea X con distribucion unif(0, 1). Demuestre que E(Xn) = 1/(n+ 1).

212. Sea X con distribucion unif(−1, 1). Demuestre que

E(Xn) =

1

n+ 1si n es par,

0 si n es impar.

213. Sea X con distribucion unif(0, 1). Obtenga la distribucion de

a) Y = 10X − 5.

b) Y = 4X(1 −X).

214. Sea X con distribucion unif(0, 1) y sea 0 < p < 1. Demuestre que lavariable aleatoria Y = 1 + ⌊lnX/ ln p⌋ tiene distribucion geo(p). Laexpresion ⌊x⌋ denota la parte entera de x.

Distribucion exponencial. Se dice que X tiene una distribucion exponen-cial con parametro λ > 0 y se escribe X ∼ exp(λ) cuando para x > 0,

f(x) = λe−λx.

La grafica de la funcion de densidad exponencial para λ = 3 aparece en lafigura 2.7. Es muy sencillo verificar que

E(X) =1

λ,

Var(X) =1

λ2.

EJERCICIOS

215. Compruebe que la funcion de densidad de la distribucion exp(λ) efec-tivamente lo es.

71

1 2x

1

2

3

fHxL

Figura 2.7: Funcion de densidad exp(λ) con λ = 3.

216. Sea X con distribucion exp(λ). Demuestre que

a) F (x) = 1 − e−λx para x > 0.

b) F (x+ y) − F (y) = F (x)[1 − F (y)] para x, y > 0.

217. Sea X con distribucion exp(λ). Demuestre que

a) E(X) =1

λ.

b) Var(X) =1

λ2.

218. Sea X con distribucion exp(λ). Demuestre que

P (X ≥ x+ y |X ≥ x) = P (X ≥ y).

La distribucion exponencial es la unica distribucion continua que sat-isface esta propiedad llamada “perdida de memoria”.

219. Sea X una variable aleatoria con funcion de distribucion F (x) contin-ua, estrictamente creciente y tal que 0 < F (x) < 1. Demuestre que lavariable aleatoria Y = − lnF (X) tiene distribucion exp(λ) con λ = 1.

220. Se dice que X tiene distribucion exponencial bilateral (o doble) conparametro λ > 0 si su funcion de densidad es, para x en R,

f(x) =1

2λe−λ|x|.

Demuestre que

a) E(X) = 0.

b) Var(X) =2

λ2.

Distribucion gama. Se dice que X tiene distribucion gama con parametrosλ > 0 y n > 0 si para x > 0,

f(x) =λ

Γ(n)(λx)n−1e−λx.

72

En tal caso se escribe X ∼ gama(n, λ). La grafica de la funcion de densidad

1 2 3 4x

1

10

1

5

fHxL

Figura 2.8: Funcion de densidad gama(λ, n) con λ = 3 y n = 5.

gama para λ = 3 y n = 5 aparece en la figura 2.8. El termino Γ(n) es la“funcion gama” definida como sigue

Γ(n) =

∫ ∞

0tn−1e−t dt

para valores de n tal que la integral es convergente. Esta funcion satisfacelas siguientes propiedades

1. Γ(n+ 1) = nΓ(n).

2. Γ(n+ 1) = n! para n entero positivo.

3. Γ(2) = Γ(1) = 1.

4. Γ(1/2) =√π.

Observe que cuando n = 1 la distribucion gama(n, λ) se reduce a la dis-tribucion exp(λ). Resolviendo un par de integrales se puede demostrar que

E(X) =n

λ,

Var(X) =n

λ2.

EJERCICIOS

221. Compruebe que la funcion de densidad de la distribucion gama(n, λ)efectivamente lo es.

222. Demuestre que la distribucion gama(n, λ) con n = 1 se reduce a ladistribucion exp(λ).

73

223. Sea X con distribucion gama(n, λ). Demuestre que la funcion de dis-tribucion de X es, para x > 0,

F (x) = 1 −n−1∑

j=0

e−λx (λx)j

j!.

224. Sea X con distribucion gama(n, λ). Demuestre que

a) E(X) =n

λ.

b) E(Xm) =Γ(m+ n)

λmΓ(n)para m = 1, 2, . . ..

c) Var(X) =n

λ2.

225. Demuestre las siguientes propiedades de la funcion gama.

a) Γ(n+ 1) = nΓ(n).

b) Γ(n+ 1) = n! para n entero.

c) Γ(2) = Γ(1) = 1.

d) Γ(1/2) =√π.

e) Γ(n+ 1/2) =1 · 3 · 5 · · · (2n− 1)

2n

√π para n entero.

Distribucion beta. Se dice que X tiene distribucion beta con parametrosa > 0 y b > 0, y se escribe X ∼ beta(a, b) cuando para x ∈ (0, 1),

f(x) =1

B(a, b)xa−1(1 − x)b−1.

En la figura 2.9 aparece la grafica de la funcion de densidad beta(a, b) para

0.5 1x

1

2

fHxL

Figura 2.9: Funcion de densidad beta(a, b). De derecha a izquierda a = 2 y b = 6, a = 4y b = 4, a = 6 y b = 2. La linea horizontal corresponde a a = 1 y b = 1.

varios valores de los parametros a y b. El termino B(a, b) se conoce como la“funcion beta” y se define como sigue

B(a, b) =

∫ 1

0xa−1(1 − x)b−1 dx,

74

para a > 0 y b > 0. Esta funcion satisface las siguientes propiedades.

1. B(a, b) = B(b, a).

2. B(a, b) =Γ(a)Γ(b)

Γ(a+ b).

En este caso

E(X) =a

a+ b,

Var(X) =ab

(a+ b+ 1)(a+ b)2.

EJERCICIOS

226. Compruebe que la funcion de densidad de la distribucion beta(a, b)efectivamente lo es.

227. Sea X con distribucion beta(a, b). Demuestre que

a) E(X) =a

a+ b.

b) E(Xn) =B(a+ n, b)

B(a, b).

c) Var(X) =ab

(a+ b+ 1)(a+ b)2.

228. Sea X con distribucion beta(a, b). Demuestre que

a) a = E(X)

[E(X)(1 − E(X))

Var(X)− 1

]

.

b) b = (1 − E(X))

[E(X)(1 − E(X))

Var(X)− 1

]

.

c) a+ b =E(X)(1 − E(X))

Var(X)− 1.

229. Demuestre las siguientes propiedades de la funcion beta.

a) B(a, b) = B(b, a).

b) B(a, b) =Γ(a)Γ(b)

Γ(a+ b).

c) B(a, 1) =1

a.

d) B(1, b) =1

b.

e) B(a+ 1, b) =a

bB(a, b+ 1).

f ) B(a+ 1, b) =a

a+ bB(a, b).

75

g) B(a, b+ 1) =b

a+ bB(a, b).

h) B(1/2, 1/2) = π.

230. Sea X con distribucion beta(1/2, 1/2). En este caso se dice que X tieneuna distribucion arcoseno.

a) Calcule y grafique f(x).

b) Demuestre directamente que f(x) es una funcion de densidad.

c) Calcule directamente que E(X) = 1/2 y Var(X) = 1/8.

231. Sea X con distribucion beta(a, b). Demuestre que para a > 0 y b = 1,

F (x) =

0 si x ≤ 0,xa si 0 < x < 1,1 si x ≥ 1.

232. Sea X con distribucion beta(a, b). Demuestre que para a = 1 y b > 0,

F (x) =

0 si x ≤ 0,1 − (1 − x)b si 0 < x < 1,1 si x ≥ 1.

233. Demuestre que X tiene distribucion beta(a, b) si y solo si 1 −X tienedistribucion beta(b, a).

234. Demuestre que la distribucion beta(a, b) con a = b = 1 se reduce a ladistribucion unif(0, 1).

Distribucion normal. Esta es posiblemente la distribucion de probabili-dad de mayor importancia. Se dice que X tiene una distribucion normal oGausiana si su funcion de densidad es

f(x) =1√

2πσ2e−(x−µ)2/2σ2

,

en donde µ ∈ R y σ2 > 0 son dos parametros. Se escribe X ∼ N(µ, σ2).La grafica de la funcion de densidad normal aparece en la Figura 2.10 paraµ = 3 y σ2 = 2. No es difıcil probar que

E(X) = µ,

Var(X) = σ2.

En particular se dice que X tiene una distribucion normal “estandar” siµ = 0 y σ2 = 1. En este caso particular

f(x) =1√2π

e−x2/2.

Es posible transformar una variable aleatoria normal no estandar en unaestandar mediante la siguiente operacion llamada “estandarizacion”.

76

1 2 3 4 5 6x

1

20

fHxL

Figura 2.10: Funcion de densidad de la distribucion N(µ, σ2) para µ = 3 y σ2 = 2.

Proposicion 34 Si X ∼ N(µ, σ2) entonces Z =X − µ

σ∼ N(0, 1).

Demostracion.

FZ(z) = P (Z ≤ z)

= P (X − µ

σ≤ z)

= P (X ≤ µ+ zσ)

= FX(µ+ zσ).

Por lo tanto

fZ(z) = σfX(µ+ zσ)

=1√2π

e−z2/2.

Es tambien facil de demostrar que el recıproco del resultado anterior esvalido. Comunmente se usa la letra Z para denotar una variable aleatoriacon distribucion N(0, 1). En particular se usa la notacion Φ(z) = P (Z ≤ z).

EJERCICIOS

235. Demuestre que la funcion de densidad de la distribucion N(µ, σ2)

a) es efectivamente una funcion de densidad.

b) es simetrica respecto de x = µ.

c) alcanza su maximo en x = µ.

d) tiene puntos de inflexion en x = µ± σ.

236. Sea X con distribucion N(µ, σ2). Demuestre que

a) E(X) = µ.

77

b) Var(X) = σ2.

237. Sea X con distribucion N(µ, σ2). Demuestre que

E|X − µ|n =

0 si n es impar,1 · 3 · 5 · · · (n− 1)σn si n es par.

238. Demuestre que X tiene distribucion N(µ, σ2) si y solo si Z = (X−µ)/σtiene distribucion N(0, 1).

239. Sea X con distribucion N(0, 1). Demuestre que

E(Xn) =

0 si n es impar,(2n)!

2nn!si n es par.

240. Sea X con distribucion N(µ, σ2). Demuestre que Y = aX + b, cona 6= 0, tiene una distribucion normal. Encuentre los parametros corre-spondientes.

241. Sea X con distribucion N(µ, σ2). Demuestre que Y = −X tiene unadistribucion normal. Encuentre los parametros correspondientes.

242. Sea X con distribucion N(0, 1). Demuestre que X2 tiene una distribu-cion χ2(1). Recıprocamente, ¿sera cierto que si Y tiene distribucionχ2(1) entonces

√Y tiene distribucion N(0, 1)?

243. Sea X con distribucion N(0, 1). Encuentre la funcion de densidad deY = |X|.

244. (El cociente de Mills.) Sea φ(x) la funcion de densidad de la distribu-cion normal estandar y sea Φ(x) la correspondiente funcion de dis-tribucion. Demuestre que

a) φ′(x) + xφ(x) = 0.

b)1

x− 1

x3<

1 − Φ(x)

φ(x)<

1

x− 1

x3+

3

x5para x > 0.

Distribucion log normal. Si X tiene distribucion N(µ, σ2) entonces Y =eX tiene una distribucion log normal(µ, σ2) y su funcion de densidad es,para y ∈ (0,∞),

f(y) =1

y√

2πσ2exp

[

−(ln y − µ)2

2σ2

]

.

La grafica de la funcion de densidad de la distribucion lognormal (µ, σ2)aparece en la figura 2.11 para µ = 3 y σ2 = 2. Se puede demostrar que

E(Y ) = exp(µ+ σ2/2),

Var(Y ) = exp(2µ+ 2σ2) − exp(2µ+ σ2).

Otras distribuciones continuas de interes se encuentran en el capıtulo sobredistribuciones muestrales.

78

5 10 15 20x

1

20

fHxL

Figura 2.11: Funcion de densidad de la distribucion log normal(µ, σ2) con µ = 3 yσ2 = 2.

EJERCICIOS

245. Demuestre que la funcion de densidad de una distribucion log normal(µ, σ2)efectivamente lo es.

246. Sea X con distribucion log normal(µ, σ2). Demuestre que

a) E(X) = expµ+ σ2/2.b) Var(X) = exp2µ+ 2σ2 − exp2µ+ σ2.c) E(lnX) = µ.

d) Var(lnX) = σ2.

79

Capıtulo 3

Vectores aleatorios

En este capıtulo se extiende el concepto de variable aleatoria con valoresen R a variables aleatorias con valores en Rn y se estudian algunos concep-tos relacionados. Recordemos que tenemos siempre como elemento base unespacio de probabilidad (Ω,F , P ).

3.1. Vectores aleatorios

Definicion 20 Un vector aleatorio es una funcion X : Ω → Rn tal que paracualquier conjunto B en B(Rn), se cumple que X−1B es un elemento de F .

Un vector aleatorio puede representarse en la forma X = (X1, . . . , Xn) endonde cada Xi es una funcion de Ω en R. Demostraremos a continuacionque la definicion anterior es equivalente a definir un vector aleatorio comoun vector de variables aleatorias.

Proposicion 35 Una funcion X = (X1, . . . , Xn) : Ω → Rn es un vectoraleatorio si y solo si cada coordenada Xi : Ω → Rn es una variable aleatoria.

Demostracion. Sea (X1, . . . , Xn) un vector aleatorio. Entonces la imageninversa de cualquier conjunto de Borel de Rn es un elemento de la σ-algebradel espacio de probabilidad. En particular, la imagen inversa del conjuntoB × Ω × · · · × Ω pertenece a F para cualquier Boreliano B de R. Pero estaimagen inversa es simplemente X−1

1 B. Esto demuestra que X1 es variablealeatoria y de manera analoga se procede con las otras coordenadas delvector. Suponga ahora que cada coordenada de una funcion (X1, . . . , Xn) :

80

Ω → Rn es una variable aleatoria. Considere la coleccion B = B ∈ B(Rn) :(X1, . . . , Xn)−1B ∈ F. Como cada coordenada es una variable aleatoria,los conjuntos de Borel de Rn de la forma B1 × · · · × Bn, en donde cada Bi

es un Boreliano de R, es un elemento de la coleccion B. Entonces

B(R) × · · · × B(R) ⊆ B ⊆ B(Rn).

Es facil demostrar que la coleccion B es una σ-algebra. Asi que

σ(B(R) × · · · × B(R)) ⊆ B ⊆ B(Rn).

Pero ambos extremos de esta ecuacion coinciden. De modo que B = B(Rn)y por lo tanto la funcion (X1, . . . , Xn) es un vector aleatorio.

Para simplificar la escritura donde sea posible se usan unicamente vectoresaleatorios bidimensionales, esto es, de la forma (X,Y ). En la mayorıa de loscasos las definiciones y resultados son facilmente extendidos a dimensionesmayores.

Definicion 21 Se dice que el vector (X,Y ) es discreto si cada coordenadaes una v.a. discreta y es continuo en caso de que cada coordenada lo sea.

3.2. Distribucion conjunta

A menudo es necesario considerar probabilidades de eventos que involucrana dos o mas variables aleatorias al mismo tiempo y de manera conjunta. Elconcepto fundamental en este caso es el de funcion de distribucion conjuntaque se define a continuacion.

Definicion 22 La funcion de distribucion de un vector (X,Y ), denotadapor F (x, y) : R2 → [0, 1], se define como sigue

F (x, y) = P (X ≤ x, Y ≤ y).

En palabras, la funcion F (x, y) es la probabilidad de queX sea menor o iguala x y al mismo tiempo Y sea menor o igual que y, esto es la probabilidad delevento (X ≤ x) ∩ (Y ≤ y). A la funcion F (x, y) se le conoce tambien como“funcion de distribucion bivariada” de X y Y . Cuando sea necesario especi-ficarlo se escribe FX,Y (x, y) en lugar de F (x, y) y debe ser claro la forma deextender la definicion para el caso de un vector aleatorio multidimensional.Las funciones de distribucion conjuntas satisfacen propiedades semejantesal caso unidimensional. Estudiaremos a continuacion algunas de ellas.

Proposicion 36 La distribucion conjunta F (x, y) satisface las siguientespropiedades.

81

1. lımx,y→∞

F (x, y) = 1.

2. lımx,y→−∞

F (x, y) = 0.

3. F (x, y) es no decreciente en cada variable.

4. F (x, y) es continua por la derecha en cada variable.

5. Si a < b y c < d entonces

F (b, d) − F (a, d) − F (b, c) + F (a, c) ≥ 0.

La demostracion de las propiedades (1)-(4) es completamente analoga alcaso unidimensional y por tanto la omitiremos. Respecto a la propiedad (5)observe que

F (b, d) − F (a, d) − F (b, c) + F (a, c) = P (a < X ≤ b, c < Y ≤ d).

De modo que (5) se traduce simplemente en solicitar que la probabilidad deque (X,Y ) tome valores en el cuadrado (a, b]×(c, d] sea no negativa. A difer-encia del caso unidimensional, las propiedades (1) a (4) no son suficientespara asegurar que una funcion F (x, y) asigna probabilidad no negativa acualquier cuadrado (a, b] × (c, d]. Vease por ejemplo el ejercicio 250 en lapagina 83 en donde tal condicion falla. Por tanto en el caso de dimensiondos y superiores es necesario pedir tal condicion.

Definicion 23 Una funcion cualquiera F (x, y) : R2 → [0, 1], no necesari-amente definida en terminos de un vector aleatorio, es una funcion de dis-tribucion conjunta si cumple con las cinco propiedades enunciadas en laproposicion anterior.

Para tres dimensiones se dice que F (x1, x2, x3) : R3 → [0, 1] es una funcionde distribucion si cumple las primeras cuatro propiedades anteriores y laquinta se reemplaza por la siguiente condicion. Para cualesquiera numerosreales a1 < b1, a2 < b2 y a3 < b3,

F (b1, b2, b3) − F (a1, b2, b3) − F (b1, a2, b3) − F (b1, b2, a3)

+F (a1, a2, b3) + F (a1, b2, a3) + F (b1, a2, a3)

−F (a1, a2, a3) ≥ 0.

Se puede demostrar que el lado izquierdo de esta desigualdad correspondea la probabilidad del evento (a1 < X1 ≤ b1, a2 < X2 ≤ b2, a3 < X3 ≤ b3) yentonces el requisito es que naturalmente este numero sea no negativo.

Mas generalmente, una funcion F (x1, . . . , xn) : Rn → [0, 1] es una funcionde distribucion si cumple las primeras cuatro propiedades anteriores y adi-cionalmente para cualesquiera numeros reales a1 < b1, a2 < b2, . . ., an < bn,

xi∈ai,bi(−1)#aF (x1, . . . , xn) ≥ 0,

82

en donde #a es el numero de veces que alguna de las variables xi toma elvalor ai en la evaluacion de la funcion F . Nuevamente la suma corresponde ala probabilidad del evento (a1 < X1 ≤ b1, . . . , an < Xn ≤ bn), y la condicionestablece simplemente que este numero sea no negativo.

Finalmente enunciamos un resultado que establece la importancia de la fun-cion de distribucion y que es consecuencia del caso unidimensional.

Proposicion 37 Sea F (x1, . . . , xn) : Rn → R una funcion que satisface lascinco propiedades anteriores. Entonces existe un espacio de probabilidad yuna vector aleatorio cuya funcion de distribucion es F (x1, . . . , xn).

EJERCICIOS

247. Grafique y demuestre que las siguientes funciones son de distribucion.

a) F (x, y) = (1 − e−x)(1

2+

1

πtan−1 y) para x ≥ 0.

b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0.

248. Investigue si las siguientes funciones son de distribucion.

a) F (x, y) = 1 − e−xy para x, y ≥ 0.

b) F (x, y) = 1 − e−x−y para x, y ≥ 0.

249. Demuestre que la siguiente funcion no es de distribucion.

F (x, y) =

0 si x+ y < 0,1 si x+ y ≥ 0.

250. Demuestre que la siguiente funcion no es de distribucion.

F (x, y) =

mın1,maxx, y si x, y > 0,0 otro caso.

251. Sean F (x) y G(x) dos funciones de distribucion. Demuestre o propor-cione un contraejemplo para las siguientes afirmaciones.

a) F (x)G(x) es una funcion de distribucion univariada.

b) F (x)G(y) es una funcion de distribucion bivariada.

252. Diga falso o verdadero. Justifique en cada caso.

a) P (X > x, Y > y) = 1 − P (X ≤ x, Y ≤ y).

b) P (X ≤ x, Y ≤ y) ≤ P (X ≤ x).

c) P (X ≤ x) = P (X ≤ x, Y ≤ x) + P (X ≤ x, Y > x).

83

d) P (X + Y ≤ x) ≤ P (X ≤ x).

e) P (XY < 0) ≤ P (X < 0).

253. Sean X y Y variables aleatorias con funcion de distribucion conjuntaF (x, y). Demuestre que para cualesquiera numeros reales a < b y c < d,

P (a < X ≤ b, c < Y ≤ d) = F (b, d) + F (a, c) − F (a, d) − F (b, c).

254. Sean X1, X2 y X3 variables aleatorias con funcion de distribucion con-junta F (x1, x2, x3). Demuestre que para cualesquiera numeros realesa1 < b1, a2 < b2 y a3 < b3, la probabilidad

P (a1 < X1 ≤ b1, a2 < X2 ≤ b2, a3 < X3 ≤ b3)

es igual a

F (b1, b2, b3) − F (a1, b2, b3) − F (b1, a2, b3) − F (b1, b2, a3)

+F (a1, a2, b3) + F (a1, b2, a3) + F (b1, a2, a3)

−F (a1, a2, a3).

255. Sea (X,Y ) un vector con funcion de distribucion conjunta FX,Y (x, y).Demuestre que para todo (x, y) en R2,

FX(x) + FY (y) − 1 ≤ FX,Y (x, y) ≤√

FX(x)FY (y).

256. Considere el espacio Ω = [0, 1] × [0, 1] junto con σ(B[0, 1] × B[0, 1]) yP la medida de probabilidad uniforme sobre Ω. Sea X : Ω → R2 elvector aleatorio dado por

X(ω1, ω2) = (ω1 ∧ ω2, ω1 ∨ ω2).

Demuestre que X es efectivamente un vector aleatorio y encuentre sufuncion de distribucion.

257. Sea X con funcion de distribucion F (x). Demuestre que F (x) es con-tinua en x = x0 si y solo si P (X = x0) = 0.

3.3. Densidad conjunta

Como en el caso unidimensional, los vectores discretos o absolutamente con-tinuos tienen asociada una funcion de densidad la cual se define a contin-uacion.

Definicion 24 La funcion de densidad de un vector discreto (X,Y ) es lafuncion f(x, y) : R2 → R dada por

f(x, y) = P (X = x, Y = y).

84

Es evidente que la funcion de densidad de un vector discreto es una funcionno negativa y tal que

x

y

f(x, y) = 1.

Recıprocamente, toda funcion no negativa f(x, y) : R2 → R que sea estric-tamente positiva unicamente en un subconjunto discreto de R2 y que sumeuno, se llama funcion de densidad conjunta.

Ejemplo 12 La funcion

f(x, y) =

(12

)x+ypara x, y = 1, 2, . . .

0 otro caso.

es de densidad pues es no negativa y suma uno,

∞∑

x,y=1

f(x, y) =∞∑

x,y=1

1

2x+y= (

∞∑

x=1

1

2x)2 = 1.

La definicion de funcion de densidad de un vector continuo es la siguiente.

Definicion 25 Sea (X,Y ) un vector continuo con funcion de distribucionF (x, y). Se dice que (X,Y ) es “absolutamente continuo” si existe una fun-cion no negativa e integrable f(x, y) : R2 → R tal que para todo (x, y) en R2

se cumple la igualdad

F (x, y) =

∫ x

−∞

∫ y

−∞f(u, v) dv du.

A la funcion f(x, y) se le denota por fX,Y (x, y) y se le llama funcion dedensidad conjunta de X y Y .

Es claro que la funcion de densidad conjunta f(x, y) de un vector absoluta-mente continuo es no negativa y cumple la condicion

∫ ∞

−∞

∫ ∞

−∞f(x, y) dx dy = 1.

Recıprocamente, toda funcion no negativa f : R2 → R que integre uno sellama “funcion de densidad”. En particular, cuando f(x, y) es continua,

f(x, y) =∂2

∂y∂xF (x, y).

85

EJERCICIOS

258. Grafique y demuestre que las siguientes son funciones de densidad.

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 4xy para 0 ≤ x, y ≤ 1.

c) f(x, y) = 6x2y para 0 ≤ x, y ≤ 1.

d) f(x, y) = 94x

2y2 para −1 ≤ x, y ≤ 1.

e) f(x, y) = e−x−y para x, y > 0.

f ) f(x, y) = e−x para 0 < y < x.

259. Calcule la constante c que hace a f una funcion de densidad.

a) f(x) = cx para 0 ≤ x ≤ 1.

b) f(x, y) = cx para 0 < y < x < 1.

c) f(x, y) = c(x+ y) para 0 ≤ x, y ≤ 1.

d) f(x, y) = c(x2 + 12xy) para 0 < x < 1, 0 < y < 2.

e) f(x, y, z) = c(x+ y + z) para 0 ≤ x, y, z ≤ 1.

f ) f(x1, . . . , xn) = c(x1 + · · · + xn) para 0 ≤ x1, . . . , xn ≤ 1.

260. Encuentre la funcion de densidad del vector (X,Y ) cuya funcion dedistribucion es

a) F (x, y) = (1 − e−x)(1

2+

1

πtan−1 y) para x ≥ 0.

b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0.

261. Encuentre la funcion de distribucion del vector (X,Y ) cuya funcion dedensidad es

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = e−x−y para x, y > 0.

c) f(x, y) = e−y para 0 < x < y.

d) f(x, y) = 2e−x−y para 0 < x < y.

262. Sean f(x) y g(x) dos funciones de densidad. Demuestre o proporcioneun contraejemplo para las siguientes afirmaciones.

a) f(x)g(x) es una funcion de densidad univariada.

b) f(x)g(y) es una funcion de densidad bivariada.

263. Sean X y Y independientes ambas con distribucion exp(λ). Encuentrela funcion de densidad y de distribucion de

a) W = maxX,Y .b) W = mınX,Y .

86

3.4. Distribucion marginal

Dada la funcion de distribucion conjunta F (x, y) de un vector aleatorio(X,Y ) es posible obtener la funcion de distribucion de cada variable aleatoriapor separado mediante el siguiente procedimiento.

Definicion 26 Sea (X,Y ) un vector con funcion de distribucion F (x, y). Ala funcion

F (x) = lımy→∞

F (x, y)

se le conoce como la “funcion de distribucion marginal” de X. Analogamentese define la funcion de distribucion marginal de Y como

F (y) = lımx→∞

F (x, y).

No es difıcil verificar que las funciones de distribucion marginales son efec-tivamente funciones de distribucion univariadas. En el caso de que se tengauna funcion de densidad conjunta, se pueden obtener las funciones de den-sidad individuales como indica la siguiente definicion.

Definicion 27 Sea (X,Y ) un vector absolutamente continuo con funcionde densidad f(x, y). A la funcion

f(x) =

∫ ∞

−∞f(x, y) dy

se le conoce como la “funcion de densidad marginal” de X. Analogamentese define la funcion de densidad marginal de Y como

f(y) =

∫ ∞

−∞f(x, y) dx.

Si (X,Y ) es un vector discreto la integral se reemplaza por una suma.

Tampoco es difıcil comprobar que las funciones de densidad marginales sonefectivamente funciones de densidad univariadas. Las dos definiciones an-teriores pueden extenderse de manera evidente cuando se tenga un vectoraleatorio de cualquier dimension finita.

87

EJERCICIOS

264. Suponiendo el caso absolutamente continuo, demuestre que la funcionde densidad marginal,

x 7→ fX(x) =

∫ ∞

−∞fX,Y (x, y)dy

es efectivamente una funcion de densidad.

265. Demuestre que la funcion de distribucion marginal

x 7→ FX(x) = lımy→∞

FX,Y (x, y)

es efectivamente una funcion de distribucion.

266. Encuentre las funciones de distribucion marginales del vector (X,Y )cuya funcion de distribucion conjunta es

a) F (x, y) = (1 − e−x)(1 − e−y) para x, y > 0.

b) F (x, y) = (1 − e−x2)(1 − e−y2

) para x, y > 0.

267. Encuentre las funciones de densidad marginales del vector (X,Y ) cuyafuncion de densidad conjunta es

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 4xy para 0 < x, y < 1.

c) f(x, y) = 24x(1 − x− y) para x, y > 0 y x+ y < 1.

d) f(x, y) =1

4(x+ 2y) para 0 < x < 2 y 0 < y < 1.

e) f(x, y) =2

5(4x+ y) para 0 < x, y < 1.

f ) f(x, y) =1

xpara 0 < y < x < 1.

268. Sea 0 < a < 1 y defina la funcion

f(x, y) = ax(1 − a)y para x, y = 1, 2, . . .

a) Demuestre que f(x, y) es una funcion de densidad.

b) Calcule las funciones de densidad marginales.

3.5. Distribucion condicional

La siguiente definicion es una extension del concepto elemental de probabil-idad condicional de eventos.

88

Definicion 28 Sea (X,Y ) un vector con funcion de densidad fX,Y (x, y) ysea y tal que fY (y) 6= 0. A la funcion

x 7→ fX|Y (x|y) =fX,Y (x, y)

fY (y)

se le conoce como la “funcion de densidad condicional” de X dado que Ytoma el valor y.

No es difıcil comprobar que la funcion x 7→ fX|Y (x|y) es efectivamente unafuncion de densidad, tanto en el caso discreto como en el continuo. Observeque el valor y de Y permanece fijo y la funcion es vista como una funcionde la variable real x. Se pueden definir tambien funciones de distribucioncondicionales de la siguiente forma.

Definicion 29 Sea (X,Y ) un vector aleatorio absolutamente continuo confuncion de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funcion

x 7→ FX|Y (x|y) =

∫ x

−∞fX|Y (u|y) du

se le conoce como la “funcion de distribucion condicional” de X dado queY toma el valor y. Cuando el vector aleatorio (X,Y ) es discreto la integralse substituye por la suma correspondiente.

Nuevamente resulta que la funcion x 7→ FX|Y (x|y) es efectivamente una fun-cion de distribucion. En el caso absolutamente continuo tenemos la relacion

fX|Y (x|y) =∂

∂xFX|Y (x|y).

EJERCICIOS

269. Demuestre que la funcion de distribucion condicional

x 7→ FX|Y (x|y) =

∫ x

−∞fX|Y (u|y) du

es efectivamente una funcion de distribucion.

270. Demuestre que la funcion de densidad condicional

x 7→ fX|Y (x|y) =fX,Y (x, y)

fY (y)

es efectivamente una funcion de densidad.

89

271. Sea (X,Y ) un vector aleatorio absolutamente continuo. Demuestre laformula

fX|Y (x|y) =∂

∂xFX|Y (x|y).

272. (Perdida de memoria en la distribucion exponencial.) Sea X con dis-tribucion exp(λ) y sea t > 0 fijo. Demuestre que la distribucion condi-cional de X − t dado que X ≥ t sigue siendo exp(λ).

273. Calcule fX|Y (x|y) para las siguientes funciones de densidad conjunta.

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 4xy para 0 < x, y < 1.

c) f(x, y) = 24x(1 − x− y) para x, y > 0 y x+ y < 1.

d) f(x, y) =1

4(x+ 2y) para 0 < x < 2 y 0 < y < 1.

e) f(x, y) =2

5(4x+ y) para 0 < x, y < 1.

f ) f(x, y) =1

xpara 0 < y < x < 1.

274. Calcule FX|Y (x|y) para las siguientes funciones de distribucion con-junta.

a) F (x, y) = (1 − e−x)(1

2+

1

πtan−1 y) para x ≥ 0.

b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0.

275. Se hacen tres lanzamientos de una moneda equilibrada. Sea X la v.a.que denota el numero de caras que se obtienen en los dos primeroslanzamientos y sea Y la v.a. que denota el numero de cruces en los dosultimos lanzamientos. Calcule

a) fX,Y (x, y).

b) fX(x) y fY (y).

c) fY |X(y|x) para x = 0, 1, 2.

276. Sea (X,Y ) un vector con funcion de densidad

fX,Y (x, y) =x+ y

8para 0 ≤ x, y ≤ 2.

Compruebe que f(x, y) es una funcion de densidad y calcule

a) P (Y > X).

b) P (X > 1 | Y < 1).

c) fX(x) y fY (y).

d) fX|Y (x|y) y fY |X(y|x).e) FX,Y (x, y), FX(x) y FY (y).

90

277. Sea (X,Y ) un vector con funcion de densidad

fX,Y (x, y) = 8xy para 0 < x < y < 1.

Compruebe que f(x, y) es una funcion de densidad y calcule

a) P (X + Y < 1).

b) P (Y < 1/2 | X < 1/2).

c) fX(x) y fY (y).

d) fX|Y (x|y) y fY |X(y|x).

278. Sea (X,Y ) un vector con funcion de densidad

fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1.

Compruebe que f(x, y) es efectivamente una funcion de densidad ycalcule

a) FX,Y (x, y), FX(x) y FY (y).

b) P (X > 1/2).

c) P (1/4 < Y < 3/4 | X < 1/2).

d) fX(x) y fY (y).

e) fX|Y (x|y) y fY |X(y|x).

3.6. Independencia de variables aleatorias

Podemos ahora definir el importante concepto de independencia de variablesaleatorias. Para ello usaremos la siempre existente funcion de distribucion.

Definicion 30 Se dice que X y Y son independientes si para cada (x, y) enR2 se cumple la igualdad

FX,Y (x, y) = FX(x)FY (y).

Esta es una extension de la definicion de independencia de dos eventos A y B,P (A∩B) = P (A)P (B). Cuando la funcion de densidad conjunta fX,Y (x, y)existe entonces la igualdad anterior es equivalente a la expresion

fX,Y (x, y) = fX(x)fY (y).

El concepto de independencia puede ser extendido claramente al caso devarias variables aleatorias de la forma siguiente. Se dice que X1, X2, . . . , Xn

son independientes si para cualquier (x1, x2, . . . , xn) en Rn se cumple

FX1,X2,...,Xn(x1, x2, . . . , xn) = FX1(x1)FX2(x2) · · ·FXn

(xn).

91

Mas aun, una sucesion infinita de variables aleatorias es independiente sicualquier subconjunto finito de ella lo es.

Ejemplo 13 Sea (X,Y ) un vector aleatorio con funcion de densidad

f(x, y) = 4xy para 0 ≤ x, y ≤ 1.

La grafica de esta funcion aparece en la Figura 3.1.

00.25

0.5

0.75

1

x

0

0.25

0.50.75

1

y

01234

fHx,yL

00.25

0.5

0.75

1

x

Figura 3.1: Funcion de densidad del Ejemplo 13

La funcion de densidad marginal de X se calcula como sigue. Para 0 ≤ x ≤1,

fX(x) =

∫ ∞

−∞f(x, y)dy

=

∫ 1

04xydy

= 2x.

Por lo tantofX(x) = 2x para 0 ≤ x ≤ 1,

AnalogamentefY (y) = 2y para 0 ≤ y ≤ 1.

En consecuencia X y Y son independientes pues para cada par (x, y) secumple

fX,Y (x, y) = fX(x)fY (y).

EJERCICIOS

279. Demuestre la variable aleatoria constante X = c es independiente decualquier otra variable aleatoria.

280. Sea X independiente de cualquier otra variable aleatoria. Demuestreque X es constante.

92

281. Demuestre que los eventos A y B son independientes si y solo si lasvariables aleatorias 1A y 1B lo son.

282. Determine si las siguientes son funciones de densidad de variablesaleatorias independientes.

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 2x para 0 < x, y < 1.

c) f(x, y) = 2e−x−y para 0 < x < y.

d) f(x, y) = e−x−y para x, y > 0.

e) f(x, y) =3

8(x2 + y2) para x, y ∈ [−1, 1].

283. Determine si las siguientes son funciones de distribucion de variablesaleatorias independientes.

a) F (x, y) = (1 − e−x)(1 − e−y) para x, y > 0.

b) F (x, y) = (1 − e−x2)(1 − e−y2

) para x, y > 0.

284. Demuestre que X y Y son independientes si y solo si para cualesquieranumeros reales x y y,

P (X > x, Y > y) = P (X > x)P (Y > y).

285. Demuestre que X y Y son independientes si y solo si para cualesquieranumeros reales a < b y c < d,

P (a < X ≤ b, c < Y ≤ d) = P (a < X ≤ b)P (c < Y ≤ d).

286. Sean X1, . . . , Xn variables aleatorias independientes cada una con dis-tribucion Ber(p). Calcule

P (X1 + · · · +Xn = k) para k = 0, 1, . . . , n.

287. Sean X y Y independientes ambas con distribucion unif1, . . . , n.Encuentre la distribucion de (U, V ) = (X + Y,X − Y ). Determine siU y V son independientes.

288. Sean X ≥ 0 y Y ≥ 0 independientes con valores enteros y con esper-anza finita. Demuestre que

E(mınX,Y ) =∞∑

n=1

P (X ≥ n)P (Y ≥ n).

289. Sean X y Y independientes ambas con distribucion unif−1, 1. SeaZ = XY . Demuestre que X,Y y Z son independientes dos a dos perono lo son en su conjunto.

93

290. Sean X y Y independientes con distribucion Poisson(λ1) y Poisson(λ2)respectivamente. Demuestre que la distribucion condicional de X dadoque X + Y = n es bin(n, λ1/(λ1 + λ2)).

291. SeanX y Y independientes con distribucion unif0, 1, . . . , n y unif0, 1, . . . ,mrespectivamente. Encuentre la funcion de densidad de Z = X + Y .

292. Sean X1, . . . , Xn independientes con distribucion geo(p). Demuestreque X1 + · · · +Xn tiene distribucion bin neg(n, p).

293. Sean X y Y independientes. Encuentre la funcion de distribucion deW en terminos de FX(x) y FY (y) cuando

a) W = maxX,Y .b) W = mınX,Y .

294. Sean X y Y independientes ambas con distribucion exp(λ) y sea a unaconstante. Calcule

a) P (maxX,Y ≤ aX).

b) P (mınX,Y ≤ aX).

295. Usando la siguiente tabla, construya la funcion de densidad f(x, y)de un vector discreto (X,Y ) con la condicion de que X y Y seanindependientes.

x\y 0 1

0 · ·1 · ·

Compruebe que la funcion que propone es efectivamente una funcionde densidad y que la condicion de independencia se cumple.

296. Sea (X,Y ) un vector discreto con distribucion de probabilidad uni-forme en el conjunto

1, . . . , n × 1, . . . ,m,

con n y m enteros positivos. Demuestre que X y Y son independientes.

297. Sea (X,Y ) un vector aleatorio con funcion de densidad

f(x, y) = c

(1

2

)x+y

para x = 0, 1, 2 y y = 1, 2.

Encuentre el valor de la constante c y determine si X y Y son indepen-dientes. Calcule ademas las probabilidades P (X = 1), P (X = 2 |Y =2) y P (XY = 2).

298. Sean X y Y independientes con distribucion exponencial con paramet-ros λ1 y λ2 respectivamente. Demuestre que

P (Y > X) =λ1

λ1 + λ2.

94

299. Sean X y Y independientes con distribucion bin(n, p) y bin(m, p) re-spectivamente. Demuestre que X + Y tiene distribucion bin(n+m, p)

a) haciendo el calculo directamente.

b) razonando probabilısticamente en terminos de ensayos Bernoulli.

300. Sean X y Y independientes con distribucion Poisson con parametrosλ1 y λ2 respectivamente. Demuestre que X + Y tiene distribucionPoisson(λ1 + λ2).

301. Sea (X,Y, Z) un vector aleatorio con funcion de densidad

fX,Y,Z(x, y, z) = 8xyz para 0 ≤ x, y, z ≤ 1.

a) Compruebe que f(x, y, z) es una funcion de densidad.

b) Calcule P (X < Y < Z) y P (X + Y + Z < 1).

c) Encuentre fX,Y (x, y), fX,Z(x, z) y fY,Z(y, z).

d) Determine si X, Y y Z son independientes.

302. Sea (X,Y, Z) un vector aleatorio con funcion de densidad

fX,Y,Z(x, y, z) = 24x para 0 < x < y < z < 1.

a) Compruebe que f(x, y, z) es una funcion de densidad.

b) Calcule P (X + Y < 1) y P (Z −X > 1/2).

c) Encuentre fX,Y (x, y), fX,Z(x, z) y fY,Z(y, z).

d) Determine si X, Y y Z son independientes.

303. Sea X1, X2, . . . una sucesion de v.a.s independientes cada una con dis-tribucion unif[0, 1]. Demuestre que para cualquier λ > 0,

lımn→∞

P (maxX1, . . . , Xn ≤ 1 − λ

n) = e−λ.

304. Sean X y Y independientes con distribucion Poisson(λ1) y Poisson(λ2)respectivamente. Demuestre que

E(X |X + Y = n) = n · λ1

λ1 + λ2.

3.7. Esperanza condicional

En esta seccion se define el importante concepto de esperanza condicionalde una variable aleatoria respecto de una σ-algebra y se estudian algunasde sus propiedades elementales.

95

Definicion 31 Sea X una variable aleatoria con esperanza finita y seaG una sub-σ-algebra de F . La esperanza condicional de X dado G esuna variable aleatoria denotada por E(X|G) que cumple las siguientes trespropiedades:

1. Es G-medible.

2. Tiene esperanza finita.

3. Para cualquier evento G en G,

E[E(X | G ) · 1G ] = E[X · 1G ]. (3.1)

El punto importante a enfatizar es que la esperanza condicional, a pesarde su nombre, no es un numero (aunque puede serlo) sino una variablealeatoria. Puede demostrarse que esta variable aleatoria existe y es unicacasi seguramente, esto significa que si existe otra variable aleatoria con lastres propiedades de la definicion anterior entonces con probabilidad unocoincide con E(X|G).

La esperanza condicional cumple las siguientes propiedades elementales.

a) E(E(X|G)) = E(X).

b) Si X es G-medible entonces E(X|G) = X. En particular, si c es unaconstante E(c|G) = c.

c) E(aX + Y |G) = aE(X|G) + E(Y |G).

La primera propiedad se demuestra tomando el caso particular G = Ω en laigualdad (3.1), y establece que las variables aleatorias X y E(X|G) tienenla misma esperanza. Para la segunda propiedad observe que si X es G-medible entonces X mismo cumple con las tres propiedades de la definicionde E(X|G), por la unicidad se obtiene la igualdad casi segura. La tercerapropiedad es consecuencia de la linealidad de la esperanza, de (3.1) y de launicidad.

Cuando la σ-algebra G es la mınima respecto de la cual una funcion Y : Ω →R es variable aleatoria, es decir G = σ(Y ), entonces la esperanza condicionalse escribe simplemente E(X|Y ) en lugar de E(X|σ(Y )). Si ω es tal queY (ω) = y entonces la variable aleatoria E(X|Y ) evaluada en ω es

E(X|Y )(ω) = E(X|Y = y)

=

∫ ∞

−∞xdFX|Y (x|y).

No es difıcil verificar los siguientes casos particulares que relacionan a laesperanza condicional con los conceptos elementales de esperanza y proba-

96

bilidad condicional. Para cualquier variable aleatoriaX con esperanza finita,y eventos A y B,

a) E(X| ∅,Ω ) = E(X).

b) E(1A| ∅,Ω ) = P (A).

c) E(1A| ∅, B,Bc,Ω ) = P (A|B)1B + P (A|Bc)1Bc .

La primera igualdad se sigue del hecho que E(X|G) es medible respecto deG y de que cualquier funcion medible respecto de G = ∅,Ω es constante.La tercera condicion en la definicion de esperanza condicional implica queesta constante debe ser E(X). La segunda igualdad es evidentemente uncaso particular de la primera. Para demostrar la tercera igualdad observeque toda funcion medible respecto de G = ∅, B,Bc,Ω es constante tantoen B como en Bc. Ademas,

E[E( 1A | G ) · 1B ] = E[ 1A · 1B ] = P (A ∩B).

Como la variable aleatoria E( 1A | G) es constante en B, el lado izquierdoes igual a E( 1A | G)(ω) · P (B) para cualquier ω en B. De donde se obtieneE( 1A | G)(ω) = P (A|B) para ω en B. El analisis es analogo al considerar elevento Bc y de esto se obtiene la formula de la tercera propiedad.

Una introduccion a la esperanza condicional ligeramente mas completa a lapresentada en esta seccion, aunque tambien sencilla y breve, puede encon-trarse en [17]. Un tratamiento mas completo puede consultarse por ejemploen [11] o [21].

EJERCICIOS

305. Enuncie la definicion de esperanza condicional de una variable respectode una σ-algebra.

306. Sea X una variable aleatoria con esperanza finita y sea G = ∅,Ω.Demuestre que E(X|G) = E(X).

307. Demuestre que si X es G-medible entonces E(X|G) = X.

308. Demuestre que si c es una constante entonces para cualquier sub-σ-algebra G, E(c|G) = c.

309. Sea A un evento y sea G = ∅,Ω. Demuestre que E(1A|G) = P (A).

310. Sean A y B dos eventos. Demuestre que

E(1A|1B) = P (A|B)1B + P (A|Bc)1Bc .

97

311. Sea (X,Y ) un vector con funcion de densidad

fX,Y (x, y) = 3y para 0 < x < y < 1.

Compruebe que f(x, y) es efectivamente una funcion de densidad ycalcule

a) P (X + Y < 1/2).

b) fX(x) y fY (y).

c) E(Y ) y E(Y |X = x).

312. Sea (X,Y ) un vector con distribucion uniforme en el conjunto

1, . . . , 6 × 1, . . . , 6.

Calcule

a) P (X = Y ).

b) P (X + Y ≤ 6).

c) fX(x) y fY (y).

d) E(X|X + Y = 6).

313. Sea (X,Y ) un vector con funcion de densidad dada por la siguientetabla

x\y -1 0 1

1 .3 .05 .05

2 .05 .2 .05

3 .1 .1 .1

Calcule

a) P (X = 2), P (X + Y = 1) y P (Y ≤ X).

b) fX(x) y fY (y).

c) fY |X(y|x) para x = 1, 2, 3.

d) E(Y |X = x) para x = 1, 2, 3.

3.8. Varianza condicional

Definicion 32 Sea X con segundo momento finito. La varianza condicionalde X dado Y se define como la variable aleatoria dada por

Var(X|Y ) = E[ (X − E(X|Y ))2 |Y ].

La varianza condicional cumple las siguientes propiedades.

98

a) Var(X|Y ) = E(X2|Y ) − E2(X|Y ).

b) Var(X) = E[Var(X|Y )] + Var[E(X|Y )].

La demostracion de estas formulas es sencilla. La primera de ellas surge apartir de la definicion al desarrollar el cuadrado y utilizar las propiedades delinealidad de la esperanza condicional. Para la segunda propiedad, tomandoesperanza en a) se obtiene

E[Var(X|Y )] = E(X2) − E[E2(X|Y )]. (3.2)

Por otro lado

Var[E(X|Y )] = E[E2(X|Y )] − E2[E(X|Y )]

= E[E2(X|Y )] − E2(X). (3.3)

Sumando (3.2) y (3.3) se obtiene b).

EJERCICIOS

314. Demuestre nuevamente que

Var(X|Y ) = E(X2|Y ) − E2(X|Y ).

315. Demuestre nuevamente que

Var(X) = E[Var(X|Y )] + Var[E(X|Y )].

3.9. Esperanza de una funcion de un vector aleato-rio

Definicion 33 Sea (X,Y ) un vector aleatorio y sea g : R2 → R una funcionBorel medible. Entonces se define

E[g(X,Y )] =

R2

g(x, y)dFX,Y (x, y).

Proposicion 38 Sean X y Y independientes y sean g y h dos funcionesBorel medibles tales que g(X) y h(Y ) tienen esperanza finita. Entonces

E[g(X)h(Y )] = E[g(X)]E[h(Y )].

99

Demostracion.

E[g(X)h(Y )] =

R2

g(x)h(y)dFX,Y (x, y)

=

R2

g(x)h(y)dFX(x)dFY (y)

= E[g(X)]E[h(Y )].

En particular cuando X y Y son independientes, E(XY ) = E(X)E(Y ). Elrecıproco de esta afirmacion es falso. Para ello vease el ejercicio 317.

EJERCICIOS

316. Demuestre que si X y Y son independientes entonces

E(XY ) = E(X)E(Y ).

317. Demuestre que

E(XY ) = E(X)E(Y ) 6=⇒ X,Y independientes

considerando cualquiera de los siguientes ejemplos.

a) f(x, y) =

1/8 si (x, y) = (−1, 1), (1, 1), (−1, 1), (1,−1),1/2 si (x, y) = (0, 0),0 otro caso.

b) f(x, y) =3

8(x2 + y2) para x, y ∈ [−1, 1].

c) X con distribucion uniforme en −1, 0, 1 y Y = 1(X 6=0).

318. Sean X y Y independentes. Diga falso o verdadero justificando en cadacaso.

a) Var(X + Y ) = Var(X) + Var(Y ).

b) Var(X − Y ) = Var(X) − Var(Y ).

c) Var(XY ) = Var(X)Var(Y ).

319. Sean X y Y independientes. Demuestre que

Var(XY ) = Var(X)Var(Y ) + E2(X)Var(Y ) + E2(Y )Var(X).

320. Sean X1, . . . Xn independientes con la misma distribucion, y sea Sn =X1 + · · · + Xn. Suponiendo que las esperanzas indicadas existen, de-muestre que E(X1/Sn) = 1/n. Concluya que param ≤ n, E(Sm/Sn) =m/n.

100

321. Sea X1, . . . , Xn variables aleatorias independientes con identica dis-tribucion y con esperanza finita. Demuestre que

E(X1 |X1 + · · · +Xn = k) =k

n.

322. Sea (X,Y ) un vector aleatorio discreto con funcion de densidad dadapor la siguiente tabla

x\y -1 0 1

1 .1 .05 .1

2 .06 .2 .04

3 .1 .05 .3

a) Grafique f(x, y) y compruebe que efectivamente se trata de unafuncion de densidad conjunta.

b) Calcule y grafique las densidades marginales fX(x) y fY (y). Ver-ifique que ambas son funciones de densidad.

c) Demuestre que X y Y no son independientes.

d) Calcule E(XY ).

e) Calcule fX+Y (u).

323. Sea (X,Y ) un vector discreto con funcion de densidad dada por lasiguiente tabla

x\y 2 4 6

1 2/18 3/18 1/18

2 3/18 5/18 1/18

3 1/18 1/18 1/18

a) Grafique f(x, y) y compruebe que efectivamente es una funcionde densidad conjunta.

b) Calcule y grafique las densidades marginales fX(x) y fY (y). Ver-ifique que ambas son efectivamente funciones de densidad.

c) Demuestre que X y Y no son independientes.

d) Calcule E(XY ).

e) Calcule fX+Y (u).

324. Sea (X,Y ) un vector aleatorio con funcion de densidad dada por

f(x, y) =

8xy si 0 < y < x < 1,0 otro caso.

a) Grafique f(x, y).

b) Encuentre y grafique las densidades marginales fX(x) y fY (y).Verifique que ambas son efectivamente funciones de densidad.

c) Demuestre que X y Y no son independientes.

d) Calcule E(XY ).

101

3.10. Covarianza

En esta seccion se define y estudia la covarianza entre dos variables aleato-rias. Una interpretacion de este numero, ligeramente modificado, sera dadaen la siguiente seccion.

Definicion 34 La covarianza de X y Y , denotada por Cov(X,Y ), es elnumero

Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))] .

Para que la definicion anterior tenga sentido se necesita suponer que lasesperanzas E(X), E(Y ) y E(XY ) sean finitas. Estudiamos a continuacionalgunas propiedades sencillas de la covarianza.

Proposicion 39 La covarianza satisface las siguientes propiedades.

1. Cov(X,Y ) = E(XY ) − E(X)E(Y ).

2. Cov(X,Y ) = Cov(Y,X).

3. Cov(X,X) = Var(X).

4. Cov(a, Y ) = 0, a constante.

5. Cov(aX, Y ) = aCov(X,Y ), a constante.

6. Cov(X1 +X2, Y ) = Cov(X1, Y ) + Cov(X2, Y ).

7. X,Y independientes =⇒ Cov(X,Y ) = 0.

8. Cov(X,Y ) = 0 6=⇒ X,Y independientes.

Demostracion. Para probar (1) se usa la propiedad lineal de la esperanza,

Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))]

= E [XY − Y E(X) −XE(Y ) + E(X)E(Y )]

= E(XY ) − E(X)E(Y ).

Las propiedades (2), (3) y (4) se siguen directamente de la definicion, lomismo que (5) y (6) al hacer uso de las propiedades de linealidad de laesperanza. La proposicion (7) se obtiene facilmente de (1) pues E(XY ) =E(X)E(Y ) cuandoX y Y son independientes. Finalmente damos un ejemplo

102

para (8). Sea (X,Y ) un vector aleatorio discreto con funcion de densidad

fX,Y (x, y) =

1/8 si (x, y) ∈ (−1,−1), (−1, 1), (1,−1), (1, 1),1/2 si (x, y) = (0, 0),0 otro caso.

Entonces X y Y tienen identicas densidades marginales,

fX(x) =

1/4 si x ∈ −1, 1,1/2 si x = 0,0 otro caso.

fY (y) =

1/4 si y ∈ −1, 1,1/2 si y = 0,0 otro caso.

Puede entonces comprobarse que

Cov(X,Y ) = E(XY ) − E(X)E(Y ) = 0.

Sin embargo X y Y no son independientes pues en particular

P (X = 0, Y = 0) =1

2,

mientras que

P (X = 0)P (Y = 0) =1

4.

EJERCICIOS

325. Defina Cov(X,Y ) y mencione tres de sus propiedades.

326. Diga falso o verdadero. Demuestre en cada caso.

a) Cov(X,Y ) = 0,Cov(Y,Z) = 0 =⇒ Cov(X,Z) = 0.

b) Cov(X,Y ) > 0,Cov(Y,Z) > 0 =⇒ Cov(X,Z) > 0.

c) Cov(X,Y ) = a,Cov(Y,Z) = a =⇒ Cov(X,Z) = a.

327. Diga falso o verdadero. Demuestre en cada caso.

a) Cov(X,Y ) ≥ 0.

b) Cov(aX, bY ) = abCov(X,Y ) con a, b constantes.

c) Cov(X, aY + b) = aCov(X,Y ) + b con a, b constantes.

328. Sea a un numero real cualquiera. Encuentre X y Y tales que

a) Cov(X,Y ) = a.

b) Cov(X,Y ) = −a.c) Cov(X,Y ) = 0.

329. Demuestre que

a) Cov(X,Y ) = E(XY ) − E(X)E(Y ).

103

b) Cov(X,Y ) = Cov(Y,X).

c) Cov(X,X) = Var(X).

d) Cov(X,−X) = −Var(X).

e) Cov(aX + b, Y ) = aCov(X,Y ).

f ) Cov(X1 +X2, Y ) = Cov(X1, Y ) + Cov(X2, Y ).

330. Demuestre que

a) X,Y independientes =⇒ Cov(X,Y ) = 0.

b) Cov(X,Y ) = 0 6=⇒ X,Y independientes.

331. Demuestre que

Var(X ± Y ) = Var(X) + Var(Y ) ± 2 Cov(X,Y ).

332. Demuestre que

a) Var(X1 + · · · +Xn) =n∑

k=1

Var(Xk) + 2∑

j<k

Cov(Xj , Xk).

b) Cov(n∑

i=1

Xi,m∑

j=1

Yj) =n∑

i=1

m∑

j=1

Cov(Xi, Yj).

333. Sea X1, . . . , Xn independientes. Demuestre que

Var(X1 + · · · +Xn) =

n∑

k=1

Var(Xk).

334. Sean X1, . . . , Xn independientes con identica distribucion. Demuestreque para k = 1, . . . , n

Cov(Xk − X, X) = 0,

en donde X =1

n

n∑

k=1

Xk.

335. Calcule la covarianza de X y Y cuya distribucion conjunta es uniformeen el conjunto 1, . . . , n × 1, . . . , n.

336. Calcule la covarianza de X y Y cuya funcion de densidad conjuntaesta dada por la siguiente tabla.

x\y -1 0 1

-1 1/12 2/12 3/12

1 3/12 2/12 1/12

337. Calcule la covarianza de X y Y cuya funcion de densidad conjuntaesta dada por la siguiente tabla, c es una constante.

x\y -1 0 1

-1 2c c 2c

1 3c c 3c

104

338. Calcule la covarianza de X y Y cuya funcion de densidad conjuntaesta dada por la siguiente tabla.

x\y 1 2 3

2 .2 .05 .15

4 .05 .1 .15

6 .05 .1 .15

339. Calcule la covarianza de X y Y cuya funcion de densidad conjuntaesta dada por la siguiente tabla, c es una constante.

x\y -1 0 1

-1 0 c 0.1

0 c 0.4 c

1 0.1 c 0

340. Calcule la covarianza de X y Y cuya funcion de densidad conjunta es

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 3x2y para x ∈ [−1, 1], y ∈ [0, 1].

c) f(x, y) = 12e

−x para |y| < x.

d) f(x, y) = e−x−y para x, y > 0.

3.11. Coeficiente de correlacion

El coeficiente de correlacion de dos variables aleatorias es un numero quemide el grado de “dependencia lineal” que existe entre ellas.

Definicion 35 El coeficiente de correlacion de X y Y , denotado porρ(X,Y ), es el numero

ρ(X,Y ) =Cov(X,Y )

Var(X) Var(Y ),

en donde 0 < Var(X),Var(Y ) <∞.

La interpretacion dada al coeficiente de correlacion se justifica a partir delos siguientes resultados.

105

Proposicion 40 La coeficiente de correlacion satisface las siguientespropiedades.

1. X,Y independientes =⇒ ρ(X,Y ) = 0.

2. ρ(X,Y ) = 0 6=⇒ X,Y independientes (excepto en el caso normal).

3. −1 ≤ ρ(X,Y ) ≤ 1.

4. |ρ(X,Y )| = 1 si y solo si existen constantes a y b tales que, con prob-abilidad uno, Y = aX + b con a > 0 si ρ(X,Y ) = 1 y a < 0 siρ(X,Y ) = −1.

Demostracion. (1) Si X y Y son independientes entonces Cov(X,Y ) = 0 ypor lo tanto ρ(X,Y ) = 0. (2) Recuerde que la condicion Cov(X,Y ) = 0 noimplica necesariamente queX y Y sean independientes. (3) Suponga primeroque X y Y son tales que E(X) = E(Y ) = 0, y Var(X) = Var(Y ) = 1. Paracualquier valor de λ,

0 ≤ Var(X + λY )

= E[(X + λY )2

]− E2 [X + λY ]

= 1 + 2λE(XY ) + λ2.

El caso λ = 1 produce el resultado E(XY ) ≥ −1 mientras que para λ = −1se obtiene E(XY ) ≤ 1. Es decir,

−1 ≤ E(XY ) ≤ 1.

Ahora se aplica este resultado a las variables aleatorias

X − µX

σXy

Y − µY

σY,

que evidentemente son centradas y con varianza unitaria. Entonces

−1 ≤ E

[(X − µX

σX

)(Y − µY

σY

)]

≤ 1.

Esto es precisamente lo enunciado en (3) pues el termino de enmedio esρ(X,Y ). Ahora se demuestra (4). Si X y Y son tales que Y = aX + b cona 6= 0 y b constantes entonces

ρ(X,Y ) =Cov(X, aX + b)

Var(x)Var(aX + b)=

a

|a|

Por lo tanto ρ(X,Y ) = 1 cuando a > 0 y ρ(X,Y ) = −1 cuando a < 0.Inversamente, suponga que X y Y son tales que |ρ(X,Y )| = 1. Defina

U =X − µX

σXy V =

Y − µY

σY.

106

Entonces claramente E(U) = E(V ) = 0 y Var(U) = Var(V ) = 1. Por lotanto ρ(U, V ) = E(UV ). Es facil ver tambien que |ρ(U, V )| = |ρ(X,Y )| = 1.Si ρ(U, V ) = 1 entonces

Var(U − V ) = E[(U − V )2] − E2(U − V )

= E[(U − V )2]

= 2[1 − E(UV )]

= 0.

Esto significa que con probabilidad uno, la v.a. U − V es constante. Estoes, para alguna constante c, con probabilidad uno, U − V = c. Pero estaconstante c debe ser cero pues E(U − V ) = 0. Por lo tanto,

X − µX

σX=Y − µY

σY,

de donde se obtiene Y = µY + σY

σX(X − µX). Esto establece una relacion

lineal directa entre X y Y . En cambio, si ρ(U, V ) = −1 entonces

Var(U + V ) = E[(U + V )2] − E2(U + V )

= E[(U + V )2]

= 2[1 +E(UV )]

= 0.

Esto significa nuevamente que con probabilidad uno, la v.a. U + V es con-stante. Esto es, para alguna constante c, con probabilidad uno, U + V = c.Nuevamente la constante c es cero pues E(U + V ) = 0. Por lo tanto,

X − µX

σY= −Y − µY

σY,

de donde se obtiene Y = µY − σY

σX(X − µX). Esto establece una relacion

lineal, ahora inversa, entre X y Y . Uniendo los ultimos dos resultados seobtiene que cuando |ρ(X,Y )| = 1, con probabilidad uno,

Y =

(

ρ(X,Y )σY

σX

)

︸ ︷︷ ︸

a

X +

(

µY − ρ(X,Y )µXσY

σX

)

︸ ︷︷ ︸

b

.

Cuando ρ(X,Y ) = 0 se dice que X y Y son “no correlacionadas” y cuando|ρ(X,Y )| = 1 se dice que X y Y estan “perfectamente correlacionadas”positiva o negativamente de acuerdo al signo de ρ(X,Y ).

Proposicion 41 Si (X,Y ) es un vector con distribucion normal bivariaday ρ(X,Y ) = 0 entonces X y Y son independientes.

107

Demostracion. La funcion de densidad normal bivariada esta dada por lasiguiente expresion

f(x, y) =1

2πσXσY

1 − ρ2

exp− 1

2(1 − ρ2)

[(x− µX

σX

)2

− 2ρ

(x− µX

σX

)(y − µY

σY

)

+

(y − µY

σY

)2]

en donde µX = E(X), σ2X = Var(X), µY = E(Y ), σ2

Y = Var(Y ), yρ ∈ (−1, 1). Se pueden calcular directamente las funciones de densidadmarginales y comprobar que

f(x) =1

2πσ2X

exp−(x− µX)2/2σ2X

y f(y) =1

2πσ2Y

exp−(y − µY )2/2σ2Y ,

es decir, X tiene distribucion N(µX , σ2X) y Y tiene distribucion N(µY , σ

2Y ).

Despues de hacer algunos calculos sencillos se puede demostrar que ρ(X,Y ) =ρ y comprobar finalmente que cuando ρ = 0 se verifica la igualdad fX,Y (x, y) =fX(x)fY (y).

En resumen tenemos la siguiente tabla.

Propiedades del coeficiente de correlacion

1. X,Y indep =⇒ ρ(X,Y ) = 02. ρ(X,Y ) = 0 6=⇒ X,Y indep (excepto caso normal)3. ρ(X,Y ) ∈ [−1, 1]4. |ρ(X,Y )| = 1 ⇐⇒ Y = aX + b

EJERCICIOS

341. Escriba la definicion y una interpretacion del coeficiente de correlacion.Mencione ademas tres de sus propiedades.

342. Diga falso o verdadero. Demuestre en cada caso.

a) ρ(X,Y ) = 0, ρ(Y,Z) = 0 =⇒ ρ(X,Z) = 0.

b) ρ(X,Y ) > 0, ρ(Y,Z) > 0 =⇒ ρ(X,Z) > 0.

c) ρ(X,Y ) > 0, ρ(Y,Z) > 0 =⇒ ρ(X,Z) > 0.

d) ρ(X,Y ) = 1, ρ(Y,Z) = 1 =⇒ ρ(X,Z) = 1.

e) ρ(X,Y ) = −1, ρ(Y,Z) = −1 =⇒ ρ(X,Z) = −1.

f ) ρ(X,Y )ρ(Y,Z) = −1 =⇒ ρ(X,Z) = −1.

g) ρ(X,Y ) = a, ρ(Y,Z) = a =⇒ ρ(X,Z) = a.

108

343. Diga falso verdadero. Demuestre en cada caso.

a) ρ(X,Y ) = ρ(Y,X).

b) ρ(aX, Y ) = a ρ(X,Y ), a constante.

c) ρ(X + a, Y ) = ρ(X,Y ), a constante.

d) ρ(aX + b, Y ) = a ρ(X,Y ) + b; a, b constantes.

e) ρ(X1 +X2, Y ) = ρ(X1, Y ) + ρ(X2, Y ).

344. Sea a un numero en [−1, 1]. Encuentre X y Y tales que ρ(X,Y ) = a.

345. Demuestre que

a) X,Y independientes =⇒ ρ(X,Y ) = 0.

b) ρ(X,Y ) = 0 6=⇒ X,Y independientes.

346. Demuestre que

a) −1 ≤ ρ(X,Y ) ≤ 1

b) ρ(X,X) = 1.

c) ρ(X,−X) = −1.

d) ρ(X, aX + b) = 1 si a > 0.

e) ρ(X, aX + b) = −1 si a < 0.

f ) ρ(X, aX + b) = 0 si a = 0.

347. Calcule el coeficiente de correlacion deX y Y cuya funcion de densidadconjunta esta dada por la siguiente tabla.

x\y 1 2

0 1/8 1/4

1 1/2 1/8

348. Calcule el coeficiente de correlacion deX y Y cuya funcion de densidadconjunta esta dada por la siguiente tabla.

x\y 1 2 3

2 1/9 1/9 1/9

4 1/9 1/9 1/9

6 1/9 1/9 1/9

349. Calcule el coeficiente de correlacion deX y Y con distribucion conjuntauniforme en el conjunto

a) 1, . . . , n × 1, . . . , n.b) [−1, 1] × [−1, 1].

350. Sea X con distribucion bin(n, p) y sea Y = n − X. Demuestre queCov(X,Y ) = −np(1 − p) y por lo tanto ρ(X,Y ) = −1.

109

351. Calcule el coeficiente de correlacion deX y Y cuya funcion de densidadconjunta es

a) f(x, y) = 12 sin(x+ y) para x, y ∈ [0, π/2].

b) f(x, y) = 12e

−x para |y| < x.

c) f(x, y) = e−x−y para x, y > 0.

352. Sean X y Y independientes e identicamente distribuidas. Demuestreque ρ(X + Y,X − Y ) = 0.

3.12. Esperanza y varianza de un vector aleatorio

Sea X el vector aleatorio (X1, . . . , Xn). Se define la esperanza de X comoel vector (E(X1), . . . , E(Xn)), cuando cada coordenada existe. La varianzade X se define como la matriz cuadrada E

[(X − E(X))t(X − E(X))

], en

donde t significa transpuesta del vector. Observe que (X − E(X))t es unvector columna de dimension n× 1, mientras que (X −E(X)) es un vectorrenglon de dimension 1× n. De modo que el producto de estos dos vectoresen el orden indicado resulta en una matriz cuadrada de dimension n × ncuyo elemento general es

E[(Xi − E(Xi))(Xj − E(Xj))] = Cov(Xi, Xj).

Entonces

Var(X) =

Var(X1) Cov(X1, X2) · · · Cov(X1, Xn)Cov(X1, X2) Var(X2) · · · Cov(X2, Xn)

......

. . ....

Cov(X1, Xn) Cov(X2, Xn) · · · Var(Xn)

n×n

.

La matriz Var(X) se llama “matriz de varianzas y covarianzas” del vectorX. Es una matriz simetrica pues Cov(Xi, Xj) = Cov(Xj , Xi). Ademas espositiva definida, esto significa que para cualquier vector θ = (θ1, . . . , θn) deRn se cumple la desigualdad

〈Var(X)θ, θ〉 =n∑

i,j=1

Cov(Xi, Xj)θjθi ≥ 0,

en donde 〈·, ·〉 denota el producto interior usual de Rn.

EJERCICIOS

353. Calcule la esperanza y varianza del vector aleatorio (X,Y ) cuya fun-cion de densidad conjunta es

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = 4xy para x, y ∈ [0, 1].

110

3.13. Distribuciones multivariadas discretas

Estudiamos a continuacion algunas distribuciones discretas de vectores aleato-rios.

Distribucion multinomial. Suponga que se tiene un experimento aleatoriocon k posibles resultados distintos. Las probabilidades para cada uno de estosresultados son respectivamente p1, . . . , pk. Entonces p1 + · · ·+pk = 1. Ahorasuponga que se tienen n ensayos sucesivos independientes del experimentoanterior y defina las variables aleatorias discretas X1, . . . , Xk como aquellasque registran el numero de veces que se obtienen cada uno de los k posiblesresultados en los n ensayos. Entonces se dice que X1, . . . , Xk tienen unadistribucion multinomial y su funcion de densidad conjunta es

f(x1, . . . , xn) =

(n

x1, . . . , xn

)

px11 · · · pxn

n

para x1, . . . , xn = 0, 1, . . . , n tales que x1 + · · · + xk = n. Los parametrosde esta distribucion son entonces el numero de ensayos n, el numero deresultados distintos k en cada ensayo y las probabilidades p1, . . . , pk. Elfactor que aparece en parentesis en la funcion de densidad conjunta se conocecomo “coeficiente multinomial” y se define como sigue

(n

x1, . . . , xn

)

=n!

x1! · · ·xn!.

Se dice entonces que (X1, . . . , Xk) tiene distribucion multinomial(n, k, p1, . . . , pk).Observe que cuando unicamente hay dos posibles resultados en cada ensayo(es decir k = 2) la distribucion multinomial se reduce a la distribucion bi-nomial.

EJERCICIOS

354. Demuestre que la funcion de densidad de la distribucion multinomialefectivamente lo es.

355. Sea X = (X1, . . . , Xk) con distribucion multinomial(n, k, p1, . . . , pk).Demuestre que Xi tiene distribucion marginal bin(n, pi), para i =1, . . . , k.

356. Sea X = (X1, . . . , Xk) con distribucion multinomial(n, k, p1, . . . , pk).Demuestre que E(X) = (np1, . . . , npk) y que

[Var(X)]ij =

npi(1 − pi) si i = j,−npipj si i 6= j.

Distribucion hipergeometrica multivariada. Suponga que se tienen Nobjetos de los cuales N1 son de un primer tipo, N2 son de un segundo

111

tipo y asi sucesivamente con Nk objetos de tipo k. Entonces N1 + · · · +Nk = N . Suponga que de la totalidad de objetos se obtiene una muestra sinreemplazo de tamano n, y defina la variables X1, . . . , Xk como aquellas querepresentan el numero de objetos seleccionados de cada tipo. Se dice entoncesque X1, . . . , Xk tienen una distribucion hipergeometrica multivariada y sufuncion de densidad conjunta es

f(x1, . . . , xk) =

(N1

x1

)

· · ·(Nk

xk

)

(Nn

)

en donde cada xi toma valores en el conjunto 0, 1, . . . , n pero sujeto axi ≤ Ni y ademas debe cumplirse que x1+ · · ·+xk = n. Se dice entonces que(X1, . . . , Xk) tiene distribucion hipergeometrica multivariada (N,N1, . . . , Nk, n).Observe que cuando unicamente hay dos tipos de objetos (es decir k = 2) ladistribucion hipergeometrica multivariada se reduce a la distribucion hiper-geometrica univariada. Vease la seccion de ejercicios para la esperanza yvarianza de la distribucion hipergeometrica multivariada.

EJERCICIOS

357. Demuestre que la funcion de densidad de la distribucion hipergeometri-ca multivariada efectivamente lo es.

358. Sea X = (X1, . . . , Xk) con distribucion hipergeometrica multivaria-da con parametros (N,N1, . . . , Nk, n). Demuestre que Xi tiene dis-tribucion hipergeometrica univariada con parametros (N,Ni, n), parai = 1, . . . , k.

359. Sea X = (X1, . . . , Xk) con distribucion hipergeometrica multivariada

con parametros (N,N1, . . . , Nk, n). Demuestre que E(X) = (nN1

N, . . . , n

Nk

N)

y que

[Var(X)]ij =

n · Ni

N· N −Ni

N· N − n

N − 1si i = j,

n · Ni

N· Nj

N· n−N

N − 1si i 6= j.

3.14. Distribuciones multivariadas continuas

Ahora estudiamos algunas distribuciones continuas de vectores aleatorios.

Distribucion normal multivariada. Se dice que las variables aleatoriascontinuas X y Y tienen una distribucion normal bivariada si su funcion dedensidad conjunta es

f(x, y) =1

2πσXσY

1 − ρ2

112

exp− 1

2(1 − ρ2)

[(x− µX

σX

)2

− 2ρ

(x− µX

σX

)(y − µY

σY

)

+

(y − µY

σY

)2]

para cualesquiera valores reales de x y y, y en donde −1 < ρ < 1, σX > 0,σY > 0, y µX , µY dos constantes reales sin restriccion. Se escribe X ∼N(µX , σ

2X , µY , σ

2Y , ρ). Puede demostrarse queX tiene una distribucion marginal

N(µX , σ2X) y Y tiene distribucion marginal N(µY , σ

2Y ). Ademas el parametro

ρ resulta ser el coeficiente de correlacion entre X y Y . Vease el ejercicio 362en la pagina 113 acerca de un ejemplo en el cual las densidades marginalesde un vector bivariado son normales pero la distribucion conjunta no lo es.Cuando µX = µY = 0 y σX = σY = 1 la distribucion se llama “normalbivariada estandar”.

EJERCICIOS

360. Demuestre que la funcion de densidad de la distribucion normal bi-variada efectivamente lo es.

361. Sea (X,Y ) un vector con distribucion normal bivariada N(µX , σ2X , µY , σ

2Y , ρ).

Demuestre que X tiene distribucion marginal N(µX , σ2Y ) y Y tiene dis-

tribucion marginal N(µY , σ2Y ). Vease el siguiente ejercicio para verificar

que el recıproco de este resultado es falso.

362. Sea f(x, y) la funcion de densidad normal bivariada estandar con ρ =0. Defina

g(x, y) =

2f(x, y) si xy < 0,0 si xy ≥ 0.

Demuestre que g(x, y) es una funcion de densidad bivariada que notiene distribucion normal pero cuyas densidades marginales son nor-males.

363. Sea (X,Y ) un vector con distribucion normal bivariada (µX , σ2X , µY , σ

2Y , ρ).

Demuestre que E(X) = (µX , µY ), ρ(X,Y ) = ρ y que

Var(X,Y ) =

(σ2

X ρσXσY

ρσXσY σ2Y

)

.

364. Sea (X,Y ) un vector con distribucion normal bivariada (µX , σ2X , µY , σ

2Y , ρ).

Demuestre que la distribucion condicional de X dado que Y = y esnormal con media µY + ρ σY

σX(x− µX) y varianza σ2

Y (1 − ρ2), y que ladistribucion condicional de Y dado que X = x es normal con mediaµX + ρσX

σY(y − µY ) y varianza σ2

X(1 − ρ2)

113

Capıtulo 4

Transformaciones

Si X es una variable aleatoria con distribucion conocida y φ es una funciontal que Y = φ(X) es otra variable aleatoria ¿cual es la distribucion de Y ? Eneste capıtulo se da respuesta a esta pregunta tanto en el caso unidimensionalcomo en el caso de vectores aleatorios. En particular, se encuentran formulasexplıcitas para la funcion de densidad de la suma, resta, producto y cocientede dos variables aleatorias absolutamente continuas.

4.1. Transformacion de una variable aleatoria

Suponga queX es una variable aleatoria y φ es una funcion tal que Y = φ(X)es otra variable aleatoria. En esta seccion se estudia un resultado que proveede una formula para la funcion de densidad de Y en terminos de la funcionde densidad de X. Graficamente

Ω

Y =φ(X)

77

X// R

φ// R

Teorema 1 (Teorema de cambio de variable) Sea X una variablealeatoria continua con valores dentro del intervalo (a, b) ⊆ R y con funcionde densidad fX(x). Sea φ : (a, b) → R una funcion continua, estrictamentecreciente o decreciente y con inversa φ−1 diferenciable. Entonces la variablealeatoria Y = φ(X) toma valores dentro del intervalo φ(a, b) y tiene funcionde densidad

fY (y) = fX(φ−1(y)) | ddyφ−1(y)| para y ∈ φ(a, b).

114

Demostracion. Suponga primero el caso φ estrictamente creciente. Entonces

FY (y) = P (Y ≤ y)

= P (φ(X) ≤ y)

= P (X ≤ φ−1(y))

= FX(φ−1(y)).

Derivando

fY (y) = fX(φ−1(y))d

dyφ−1(y).

Para φ estrictamente decreciente

FY (y) = P (Y ≤ y)

= P (φ(X) ≤ y)

= P (X ≥ φ−1(y))

= 1 − FX(φ−1(y)).

Entonces

fY (y) = fX(φ−1(y))

[

− d

dyφ−1(y)

]

.

En cualquiera caso se obtiene el resultado del teorema.

Ejemplo 14 (Distribucion log normal) Sea X con distribucion N(µ, σ2) ysea φ la funcion estrictamente creciente y = φ(x) = ex con inversa difer-enciable φ−1(y) = ln y. Entonces la variable aleatoria Y = eX toma valoresen el intervalo φ(−∞,∞) = (0,∞) y aplicando la proposicion anterior sufuncion de densidad es

fY (y) =1

y√

2πσ2exp

(

−(ln y − µ)2

2σ2

)

para y ∈ (0,∞).

A la distribucion de Y se le conoce como la distribucion log normal(µ, σ2).Se puede demostrar que

E(Y ) = exp(µ+σ2

2)

Var(Y ) = exp(2µ+ 2σ2) − exp(2µ+ σ2).

EJERCICIOS

365. SeaX con distribucion unif(0, 1) y sea λ > 0. Demuestre que la variablealeatoria Y = −(lnX)/λ tiene distribucion exp(λ).

366. Sea X con distribucion exp(λ). Encuentre la funcion de densidad y dedistribucion de Y = 1 − exp(−λX).

367. Encuentre la distribucion de Y = 1/X cuando X tiene distribucion

115

a) unif(0, 1).

b) exp(λ).

368. Encuentre la distribucion de Y = Xn para cada n en N cuando Xtiene distribucion

a) unif(0, 1).

b) exp(λ).

369. Sea X con distribucion unif(−1, 1). Encuentre la funcion de densidadde Y = X2.

370. Sea X absolutamente continua con funcion de distribucion F (x). De-muestre que Y = F (X) tiene distribucion unif[0, 1].

371. Encuentre la funcion de densidad de Y = 1/X cuando X tiene funcionde densidad

fX(x) =

1/2 si 0 < x ≤ 1,1/(2x2) si x > 1,0 otro caso.

372. Sea X con distribucion unif(a, b). Encuentre la distribucion de la vari-able aleatoria Y = X/(b−X).

4.2. Transformacion de un vector aleatorio

Suponga ahora que (X,Y ) es un vector con funcion de densidad conocida y φes una funcion tal que (U, V ) = φ(X,Y ) es otro vector aleatorio. El problemaes encontrar la funcion de densidad del nuevo vector (U, V ). Graficamente

Ω

(U,V )=φ(X,Y )

66

(X,Y )// R2

φ// R2

Teorema 2 (Teorema de cambio de variable) Sea (X,Y ) un vectorcontinuo con valores en I ⊆ R2 y con funcion de densidad fX,Y (x, y). Seaφ(x, y) : I → R2 una funcion continua con inversa φ−1(u, v) diferenciable.Entonces el vector (U, V ) = φ(X,Y ) toma valores en φ(I) y tiene funcionde densidad

fU,V (u, v) = fX,Y (φ−1(u, v)) |J(u, v)| para (u, v) ∈ φ(I) (4.1)

en donde

J(u, v) =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

.

116

Demostracion (intuitiva). Sea

(U, V ) = φ(X,Y ) = (φ1(X,Y ), φ2(X,Y ))

con inversa

(X,Y ) = φ−1(U, V ) = (φ−11 (U, V ), φ−1

2 (U, V )).

SeaA el cuadrado de area infinitesinal de esquinas con coordenadas (x, y), (x+dx, y), (x, y+dy) y (x+dx, y+dy). Bajo la transformacion φ las coordenadasde las esquinas del cuadrado A se transforman en las siguientes coordenadas

(x, y) 7→ (φ1(x, y), φ2(x, y)).

(x+ dx, y) 7→ (φ1(x+ dx, y), φ2(x+ dx, y))

.= (φ1(x, y) +

∂xφ1(x, y)dx, φ2(x, y) +

∂xφ2(x, y)dx.

(x, y + dy) 7→ (φ1(x, y + dy), φ2(x, y + dy))

.= (φ1(x, y) +

∂yφ1(x, y)dy, φ2(x, y) +

∂yφ2(x, y)dy.

(x+ dx, y + dy) 7→ (φ1(x+ dx, y + dy), φ2(x+ dx, y + dy))

.= (φ1(x, y) +

∂xφ1(x, y)dx+

∂yφ1(x, y)dy,

φ2(x, y) +∂

∂xφ2(x, y)dx+

∂yφ2(x, y)dy).

Sea B el elemento de area φ(A). Entonces P ((X,Y ) ∈ A) = P ((U, V ) ∈ B).Por lo tanto

fX,Y (x, y) dxdy = fU,V (u, v) × “Area de B”.

En donde

“Area de B” =

∣∣∣∣

∂φ1

∂x

∂φ2

∂y− ∂φ2

∂x

∂φ1

∂y

∣∣∣∣dxdy

=

∣∣∣∣∣∣∣

∣∣∣∣∣∣∣

∂φ1

∂x

∂φ1

∂y∂φ2

∂x

∂φ2

∂y

∣∣∣∣∣∣∣

∣∣∣∣∣∣∣

dxdy.

Ademas |J(x, y)| =1

|J(u, v)| . Por lo tanto

fX,Y (x, y) dxdy = fU,V (u, v)dxdy

|J(u, v)| .

De esta ecuacion obtenemos

fU,V (u, v) = fX,Y (φ−11 (u, v), φ−1

2 (u, v))|J(u, v)|.

117

Como ejemplo de aplicacion de la proposicion anterior, en las secciones sigu-ientes utilizaremos la formula (4.1) para encontrar expresiones para la fun-cion de densidad de la suma, diferencia, producto y cociente de dos variablesaleatorias. Las formulas generales sobre transformaciones encontradas en es-tas dos primeras secciones se resumen en la siguiente tabla.

Transformacion de variables aleatorias

1. Y = φ(X) =⇒ fY (y) = fX(φ−1(y)) | ddyφ−1(y)|

2. (U, V ) = φ(X,Y ) =⇒ fU,V (u, v) = fX,Y (φ−1(u, v)) |J(u, v)|

en donde J(u, v) =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

EJERCICIOS

373. Sean X y Y independientes ambas con distribucion unif(0, 1). Encuen-tre la funcion de densidad del vector

a) (X,X + Y ).

b) (X + Y,X − Y ).

374. Sean X y Y independientes ambas con distribucion unif(−1, 1). En-cuentre la funcion de densidad de

a) (X + Y,X − Y ).

b) |Y −X|.c) (X − Y, Y −X).

375. Sea (X,Y ) un vector con distribucion uniforme en el cırculo unitario(x, y) : x2 + y2 ≤ 1. Encuentre la funcion de densidad del vector(R,Θ) = (

√X2 + Y 2, arctan(Y/X)).

4.2.1. Distribucion de la suma (convolucion)

El siguiente resultado proporciona una formula para la funcion de densidadde la suma de dos variables aleatorias absolutamente continuas.

118

Proposicion 42 Sea (X,Y ) un vector continuo con funcion de densidadconjunta fX,Y (x, y). Entonces X + Y tiene funcion de densidad

fX+Y (u) =

∫ ∞

−∞fX,Y (u− v, v) dv. (4.2)

Demostracion. Sea φ : R2 → R2 la transformacion

φ(x, y) = (φ1(x, y), φ2(x, y))

= (x+ y, y)

= (u, v)

con inversa

φ−1(u, v) = (φ−11 (u, v), φ−1

2 (u, v))

= (u− v, v)

= (x, y).

El Jacobiano de la transformacion inversa es

J(u, v) =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

=

∣∣∣∣

1 −10 1

∣∣∣∣= 1.

Por la formula (4.1) la funcion de densidad de (X + Y, Y ) es

fX+Y,Y (u, v) = fX,Y (u− v, v).

Integrando respecto de v se obtiene (4.2).

Observe que haciendo el cambio de variable z(v) = u− v en (4.2) se obtienela expresion equivalente

fX+Y (u) =

∫ ∞

−∞fX,Y (z, u− z) dz. (4.3)

En particular, cuando X y Y son independientes la formula (4.2) se reducea

fX+Y (u) =

∫ ∞

−∞fX(u− v)fY (v) dv.

Segunda demostracion. Se puede demostrar la proposicion anterior medianteel procedimiento usual de encontrar primero la funcion de distribucion deX+Y y despues derivar para encontrar la funcion de densidad. Por definicion

FX+Y (u) = P (X + Y ≤ u)

=

∫ ∫

x+y≤ufX,Y (x, y) dy dx

=

∫ ∞

−∞

∫ u−x

−∞fX,Y (x, y) dy dx.

119

Derivando respecto de u se obtiene

fX+Y (u) =

∫ ∞

−∞fX,Y (x, u− x) dx,

que corresponde a la expresion (4.3) equivalente a (4.2).

Definicion 36 La convolucion de dos funciones de densidad continuas f1 yf2, es una funcion denotada por f1 ∗ f2 y definida como sigue

(f1 ∗ f2)(x) =

∫ ∞

−∞f1(x− y)f2(y) dy.

En consecuencia, si X y Y son dos variables aleatorias continuas con cor-respondientes funciones de densidad f1(x) y f2(x) entonces la funcion dedensidad de X + Y es la convolucion (f1 ∗ f2)(x).

EJERCICIOS

376. Sea (X,Y ) un vector absolutamente continuo con funcion de densidadfX,Y (x, y). Demuestre que X + Y tiene funcion de densidad

fX+Y (u) =

∫ ∞

−∞fX,Y (u− v, v) dv.

377. Encuentre la funcion de densidad de X+Y para (X,Y ) un vector confuncion de densidad

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = e−x−y para x, y > 0.

c) f(x, y) = e−y para 0 < x < y.

d) fX,Y (x, y) = 8xy para 0 < x < y < 1.

e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1.

378. Encuentre la funcion de densidad de X + Y cuando X y Y son inde-pendientes y ambas con distribucion

a) unif(0, 1).

b) exp(λ).

379. Encuentre la funcion de densidad de X + Y cuando X y Y son inde-pendientes y ambas con densidad

a) f(x) = 2x para 0 < x < 1.

b) f(x) = 6x(1 − x) para 0 < x < 1.

120

c) f(x) = 12(1 + x) para −1 < x < 1.

380. Sea (X,Y, Z) un vector absolutamente continuo con funcion de densi-dad fX,Y,Z(x, y, z). Demuestre que X+Y +Z tiene funcion de densidad

fX+Y +Z(u) =

∫ ∞

−∞

∫ ∞

−∞fX,Y,Z(u− y − z, y, z) dydz.

381. Sea (X1, . . . , Xn) un vector aleatorio absolutamente continuo con fun-cion de densidad fX1,...,Xn

(x1, . . . , xn). Demuestre que Y = X1 + · · ·+Xn tiene funcion de densidad

fY (u) =

∫ ∞

−∞· · ·∫ ∞

−∞fX1,...,Xn

(u− v2 −· · ·− vn, v2, . . . , vn) dv2 · · · dvn.

382. Encuentre la funcion de densidad de X + Y cuando X y Y tienendistribucion conjunta uniforme en el cuadrado (−1, 1) × (−1, 1).

383. Encuentre la funcion de densidad deX+Y +Z cuandoX, Y y Z tienendistribucion conjunta uniforme en el cubo (−1, 1) × (−1, 1) × (−1, 1).

384. Encuentre la funcion de densidad de X1 + · · ·+Xn para (X1, . . . , Xn)un vector con distribucion uniforme en el hipercubo

(−1, 1) × · · · × (−1, 1)︸ ︷︷ ︸

n

.

385. Sean X y Y independientes con distribucion N(µ1, σ21) y N(µ2, σ

22) re-

spectivamente. Demuestre que X+Y tiene distribucion N(µ1+µ2, σ21+

σ22).

386. SeanX1, . . . , Xn independientes en dondeXi tiene distribucion N(µi, σ2i )

para i = 1, . . . , n. Sean c1, . . . , cn constantes dadas no todas cero. De-muestre que

n∑

i=1

ciXi ∼ N(n∑

i=1

ciµi,n∑

i=1

c2iσ2i ).

387. Sean X1, . . . , Xn independientes y con identica distribucion N(µ, σ2).Demuestre que

1

n

n∑

i=1

Xi ∼ N(µ, σ2/n).

388. Sean X y Y independientes ambas con distribucion exp(λ). Demuestreque X + Y tiene distribucion gama(λ, 2).

389. Sean X y Y independientes con distribucion gama(λ, n) y gama(λ,m)respectivamente. Demuestre que X+Y tiene distribucion gama(λ, n+m).

121

4.2.2. Distribucion de la resta

Se encontrara ahora una formula para la funcion de densidad de la diferenciade dos variables aleatorias.

Proposicion 43 Sea (X,Y ) un vector absolutamente continuo con funcionde densidad fX,Y (x, y). Entonces X − Y tiene funcion de densidad

fX−Y (u) =

∫ ∞

−∞fX,Y (u+ v, v) dv. (4.4)

Demostracion. Procedemos como en la seccion anterior. Sea φ : R2 → R2 latransformacion

φ(x, y) = (φ1(x, y), φ2(x, y))

= (x− y, y)

= (u, v)

con inversa

φ−1(u, v) = (φ−11 (u, v), φ−1

2 (u, v))

= (u+ v, v)

= (x, y).

El Jacobiano de la transformacion inversa es

J(u, v) =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

=

∣∣∣∣

1 10 1

∣∣∣∣= 1.

Por la formula (4.1),

fX−Y,Y (u, v) = fX,Y (u+ v, v).

Integrando respecto de v se obtiene (4.4).

Con el cambio de variable z(v) = u + v en (4.4) se obtiene la expresionequivalente

fX−Y (u) =

∫ ∞

−∞fX,Y (z, z − u) dz. (4.5)

Cuando X y Y son independientes la formula (4.4) se reduce a

fX−Y (u) =

∫ ∞

−∞fX(u+ v)fY (v) dv.

Segunda demostracion. Nuevamente se puede demostrar la proposicion an-terior mediante el procedimiento usual de encontrar primero la funcion de

122

distribucion y despues derivar para encontrar la funcion de densidad. Pordefinicion

FX−Y (u) = P (X − Y ≤ u)

=

∫ ∫

x−y≤ufX,Y (x, y) dy dx

=

∫ ∞

−∞

∫ ∞

x−ufX,Y (x, y) dy dx.

Derivando respecto de u se obtiene (4.5) equivalente a (4.4).

Tercera demostracion. A partir de la formula para la suma de dos vari-ables aleatorias se puede construir una tercera demostracion de (4.4). Porla formula para la suma,

fX−Y (u) = fX+(−Y )(u) =

∫ ∞

−∞fX,−Y (u− v, v) dv.

Haciendo el cambio de variable ν = −v se obtiene

fX−Y (u) =

∫ ∞

−∞fX,−Y (u+ ν,−ν) dν

=

∫ ∞

−∞fX,Y (u+ ν, ν) dν.

EJERCICIOS

390. Sea (X,Y ) un vector absolutamente continuo con funcion de densidadfX,Y (x, y). Demuestre que X − Y tiene funcion de densidad

fX−Y (u) =

∫ ∞

−∞fX,Y (u+ v, v) dv.

391. Encuentre la funcion de densidad de X−Y para (X,Y ) un vector confuncion de densidad conjunta

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = e−x−y para x, y > 0.

c) f(x, y) = e−y para 0 < x < y.

d) fX,Y (x, y) = 8xy para 0 < x < y < 1.

e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1.

392. Encuentre la funcion de densidad de X − Y cuando X y Y son inde-pendientes y ambas con distribucion

a) unif(0, 1).

123

b) exp(λ).

393. Encuentre la funcion de densidad de X − Y cuando X y Y son inde-pendientes y ambas con densidad

a) f(x) = 2x para 0 < x < 1.

b) f(x) = 6x(1 − x) para 0 < x < 1.

c) f(x) = 12(1 + x) para −1 < x < 1.

394. Sean X y Y independientes con distribucion unif(a− 1/2, a+ 1/2) endonde a es un parametro de valor real. Demuestre que

fX−Y (u) =

1 − |u| si − 1 < u < 1,0 otro caso.

395. Sean X y Y independientes con distribucion N(µ1, σ21) y N(µ2, σ

22) re-

spectivamente. Demuestre que X−Y tiene distribucion N(µ1−µ2, σ21+

σ22). Observe que las medias se restan y las varianzas se suman.

4.2.3. Distribucion del producto

Ahora se encontrara una formula para la funcion de densidad del productode dos variables aleatorias absolutamente continuas.

Proposicion 44 Sea (X,Y ) un vector continuo con funcion de densidadconjunta fX,Y (x, y). Entonces XY tiene funcion de densidad

fXY (u) =

∫ ∞

−∞fX,Y (u/v, v)

∣∣∣∣

1

v

∣∣∣∣dv. (4.6)

Demostracion. Se usa nuevamente la formula (4.1). Sea φ : R2 → R2 latransformacion

φ(x, y) = (φ1(x, y), φ2(x, y))

= (xy, y)

= (u, v).

La inversa de esta transformacion es, para v 6= 0,

φ−1(u, v) = (φ−11 (u, v), φ−1

2 (u, v))

= (u/v, v)

= (x, y).

124

El Jacobiano de la transformacion inversa es

|J(u, v)| =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

=

∣∣∣∣

1/v u/v2

0 1

∣∣∣∣=

1

v.

Por la formula (4.1), para v 6= 0,

fXY,Y (u, v) = fX,Y (u/v, v) |1v|.

Integrando respecto de v se obtiene (4.6).

Haciendo x(v) = u/v en (4.6) se obtiene la expresion equivalente

fXY (u) =

∫ ∞

−∞fX,Y (x, u/x) |1

x| dx. (4.7)

Cuando X y Y son independientes la formula (4.6) se reduce a

fXY (u) =

∫ ∞

−∞fX(u/v)fY (v) |1

v| dv.

Segunda demostracion. Usaremos el procedimiento usual de encontrar primerola funcion de distribucion de XY y despues derivar para encontrar la funcionde densidad. Por definicion

FXY (u) = P (XY ≤ u)

=

∫ ∫

xy≤ufX,Y (x, y) dy dx

=

∫ 0

−∞

∫ ∞

u/xfX,Y (x, y) dydx+

∫ ∞

0

∫ u/x

−∞fX,Y (x, y) dydx.

Derivando respecto de u,

fXY (u) =

∫ 0

−∞fX,Y (x, u/x)(−1/x) dydx+

∫ ∞

0fX,Y (x, u/x)(1/x) dydx.

=

∫ ∞

−∞fX,Y (x, u/x)|1/x| dx,

que corresponde a (4.7) equivalente a (4.6).

EJERCICIOS

396. Sea (X,Y ) un vector absolutamente continuo con funcion de densidadfX,Y (x, y). Demuestre que XY tiene funcion de densidad

fXY (u) =

∫ ∞

−∞fX,Y (u/v, v)

∣∣∣∣

1

v

∣∣∣∣dv

125

397. Encuentre la funcion de densidad de XY cuando X y Y son indepen-dientes ambas con distribucion

a) unif(0, 1).

b) exp(λ).

c) N(0, 1).

398. Encuentre la funcion de densidad de XY cuando X y Y tienen funcionde densidad conjunta

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = e−x−y para x, y > 0.

c) f(x, y) = e−y para 0 < x < y.

d) fX,Y (x, y) = 8xy para 0 < x < y < 1.

e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1.

399. Encuentre la funcion de densidad de XY cuando X y Y son indepen-dientes y ambas con densidad

a) f(x) = 2x para 0 < x < 1.

b) f(x) = 6x(1 − x) para 0 < x < 1.

c) f(x) = 12(1 + x) para −1 < x < 1.

4.2.4. Distribucion del cociente

Finalmente se encontrara una formula para el cociente de dos variablesaleatorias absolutamente continuas.

Proposicion 45 Sea (X,Y ) un vector continuo con funcion de densidadconjunta fX,Y (x, y) y tal que Y 6= 0. Entonces X/Y tiene funcion de densi-dad

fX/Y (u) =

∫ ∞

−∞fX,Y (uv, v) |v| dv. (4.8)

Demostracion. Procederemos como en las secciones anteriores. Sea φ : R2 →R2 la transformacion

φ(x, y) = (φ1(x, y), φ2(x, y))

= (x/y, y)

= (u, v)

126

para y 6= 0 y con inversa

φ−1(u, v) = (φ−11 (u, v), φ−1

2 (u, v))

= (uv, v)

= (x, y).

El Jacobiano de la transformacion inversa es

|J(u, v)| =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

=

∣∣∣∣

v u0 1

∣∣∣∣= v.

Por la formula (4.1)

fX/Y,Y (u, v) = fX,Y (uv, v) |v|.

De donde se obtiene (4.8).

Haciendo x(v) = uv en (4.8) se obtiene la expresion equivalente

fX/Y (u) =

∫ ∞

−∞fX,Y (x, x/u) |x/u2| dx. (4.9)

Observe nuevamente que cuando X y Y son independientes el integrando enla formula (4.8) se escribe como el producto de las densidades marginales.

Segunda demostracion. Ahora usaremos el procedimiento usual de encon-trar primero la funcion de distribucion y despues derivar para encontrar lafuncion de densidad.

FX/Y (u) = P (X/Y ≤ u)

=

∫ ∫

x/y≤ufX,Y (x, y) dy dx

=

∫ 0

−∞

∫ x/u

−∞fX,Y (x, y) dydx+

∫ ∞

0

∫ ∞

x/ufX,Y (x, y) dydx.

Derivando respecto de u,

fX/Y (u) =

∫ 0

−∞fX,Y (x, x/u)(−x/u2) dx+

∫ ∞

0fX,Y (x, x/u)(x/u2) dx

=

∫ ∞

−∞fX,Y (x, x/u)|x/u2| dx,

que corresponde a (4.9) equivalente a (4.8).

Tercera demostracion. A partir de la formula para el producto de dos vari-ables aleatorias se puede construir una tercera demostracion de (4.8) de laforma siguiente.

fX/Y (u) = fX·(1/Y )(u) =

∫ ∞

−∞fX,1/Y (u/v, v)

∣∣∣∣

1

v

∣∣∣∣dv.

127

Haciendo el cambio de variable x = 1/v se obtiene

fX/Y (u) =

∫ ∞

−∞fX,1/Y (ux, 1/x)|x| dx

=

∫ ∞

−∞fX,Y (ux, x)|x| dx.

EJERCICIOS

400. Sea (X,Y ) un vector absolutamente continuo con funcion de densi-dad fX,Y (x, y) tal que Y 6= 0. Demuestre que X/Y tiene funcion dedensidad

fX/Y (u) =

∫ ∞

−∞fX,Y (uv, v) |v| dv

401. Encuentre la funcion de densidad de X/Y para (X,Y ) un vector confuncion de densidad conjunta

a) f(x, y) =1

abpara 0 < x < a, 0 < y < b.

b) f(x, y) = e−x−y para x, y > 0.

c) f(x, y) = e−y para 0 < x < y.

d) f(x, y) = 8xy para 0 < x < y < 1.

e) f(x, y) = 4x(1 − y) para 0 < x, y < 1.

f ) f(x, y) = 2e−x−y para 0 < x < y.

402. Encuentre la funcion de densidad de X/Y cuando X y Y son indepen-dientes y ambas con distribucion

a) exp(λ).

b) unif(0, 1).

403. Encuentre la funcion de densidad de X/Y cuando X y Y son indepen-dientes y ambas con densidad

a) f(x) = 2x para 0 < x < 1.

b) f(x) = 6x(1 − x) para 0 < x < 1.

c) f(x) = 12(1 + x) para −1 < x < 1.

404. Sean X y Y independientes con distribucion exp(λ). Encuentre la fun-cion de densidad de

a) X/(X + Y ).

b) Y/(X + Y ).

405. Sean X y Y independientes ambas con distribucion normal estandar.Demuestre que la variable aleatoria Y/X tiene distribucion Cauchy.

128

Las formulas encontradas se resumen en la siguiente tabla.

Formulas para la suma, diferencia, producto y cociente de dos v.a.s

1. fX+Y (u) =

∫ ∞

−∞fX,Y (u− v, v) dv

2. fX−Y (u) =

∫ ∞

−∞fX,Y (u+ v, v) dv

3. fXY (u) =

∫ ∞

−∞fX,Y (u/v, v)

∣∣∣∣

1

v

∣∣∣∣dv

4. fX/Y (u) =

∫ ∞

−∞fX,Y (uv, v) |v| dv

129

Capıtulo 5

Distribuciones muestrales yestadısticas de orden

Se estudian ahora algunas distribuciones de probabilidad que surgen en laestadıstica y otras areas de aplicacion de la probabilidad.

Primeramente se define una “muestra aleatoria” como una coleccion de vari-ables aleatoriasX1, . . . , Xn que cumplen la condicion de ser independientes yde tener cada una de ellas la misma distribucion de probabilidad. Al numeron se le llama tamano de la muestra aleatoria. A menudo se escribe m.a. paraabreviar el termino “muestra aleatoria” y se usan las siglas v.a.i.i.d. paradenotar el termino “variables aleatorias independientes e identicamente dis-tribuidas”. Por lo tanto una m.a. es una coleccion de v.a.i.i.d.

Se define tambien una “estadıstica” como una variable aleatoria de la formag(X1, . . . , Xn) en donde X1, . . . , Xn es una m.a. y g es una funcion de Rn enR que es Borel medible. Por ejemplo la “media muestral” es una estadısticadenotada por X y definida como sigue

X =1

n

n∑

i=1

Xi.

Observe que X es una combinacion lineal de los elementos de la m.a. y porlo tanto es una v.a. Otro ejemplo importante de estadıstica es la “varianzamuestral”, denotada por S2 y definida como sigue

S2 =1

n− 1

n∑

i=1

(Xi − X)2.

Observe que en el denominador aparece el termino n − 1. La media y lavarianza muestrales tienen la caracterıstica de ser estimadores insesgadospara la media y la varianza respectivamente de una distribucion cualquiera.

En particular, cuando la muestra aleatoria proviene de una distribucionnormal resulta que la media y la varianza muestrales son variables aleatorias

130

independientes. Utilizaremos este interesante e inesperado resultado masadelante y cuya demostracion puede encontrarse en [13].

Proposicion 46 Sea X1, . . . Xn una m.a. de la distribucion N(µ, σ2). En-tonces las estadısticas X y S2 son independientes.

Este resultado no es valido para cualquier distribucion de probabilidad, porejemplo no es difıcil verificar lo contrario para una muestra aleatoria de ladistribucion Ber(p).

En la siguiente eseccion se estudian algunas distribuciones de probabilidadestrechamente relacionadas con la media y la varianza muestral.

EJERCICIOS

406. Sea X1, . . . , Xn una m.a. tomada de una distribucion con media µ yvarianza σ2. Demuestre que

a) E(X) = µ.

b) E(S2) = σ2.

Estos resultados son de importancia en estadıstica y muestran que Xy S2 son estimadores insesgados de los parametros µ y σ2 respectiva-mente.

407. Sea X1, . . . , Xn una m.a. tomada de una distribucion con media µ yvarianza σ2. Demuestre que

a) Var(X) = σ2/n.

408. Sea X1, . . . Xn una m.a. de la distribucion Ber(p). Demuestre que lasestadısticas X y S2 no son independientes.

5.1. Distribuciones muestrales

Estudiamos a continuacion algunas distribuciones de probabilidad que sur-gen en la estadıstica al considerar funciones de una muestra aleatoria.

Distribucion ji-cuadrada. Se dice queX tiene una distribucion ji-cuadradacon n > 0 grados de libertad si su funcion de densidad es, para x > 0,

f(x) =1

Γ(n/2)

(1

2

)n/2

xn/2−1e−x/2.

En este caso se escribe X ∼ χ2(n). En la figura 5.1 puede apreciarse elcomportamiento de la funcion de densidad de esta distribucion para varios

131

valores del parametro n. Se puede demostrar que

E(X) = n

Var(X) = 2n.

1 2 3 4 5 6 7 8 9x

1

2

fHxL

Figura 5.1: Funcion de densidad de la distribucion χ2(n) para n = 1, 2, 3, 4 de arribahacia abajo sobre el eje vertical.

Observe que la distribucion χ2(n) con n = 2 se reduce a la distribucionexp(λ) con λ = 1/2. La distribucion ji-cuadrada puede encontrarse comoindica el siguiente resultado.

Proposicion 47 Si X ∼ N(0, 1) entonces X2 ∼ χ2(1).

Demostracion. Para x > 0,

FX2(x) = P (X2 ≤ x)

= P (−√x ≤ X ≤ √

x)

= FX(√x) − FX(−√

x).

Derivando

fX2(x) = fX(√x)

1

2√x

+ fX(−√x)

1

2√x

= fX(√x)

1√x

=1√2πe−x/2 1√

x

=1

Γ(1/2)

(1

2

)1/2

x1/2−1e−x/2

correspondiente a la densidad χ2(1).

La suma de dos o mas variables aleatorias independientes con distribucionji-cuadrada es nuevamente una variable aleatoria ji-cuadrada y sus grados de

132

libertad son la suma de los grados de libertad de cada uno de los sumandos.Este es el contenido de la siguiente proposicion.

Proposicion 48 Sean X1, . . . , Xm independientes tales que Xi ∼ χ2(ni),para i = 1, . . . ,m. Entonces

n∑

i=1

Xi ∼ χ2(n1 + · · · + nm).

Demostracion. Es suficiente demostrar el resultado para el caso de dos vari-ables aleatorias. SeanX y Y independientes con distribucion ji-cuadrada congrados de libertad n y m respectivamente. Este ligero cambio en la notacionnos evitara el uso de subındices. Por la formula (4.2), para u > 0,

fX+Y (u) =

∫ u

0fX(u− v)fY (v) dv

=

∫ u

0

1

Γ(n/2)

(1

2

)n/2

(u− v)n/2−1e−(u−v)/2

1

Γ(m/2)

(1

2

)m/2

vm/2−1e−v/2 dv

=1

Γ(n/2)Γ(m/2)

(1

2

)(n+m)/2

e−u/2

∫ u

0(u− v)n/2−1vm/2−1 dv.

Haciendo el cambio de variable w(v) = v/u en la integral se obtiene

fX+Y (u) =1

Γ(n/2)Γ(m/2)

(1

2

)(n+m)/2

e−u/2u(n+m)/2−1

∫ 1

0(1 − w)n/2−1wm/2−1 dw.

La integral resultante es B(n/2,m/2). Entonces

fX+Y (u) =B(n/2,m/2)

Γ(n/2)Γ(m/2)

(1

2

)(n+m)/2

e−u/2u(n+m)/2−1

=1

Γ((n+m)/2)

(1

2

)(n+m)/2

e−u/2u(n+m)/2−1.

Esta ultima expresion es la funcion de densidad de la distribucion χ2(n+m).

El resultado anterior puede demostrarse de una manera mas simple y ele-gante usando la funcion generadora de momentos o la funcion caracterıstica,presentadas en el siguiente capıtulo.

133

Proposicion 49 Sean X1, . . . , Xn independientes con distribucion N(µ, σ2).Entonces

n∑

i=1

(Xi − µ)2

σ2∼ χ2(n).

Demostracion. Esto es una consecuencia sencilla de las dos proposicionesanteriores. Como cada Xi tiene distribucion N(µ, σ2) para i = 1, . . . , n,entonces (Xi − µ)/σ tiene distribucion N(0, 1). Por lo tanto

(Xi − µ)2

σ2∼ χ2(1).

En consecuencian∑

i=1

(Xi − µ)2

σ2∼ χ2(n).

Enunciamos el siguiente resultado cuya demostracion se pide realizar enel ejercicio 517 de la pagina 170, una vez que contemos con la poderosaherramienta de las funciones generadoras de momentos.

Proposicion 50 Sean X y Y independientes tales que X tiene distribucionχ2(n) y X + Y tiene distribucion χ2(m). Suponga m > n. Entonces Y tienedistribucion χ2(m− n).

Con ayuda de esta proposicion se demuestra ahora el siguiente resultado departicular importancia en estadıstica.

Proposicion 51 Sean X1, . . . , Xn independientes con distribucion N(µ, σ2).Entonces

n− 1

σ2S2 ∼ χ2(n− 1).

Demostracion.n∑

i=1

(Xi − µ)2 =n∑

i=1

[(Xi − X) + (X − µ)]2

=n∑

i=1

(Xi − X)2 + n(X − µ)2.

Diviendo entre σ2

n∑

i=1

(Xi − µ)2

σ2=n− 1

σ2S2 +

(X − µ

σ/√n

)2

.

134

El termino del lado izquierdo tiene distribucion χ2(n) mientras que el segun-do sumando del lado derecho tiene distribucion χ2(1). Por la Proposicion 50y recordando que X y S2 son independientes, se concluye que el primersumando del lado derecho tiene distribucion χ2(n− 1).

EJERCICIOS

409. Demuestre que la funcion de densidad de la distribucion χ2(n) efecti-vamente lo es.

410. Demuestre que la distribucion χ2(n) con n = 2 se reduce a la distribu-cion exp(λ) con λ = 1/2.

411. Demuestre que la distribucion gama(n/2, λ) con λ = 1/2 se reduce ala distribucion χ2(n).

412. Sea X con distribucion χ2(n). Demuestre que

a) E(X) = n.

b) E(Xm) = 2m Γ(m+ n/2)

Γ(n/2)para m = 1, 2, . . .

c) Var(X) = 2n.

413. Demuestre que si X ∼ N(0, 1) entonces X2 ∼ χ2(1).

414. Sean X1, . . . , Xn independientes con distribucion N(µ, σ2). Demuestreque

(X − µ)2

σ2/n∼ χ2(1).

415. Demuestre que siX1, . . . , Xm son independientes tales queXi ∼ χ2(ni)para i = 1, . . . ,m entonces

m∑

i=1

Xi ∼ χ2(n1 + · · · + nm).

416. Sean X1, . . . , Xn independientes con distribucion N(0, 1). Demuestreque

n∑

i=1

X2i ∼ χ2(n).

417. Sean X1, . . . , Xn independientes tales que cada Xi tiene distribucionN(µi, σ

2i ) para i = 1, . . . , n. Demuestre que

n∑

i=1

(Xi − µi)2

σ2i

∼ χ2(n).

135

418. Sean X1, . . . , Xn independientes con distribucion N(µ, σ2). Demuestreque

(n− 1)

σ2S2 ∼ χ2(n− 1),

419. Sean X y Y independientes ambas con distribucion normal estandar.Sean R =

√X2 + Y 2 y θ = tan−1(Y/X). Demuestre que

a) R2 tiene distribucion χ2(n) con n = 2 grados de libertad.

b) tan θ tiene distribucion Cauchy.

c) R y θ son independientes.

Distribucion t. La variable aleatoria X tiene una distribucion t de Studentcon n > 0 grados de libertad si su funcion de densidad esta dada por

f(x) =Γ((n+ 1)/2)√nπ Γ(n/2)

(1 + x2/n)−(n+1)/2 para −∞ < x <∞.

En este caso se escribe X ∼ t(n). Esta distribucion aparecio por primera vezen 1908 en un trabajo publicado por William Gosset bajo el el seudonimo de”Student”. En la figura 5.2 puede apreciarse el comportamiento de la funcionde densidad de la distribucion t(n) para varios valores del parametro n. Sepuede demostrar que

E(X) = 0,

y Var(X) =n

n− 2para n > 2.

-2 -1 1 2x

1

2

fHxL

Figura 5.2: Funcion de densidad de la distribucion t(n) para n = 1, 2, 3, 4 de abajo haciaarriba.

La primera igualdad establece entonces que la distribucion t(n) se encuentrasiempre centrada en cero para cualquier valor del parametro n. Se muestrana continuacion algunas formas en las que surge esta distribucion.

136

Proposicion 52 Sean X ∼ N(0, 1) y Y ∼ χ2(n) independientes. Entonces

X√

Y/n∼ t(n).

Demostracion. Por independencia, la funcion de densidad conjunta de X yY es, para y > 0,

fX,Y (x, y) =1√2πe−x2/2 · 1

Γ(n/2)

(1

2

)n/2

yn/2−1e−y/2.

Se aplica la formula (4.1) para la transformacion

φ(x, y) = (x, x/√

y/n)

con inversaφ−1(s, t) = (s, ns2/t2).

El Jacobiano de la transformacion inversa es

J(s, t) =

∣∣∣∣

∂x/∂s ∂x/∂t∂y/∂s ∂y/∂t

∣∣∣∣

=

∣∣∣∣

1 02sn/t2 −2ns2/t3

∣∣∣∣

= −2ns2/t3.

Por lo tanto

fS,T (s, t) = fX(s)fY (ns2/t2) · 2ns2/t3

=1√2πe−s2/2 · 1

Γ(n/2)

(1

2

)n/2 nn/2−1sn−2

tn−2e−ns2/2t2 · 2ns2/t3.

Integrando respecto de s,

fT (t) =1√2π

nn/2

2n/2−1Γ(n/2)tn+1

∫ ∞

0sne

−s2

12+ n

2t2

ds.

Ahora efectuamos el cambio de variable r(s) = s2(

12 + n

2t2

), de donde obten-

emos dr = 2s(

12 + n

2t2

)ds, y entonces

fT (t) =1√2π

nn/2

2n/2−1Γ(n/2)tn+12(

12 + n

2t2

)(n+1)/2

∫ ∞

0r(n−1)/2e−r dr

=Γ((n+ 1)/2)√nπ Γ(n/2)

1

(1 + t2/n)(n+1)/2,

correspondiente a la funcion de densidad de la distribucion t(n).

El siguiente resultado es de particular importancia en estadıstica para efectu-ar estimaciones del parametro µ de una poblacion normal cuando la varianzaσ2 es desconocida.

137

Proposicion 53 Sea X1, . . . , Xn una m.a. de una distribucion N(µ, σ2).Entonces

X − µ

S/√n

∼ t(n− 1).

Demostracion. Use la Proposicion 52 aplicada a las variables aleatorias in-dependientes

X − µ

σ/√n

∼ N(0, 1)

yn− 1

σ2S2 ∼ χ2(n− 1).

EJERCICIOS

420. Demuestre que la funcion de densidad de una distribucion t(n) efecti-vamente lo es.

421. Sea X con distribucion t(n). Demuestre que

a) E(X) = 0.

b) Var(X) =n

n− 2para n > 2.

422. Demuestre que la distribucion t(n+1) tiene momentos finitos de ordenmenor o igual a n pero ningun otro momento de orden superior.

423. Sean X ∼ N(0, 1) y Y ∼ χ2(n) independientes. Demuestre que

X√

Y/n∼ t(n).

424. Sea X1, . . . , Xn una m.a. de una poblacion N(µ, σ2). Demuestre que

X − µ

S/√n

∼ t(n− 1).

Distribucion F. La variable aleatoriaX tiene una distribucion F de Snedecorcon parametros n > 0 y m > 0 si su funcion de densidad es, para x > 0,

f(x) =Γ((n+m)/2)

Γ(n/2) Γ(m/2)

( n

m

)n/2xn/2−1

(

1 +n

mx)−(n+m)/2

.

138

1 2 3 4x

3

4

fHxL

1 2 3 4x

3

4

fHxL

(a) (b)

Figura 5.3: Funcion de densidad de la distribucion F(n, m) para (a) n = 1, 10, 100 ym = 5 de abajo hacia arriba sobre el eje vertical en x = 1, y (b) n = 5 y m = 1, 5, 50 deabajo hacia arriba sobre el eje vertical en x = 1.

Se escribe X ∼ F(n,m). En la figura 5.3 se muestra el comportamiento dela funcion de densidad de la distribucion F(n,m) para varios valores de losparametros n y m. Puede demostrarse que

E(X) =m

m− 2para m > 2,

Var(X) =2m2(m+ n− 2)

n(m− 2)2(m− 4)para m > 4.

Los siguientes resultados indican la forma de obtener la distribucion F .

Proposicion 54 Sean X ∼ χ2(n) y Y ∼ χ2(m) independientes. Entonces

X/n

Y/m∼ F(n,m).

Demostracion. Aplique la formula (4.8) para la funcion de densidad delcociente de dos variables aleatorias.

Proposicion 55 Si X ∼ t(n) entonces X2 ∼ F(1, n).

Demostracion. Aplique la formula

fX2(x) = fX(√x)

1

2√x

+ fX(−√x)

1

2√x.

139

EJERCICIOS

425. Demuestre que la funcion de densidad de la distribucion F(n,m) efec-tivamente lo es.

426. Sea X con distribucion F(n,m). Demuestre que

a) E(X) =m

m− 2para m > 2.

b) Var(X) =2m2(m+ n− 2)

n(m− 2)2(m− 4)para m > 4 .

427. Sea X con distribucion F(n,m). Demuestre que Y = 1/X tiene dis-tribucion F(m,n). Observe el cambio en el orden de los parametros.Este resultado es util para obtener valores de F que no aparecen entablas.

428. Sea X con distribucion F(n,m). Demuestre que cuando m tiende ainfinito la funcion de densidad de nX converge puntualmente a lafuncion de densidad de la distribucion χ2(n).

429. Sean X ∼ χ2(n) y Y ∼ χ2(m) independientes. Demuestre que

X/n

Y/m∼ F(n,m).

430. Demuestre que si X ∼ t(n) entonces X2 ∼ F(1, n).

5.2. Estadısticas de orden

Dada una muestra aleatoria X1, . . . , Xn, podemos evaluar cada una de estasvariables en un punto muestral ω cualquiera y obtener una coleccion denumeros reales X1(ω), . . . , Xn(ω). Estos numeros pueden ser ordenados demenor a mayor incluyendo repeticiones. Si X(i)(ω) denota el i-esimo numeroordenado, tenemos entonces la coleccion no decreciente de numeros reales

X(1)(ω) ≤ · · · ≤ X(n)(ω).

Ahora hacemos variar el argumento ω y lo que se obtiene son las ası llamadasestadısticas de orden. Este proceso de ordenamiento resulta ser de impor-tancia en algunas aplicaciones. Tenemos entonces la siguiente definicion.

140

Definicion 37 Sea X1, . . . , Xn una muestra aleatoria. A las variablesaleatorias ordenadas

X(1) = mınX1, . . . , Xn...

X(n) = maxX1, . . . , Xn

se les conoce con el nombre de “estadısticas de orden” A X(1) se le llamaprimera estadıstica de orden, a X(2) se le llama segunda estadıstica de orden,etc. A X(i) se le llama i-esima estadıstica de orden, i = 1, . . . , n.

Nuestro objetivo en esta seccion es encontrar algunas formulas relacionadascon las distribuciones de probabilidad de las estadısticas de orden cuandose conoce la distribucion de cada variable de la muestra aleatoria.

5.2.1. Distribuciones individuales

Comenzamos encontrando la distribucion de la primera y de la ultima es-tadıstica de orden de manera individual.

Proposicion 56 Sea X1, . . . , Xn una m.a. de una distribucion continua confuncion de densidad f(x) y funcion de distribucion F (x). Entonces

1. fX(1)(x) = nf(x) [1 − F (x)]n−1.

2. fX(n)(x) = nf(x) [F (x)]n−1.

Demostracion. Para verificar (1) se calcula primero la funcion de distribucion

FX(1)(x) = P (X(1) ≤ x)

= P (mınX1, . . . , Xn ≤ x)

= 1 − P (mınX1, . . . , Xn > x)

= 1 − P (X1 > x, . . . ,Xn > x)

= 1 − [P (X1 > x)]n

= 1 − [1 − F (x)]n .

DerivandofX(1)

(x) = nf(x) [1 − F (x)]n−1 .

Para demostrar (2) se procede de manera analoga,

FX(n)(x) = P (X(n) ≤ x)

141

= P (maxX1, . . . , Xn ≤ x)

= P (X1 ≤ x, . . . ,Xn ≤ x)

= [P (X1 ≤ x)]n

= [F (x)]n .

Por lo tantofX(n)

(x) = nf(x) [F (x)]n−1 .

Ahora presentamos el resultado general de la funcion de densidad de la i-esima estadıstica de orden.

Proposicion 57 Sea X1, . . . , Xn una m.a. de una distribucion continua confuncion de densidad f(x) y funcion de distribucion F (x). Entonces

fX(i)(x) =

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i.

Demostracion. Sea Yi la variable aleatoria dada por

Yi = 1(−∞,x](Xi) =

1 si Xi ≤ x,0 si Xi > x,

en donde Xi es el i-esimo elemento de la muestra aleatoria. Las variablesY1, . . . , Yn son independientes y cada una de ellas puede considerarse unensayo Bernoulli con probabilidad de exito, es decir tomar el valor 1, iguala P (Xi ≤ x) = F (x). Entonces la suma Y1 + · · ·+Yn corresponde al numerode v.a.s Xi que cumplen la condicion Xi ≤ x y por lo tanto esta suma tienedistribucion bin(n, p) con p = F (x). Entonces

FX(i)(x) = P (X(i) ≤ x)

= P (Y1 + · · · + Yn ≥ i)

=n∑

j=i

(nj

)

[F (x)]j [1 − F (x)]n−j .

Derivando y despues simplificando,

fX(i)(x) =

n∑

j=i

(nj

)

f(x)[F (x)]j−1[1 − F (x)]n−j−1[j − nF (x)]

=n∑

j=i

(nj

)

f(x)[F (x)]j−1[1 − F (x)]n−j−1[j(1 − F (x)) − (n− j)F (x)]

=

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i.

142

Observe que la formula recien demostrada se reduce a las que aparecen en laProposicion 56 cuando i = 1 e i = n. Ahora presentamos una demostracioncorta e intuitiva del mismo resultado.

Segunda demostracion. Sea h > 0 arbitrario y considere los siguientes tresintervalos ajenos (−∞, x], (x, x + h] y (x + h,∞). La probabilidad de quei− 1 variables de la muestra tomen un valor en el intervalo (−∞, x], una deellas en (x, x+h] y el resto n−i en (x+h,∞) es, de acuerdo a la distribucionmultinomial,

n!

(i− 1)! 1! (n− i)![F (x)]i−1[F (x+ h) − F (x)][1 − F (x+ h)]n−i.

Haciendo h tender a cero se obtiene

fX(i)(x) =

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i.

Sea X1, . . . , Xn una m.a. A la variable aleatoria R = X(n)−X(1) se le conocecomo el “rango” de la muestra. El siguiente resultado provee de una formulapara la funcion de densidad de R.

Proposicion 58 Sea X1, . . . , Xn una m.a. tomada de una distribucion con-tinua con funcion de densidad f(x) y funcion de distribucion F (x). Entoncespara r > 0,

fR(r) = n(n− 1)

∫ ∞

−∞f(y)f(y − r)[F (y) − F (y − r)]n−2 dy.

Demostracion. Se calcula primero la distribucion conjunta FX(1),X(n)(x, y).

Para x ≤ y,

FX(1),X(n)(x, y) = P (X(1) ≤ x,X(n) ≤ y)

= P (X(n) ≤ y) − P (X(n) ≤ y,X(1) > x)

= [F (y)]n − P (x < X1 ≤ y, . . . , x < Xn ≤ y)

= [F (y)]n − [F (y) − F (x)]n.

Por lo tanto,

fX(n),X(1)(x, y) = − ∂2

∂x∂y[F (y) − F (x)]n

= n(n− 1)f(y)f(x)[F (y) − F (x)]n−2.

143

Ahora se usa la formula (4.4) para la diferencia de dos variables aleatorias.Para r > 0 y n ≥ 2,

fX(n)−X(1)(r) = n(n− 1)

∫ ∞

−∞f(y)f(y − r)[F (y) − F (y − r)]n−2 dy.

EJERCICIOS

431. Sea X1, . . . , Xn una m.a. tomada de una distribucion continua F (x)con funcion de densidad f(x). Demuestre nuevamente que

a) fX(1)(x) = nf(x) [1 − F (x)]n−1.

b) fX(n)(x) = nf(x) [F (x)]n−1.

432. Demuestre que las funciones fX(1)(x) y fX(n)

(x) del ejercicio anteriorson efectivamente funciones de densidad.

433. Sea X1, . . . , Xn una m.a. de una distribucion continua F (x) con fun-cion de densidad f(x). Demuestre nuevamente que

fX(i)(x) =

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i

y compruebe que esta es efectivamente una funcion de densidad.

434. Compruebe que la formula de la Proposicion 57 se reduce a la formulas(1) y (2) de la Proposicion 56 cuando i = 1 e i = n respectivamente.

435. Sea X1, . . . , Xn una m.a. de una distribucion unif(0, 1). Demuestreque la i-esima estadıstica de orden tiene distribucion beta(i, n+1− i).Encuentre por lo tanto su esperanza y varianza.

436. Sea X1, . . . , Xn una m.a. de una distribucion exp(λ). Encuentre lafuncion de densidad de la i-esima estadıstica de orden.

437. Sean X(1), X(2) las estadısticas de orden de una m.a. de tamano dosde una distribucion N(µ, σ2). Demuestre que E[X(1)] = µ− σ/

√π.

438. Sean X(1), X(2) las estadısticas de orden de una m.a. de tamano dosde una distribucion N(µ, σ2). Calcule E[X(2)].

439. Sea X1, . . . , Xn una m.a. de una distribucion F (x). Sea x un numeroreal cualquiera y para i = 1, . . . , n defina

Yi = 1(−∞,x](Xi).

Demuestre que Y1, . . . , Yn son independientes cada una de ellas condistribucion Ber(n, p) con p = F (x). Este hecho fue utilizado en elprocedimiento para encontrar la funcion de densidad de la i-esimaestadıstica de orden en la Proposicion 57.

144

440. Sean X1 y X2 absolutamente continuas e independientes y defina Y =maxX1, X2. Demuestre que

a) FY (y) = FX1(y)FX2(y).

b) fY (y) = FX1(y)fX2(y) + fX1(y)FX2(y).

c) fY (y) = 2FX(y)fX(y) cuando X1 y X2 tienen la misma distribu-cion.

441. Use el ejercicio anterior para encontrar la funcion de densidad deY = maxX1, X2 cuando X1 y X2 son independientes cada una condistribucion

a) unif(0, 1).

b) exp(λ).

442. Sean X1 y X2 absolutamente continuas e independientes. Defina Y =mınX1, X2. Demuestre que

a) FY (y) = 1 − [1 − FX1(y)][1 − FX2(y)].

b) fY (y) = [1 − FX1(y)]fX2(y) + fX1(y)[1 − FX2(y)].

c) fY (y) = 2[1 − FX(y)]f(y) cuando X1 y X2 tienen la misma dis-tribucion.

443. Use el ejercicio anterior para encontrar la funcion de densidad deY = mınX1, X2 cuando X1 y X2 son independientes cada una condistribucion

a) unif(0, 1).

b) exp(λ).

444. Sea X1, . . . , Xn una m.a. de una distribucion continua F (x) con fun-cion de densidad f(x). Sea R = X(n) − X(1) el rango de la muestra.Demuestre que para r > 0 y n ≥ 2,

fR(r) = n(n− 1)

∫ ∞

−∞f(y)f(y − r)[F (y) − F (y − r)]n−2 dy.

445. Se escogen n puntos al azar del intervalo unitario (0, 1). Demuestre quela funcion de densidad de la distancia maxima R entre cualesquierados puntos es

fR(r) =

n(n− 1)rn−2(1 − r) si 0 < r < 1,0 otro caso.

5.2.2. Distribucion conjunta

Ahora presentamos dos resultados acerca de la distribucion conjunta de lasestadısticas de orden. El primer resultado es acerca de la distribucion con-junta de todas ellas y despues consideraremos la distribucion de cualesquierados.

145

Proposicion 59 Sea X1, . . . , Xn una m.a. de una distribucion continua confuncion de densidad f(x). Para x1 < · · · < xn,

fX(1),...,X(n)(x1, . . . , xn) = n!f(x1) · · · f(xn).

Demostracion. Se considera la funcion de distribucion conjunta de todas lasestadısticas de orden y despues se deriva n veces para encontrar la funcionde densidad. Para x1 < x2 < · · · < xn,

FX(1),...,X(n)(x1, . . . , xn) = P (X(1) ≤ x1, X(2) ≤ x2, . . . , X(n) ≤ xn).

Como (X(2) ≤ x2) = (x1 < X(2) ≤ x2) ∪ (X(2) ≤ x1) se obtiene la expresion

FX(1),...,X(n)(x1, . . . , xn) = P (X(1) ≤ x1, x1 < X(2) ≤ x2, . . . , X(n) ≤ xn)

+ PX(1) ≤ x1, X(2) ≤ x1, . . . , X(n) ≤ xn).

Observe que el segundo sumando no depende de x2 asi que al tomar la deriva-da respecto de esta variable, este termino desaparece. De manera analogaprocedemos con los eventos (X(3) ≤ x3) hasta (X(n) ≤ xn). Al final se ob-tiene

fX(1),...,X(n)(x1, . . . , xn)

=∂n

∂x1 · · · ∂xnP (X(1) ≤ x1, x1 < X(2) ≤ x2, . . . , xn−1 < Xn ≤ xn).

Como ahora los intervalos involucrados son disjuntos, la distribucion multi-nomial asegura que

P (X(1) ≤ x1, x1 < X(2) ≤ x2, . . . , xn−1 < Xn ≤ xn)

= n! P (X1 ≤ x1, x1 < X2 ≤ x2, . . . , xn−1 < Xn ≤ xn)

= n! F (x1)[F (x2) − F (x1)] · · · [F (xn) − F (xn−1)],

en donde la ultima igualdad se sigue de la independencia e identica distribu-cion de las variables de la muestra. Ahora solo resta derivar para encontrarel resultado.

La siguiente es una prueba corta pero no formal del mismo resultado.

Segunda demostracion. Sea x1 < x2 < · · · < xn y h > 0 suficientementepequeno tal que los intervalos (x1, x1 + h], (x2, x2 + h], . . . , (xn, xn + h] sonajenos. La probabilidad de que las variables aleatorias tomen valores ca-da una de ellas en uno y solo uno de estos intervalos es, de acuerdo a ladistribucion multinomial,

n!

1! · · · 1![F (x1 + h) − F (x1)] · · · [F (xn + h) − F (xn)].

Haciendo h tender a cero se obtiene

fX(1),...,X(n)(x1, . . . , xn) = n!f(x1) · · · f(xn).

146

Ahora nos interesa encontrar una formula para la densidad conjunta decualesquiera dos estadısticas de orden.

Proposicion 60 Sea X1, . . . , Xn una m.a. de una distribucion continua confuncion de distribucion F (x) y funcion de densidad f(x). Sea i < j. Parax < y,

fX(i),X(j)(x, y) =

(n

i, j − i, n− j

)

i(j − i) f(x)f(y)

[F (x)]i−1[F (y) − F (x)]j−i−1[1 − F (y)]n−j .

Demostracion intuitiva. Para x < y considere los intervalos ajenos (−∞, x],(x, x + h], (x + h, y], (y, y + h] y (y + h,∞) para h > 0 suficientementepequena. La probabilidad de que i − 1 variables de la muestra tomen unvalor en (−∞, x], una de ellas en (x, x+ h], j − i+ 1 variables en (x+ h, y],otra en (y, y + h] y el resto n− j variables tomen un valor en (y + h,∞) es,de acuerdo a la distribucion multinomial,

n!

(i− 1)! 1! (j − i− 1)! 1! (n− j)![F (x+ h) − F (x)][F (y) − F (x+ h)]j−i−1

[F (x)]i−1[F (y + h) − F (y)][1 − F (y + h)]n−j .

Haciendo h tender a cero se obtiene la formula anunciada.

EJERCICIOS

446. Sea X1, . . . , Xn una m.a. de una distribucion continua con funcion dedensidad f(x). Demuestre nuevamente que para x1 < x2 < · · · < xn,

fX(1),...,X(n)(x1, . . . , xn) = n!f(x1) · · · f(xn)

y compruebe que esta es efectivamente una funcion de densidad.

447. A partir de la formula para fX(1),...,X(n)(x1, . . . , xn) calcule la funcion

de densidad marginal de X(1) encontrando nuevamente que

fX(1)(x) = nf(x)[1 − F (x)]n−1.

448. A partir de la formula para fX(1),...,X(n)(x1, . . . , xn) calcule la funcion

de densidad marginal de X(n) encontrando nuevamente que

fX(n)(x) = nf(x)[F (x)]n−1.

147

449. A partir de la formula para fX(1),...,X(n)(x1, . . . , xn) calcule la funcion de

densidad marginal de X(i) para i = 1, . . . , n encontrando nuevamenteque

fX(i)(x) =

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i.

450. Sea X1, . . . , Xn una m.a. de una distribucion continua con funcion dedistribucion F (x) y funcion de densidad f(x). Sea i < j. Demuestrenuevamente que para x < y,

fX(i),X(j)(x, y) =

(n

i, j − i, n− j

)

i(j − i) f(x)f(y)

[F (x)]i−1[F (y) − F (x)]j−i−1[1 − F (y)]n−j

y compruebe que esta es una funcion de densidad bivariada.

451. A partir de la formula para fX(i),X(j)(x, y) calcule la funcion de densi-

dad marginal de X(i) encontrando nuevamente que

fX(i)(x) =

(ni

)

i f(x)[F (x)]i−1[1 − F (x)]n−i.

452. Sea X1, . . . , Xn una m.a. de una distribucion unif(0, 1). Encuentre lafuncion de densidad de

a) X(1) y X(2) conjuntamente.

b) R = X(n) −X(1).

453. Sea X1, . . . , Xn una m.a. de una distribucion unif(0, 1). Encuentre lafuncion de densidad de la mediana muestral

a) para n impar.

b) para n par.

454. Sea X1, . . . , Xn una m.a. de una distribucion unif(0, 1). Encuentre lafuncion de densidad del vector (X(1), . . . , X(n)).

455. Sea X1, . . . , Xn una m.a. de una distribucion unif(0, 1). Calcule el co-eficiente de correlacion entre X(i) y X(j).

456. Sea X1, . . . , Xn una m.a. de una distribucion continua F (x) con fun-cion de densidad f(x). Demuestre directamente que para x < y,

fX(1),X(n)(x, y) = n(n− 1)f(x)f(y)[F (y) − F (x)]n−2.

457. Utilice el ejercicio anterior para obtener la densidad conjunta de X(1)

y X(n) para una m.a. de tamano n de una distribucion

a) unif(0, 1).

b) exp(λ).

148

458. Calcule la covarianza entre X(1) y X(n) para una m.a. de tamano n deuna distribucion

a) unif(0, 1).

b) exp(λ).

149

Capıtulo 6

Convergencia

En este capıtulo se presenta una introduccion al tema de convergencia devariables aleatorias. Se estudian distintas formas en que una sucesion devariables aleatorias puede converger.

6.1. Convergencia puntual

Sea X1, X2, . . . una sucesion infinita de variables aleatorias. Al evaluar cadavariable de la sucesion en algun ω de Ω se obtiene la sucesion numericaX1(ω), X2(ω), . . .. Suponga que esta sucesion converge a un cierto numeroreal denotado por X(ω). Si lo anterior se cumple para todos y cada uno delos elementos de Ω entonces se dice que la sucesion de variables aleatorias”converge puntualmente” y su lımite es la funcion X : Ω → R definidanaturalmente por

X(ω) = lımn→∞

Xn(ω).

Hemos demostrado al inicio de nuestro curso que en esta situacion la fun-cion lımite X es efectivamente una variable aleatoria. Formalmente tenemosentonces la siguiente defininicion.

Definicion 38 La sucesion X1, X2, . . . converge puntualmente a X si paracada ω en Ω

X(ω) = lımn→∞

Xn(ω).

Por ejemplo, suponga el espacio medible ([0, 1],B[0, 1]) y defina la sucesionde variables aleatorias Xn(ω) = ωn. Entonces para ω ∈ [0, 1), Xn(ω) → 0.Mientras que para ω = 1, Xn(ω) = 1. De esta manera la sucesion convergepuntualmente a la variable aleatoria

X(ω) =

0 si ω ∈ [0, 1),1 si ω = 1.

150

La convergencia puntual resulta ser muy fuerte pues se pide la convergenciade la sucesion evaluada en cada uno de los elementos de Ω. Uno puedeser menos estricto y pedir por ejemplo que la convergencia se efectue entodo el espacio Ω excepto en un subconjunto de probabilidad cero. Estetipo de convergencia mas relajada se llama ”convergencia casi segura” yse estudia en las siguientes secciones junto con otros tipos de convergenciamenos restrictivos.

6.2. Convergencia casi segura

Definicion 39 La sucesion X1, X2, . . . converge casi seguramente a X si

Pω ∈ Ω : lımn→∞

Xn(ω) = X(ω) = 1.

Por lo tanto, en la convergencia casi segura se permite que para algunosvalores de ω la sucesion numerica X1(ω), X2(ω), . . . pueda no converger, sinembargo el subconjunto de Ω en donde esto suceda debe tener probabili-dad cero. Para indicar la convergencia casi segura se escribe Xn

c.s.−→ X obien lım

n→∞Xn = X c.s. A menudo se utiliza el termino ”convergencia casi

dondequiera” o bien ”convergencia casi siempre” para denotar este tipo deconvergencia. Observe que omitiendo el argumento ω, la condicion para laconvergencia casi segura se escribe en la forma mas corta

P ( lımn→∞

Xn = X) = 1.

En donde se asume que el conjunto ( lımn→∞

Xn = X) es medible de tal forma

que aplicar la probabilidad tiene sentido.

Veamos un ejemplo. Considere el espacio de probabilidad ([0, 1],B[0, 1], P )con P la medida uniforme, es decir, P (a, b) = b − a. Defina la sucesion devariables aleatorias

Xn(ω) =

1 si 0 ≤ ω ≤ 1/n,0 otro caso.

Entonces Xn converge casi seguramente a la variable aleatoria constantecero. Para demostrar esto se necesita verificar que P (lımn→∞Xn = 0) = 1.Pero esta igualdad es evidente a partir del hecho de que

ω ∈ Ω : lımn→∞

Xn(ω) = 0 = (0, 1]

cuya probabilidad es uno. El punto ω = 0 es el unico punto muestral parael cual Xn(ω) no converge a cero. Esto demuestra que Xn

c.s.−→ 0.

151

EJERCICIOS

459. Sean a y b constantes. Demuestre que si Xnc.s.−→ X entonces

a) aXnc.s.−→ aX.

b) Xn + bc.s.−→ X + b.

460. Suponga que Xnc.s.−→ X y Yn

c.s.−→ Y . Demuestre que

a) Xn + Ync.s.−→ X + Y.

b) XnYnc.s.−→ XY.

c) Xn/Ync.s.−→ X/Y si Y, Yn 6= 0.

461. Considere el espacio de probabilidad ([0, 1],B[0, 1], P ) con P la medidade probabilidad uniforme. Demuestre que

n1[0,1/n)c.s.−→ 0.

6.3. Convergencia en probabilidad

Definicion 40 La sucesion X1, X2, . . . converge en probabilidad a X si paracada ǫ > 0

lımn→∞

Pω ∈ Ω : |Xn(ω) −X(ω)| > ǫ = 0.

Para denotar la convergencia en probabilidad se escribe Xnp−→ X, y omi-

tiendo el argumento ω la condicion se escribe

lımn→∞

P (|Xn −X| > ǫ) = 0.

Mas adelante se demostrara que la convergencia en probabilidad es un tipode convergencia aun mas relajada que la convergencia casi segura.

EJERCICIOS

462. Sean a y b constantes. Demuestre que si Xnp−→ X entonces

a) aXnp−→ aX.

b) Xn + bp−→ X + b.

463. Suponga que Xnp−→ x y Yn

p−→ y, en donde x y y son dos numerosreales fijos. Demuestre que

a) Xn + Ynp−→ x+ y.

152

b) XnYnp−→ xy.

c) Xn/Ynp−→ x/y si Yn, y 6= 0.

d) Si g es continua en x entonces g(Xn)p−→ g(x).

464. Demuestre que si Xnp−→ X y Yn

p−→ Y entonces

Xn + Ynp−→ X + Y.

465. Sean X1, X2, . . . variables aleatorias independientes cada una con dis-tribucion unif(a, b). Demuestre que cuando n tiende a infinito

a) mınX1, . . . , Xn p−→ a.

b) maxX1, . . . , Xn p−→ b.

6.4. Convergencia en media

Definicion 41 La sucesion X1, X2, . . . converge en media a X si

lımn→∞

E|Xn −X| = 0.

Observe que para este tipo de convergencia tanto los elementos de la sucesioncomo el lımite mismo deben ser variables aleatorias con esperanza finita. Aeste tipo de convergencia tambien se le llama ”convergencia en L1” y se le

denota por Xnm−→ X o Xn

L1

−→ X.

EJERCICIOS

466. Sean a y b constantes. Demuestre que si Xnm−→ X entonces

a) aXnm−→ aX.

b) Xn + bm−→ X + b.

467. Suponga que Xnm−→ X y Yn

m−→ Y . Demuestre que

a) Xn + Ynm−→ X + Y .

Proporcione un contraejemplo para las siguientes afirmaciones

b) XnYnm−→ XY .

c) Xn/Ynm−→ X/Y si Y, Yn 6= 0.

468. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xnm−→

X entonceslım

n→∞E(Xn) = E(X).

153

6.5. Convergencia en media cuadratica

Definicion 42 La sucesion X1, X2, . . . converge en media cuadratica a Xsi

lımn→∞

E|Xn −X|2 = 0.

En la convergencia en media cuadratica se asume que tanto los elementos dela sucesion como el lımite mismo son variables aleatorias con segundo mo-mento finito. A este tipo de convergencia tambien se le llama ”convergencia

en L2” y se le denota por Xnm.c.−→ X o Xn

L2

−→ X.

EJERCICIOS

469. Sean a y b constantes. Demuestre que si Xnm.c.−→ X entonces

a) aXnm.c.−→ aX.

b) Xn + bm.c.−→ X + b.

470. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xnm.c.−→

X y Ynm.c.−→ Y entonces

Xn + Ynm.c.−→ X + Y.

6.6. Convergencia en distribucion

Definicion 43 La sucesion X1, X2, . . . converge en distribucion a X si

lımn→∞

FXn(x) = FX(x)

para todo punto x en donde FX(x) es continua.

En este caso se escribe Xnd−→ X. A este tipo de convergencia se le conoce

tambien con el nombre de ”convergencia debil” y ello se debe a que estaforma de convergencia es la menos restrictiva de todas las mencionadasanteriormente.

Por ejemplo considere la sucesion X1, X2, . . . en donde Xn tiene distribucion

154

N(0, σ2/n). Demostraremos que Xnd−→ 0. Como

FXn(x) =

1√

2πσ2/n

∫ x

−∞e−u2/2(σ2/n) du,

entonces

lımn→∞

FXn(x) =

0 si x < 0,1/2 si x = 0,1 si x > 0.

Por otro lado, la variable aleatoria constante X = 0 tiene funcion de dis-tribucion

FX(x) =

0 si x < 0,1 si x ≥ 0.

Tenemos entonces que Xnd−→ 0 pues lım

n→∞FXn

(x) = FX(x) para todo punto

x donde FX(x) es continua, esto es, para todo x en el conjunto R \ 0.Observe que no hay convergencia de las funciones FXn

(x) en el punto dediscontinuidad x = 0.

En resumen tenemos la siguiente tabla con las definiciones de los distintostipos de convergencia mencionados.

Convergencia Definicion

Puntual Xn(ω) → X(ω) para cada ω en Ω

Casi segura P (Xn → X) = 1

En media E|Xn −X| → 0

En media cuadratica E|Xn −X|2 → 0.

En probabilidad P (|Xn −X| > ǫ → 0

En distribucion FXn(x) → FX(x) en puntos de continuidad x de FX

EJERCICIOS

471. Considere el espacio de probabilidad ([0, 1],B[0, 1], P ) en donde P es lamedida de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[1/2,1].

Demuestre que Xnd−→ X.

472. Sea Xn con distribucion unif[1/2 − 1/n, 1/2 + 1/n]. Demuestre que

Xnd−→ 1

2.

155

473. Sea Xn con distribucion unif0, 1, . . . , n. Demuestre que

1

nXn

d−→ unif[0, 1].

474. Sea c una constante. Demuestre que

Xnp−→ c ⇐⇒ Xn

d−→ c.

6.7. Relaciones generales entre los tipos de con-vergencia

En esta seccion se establecen las relaciones entre los distintos tipos de con-vergencia de variables aleatorias vistos en la seccion anterior. En la figura 6.1se ilustran de manera grafica estas relaciones. En esta grafica la contencionse interpreta como implicacion, por ejemplo la convergencia casi segura im-plica la convergencia en probabilidad y esta a su vez implica la convergenciaen distribucion. Estos y otros resultados se demuestran a continuacion.

Figura 6.1: Relacion entre los tipos de convergencia.

Proposicion 61 Convergencia c.s. =⇒ convergencia en prob.

Demostracion. Suponga Xnc.s.−→ X. Sea ǫ > 0 y defina los eventos

An =∞⋃

k=n

(|Xk −X| > ǫ).

Esta sucesion es decreciente y su lımite es entonces la interseccion de todoslos eventos. Como (|Xn −X| > ǫ) ⊆ An entonces

P (|Xn −X| > ǫ) ≤ P (An).

156

Por lo tanto

lımn→∞

P (|Xn −X| > ǫ) ≤ lımn→∞

P (An)

= P ( lımn→∞

An)

= P (∞⋂

n=1

An)

= P (|Xn −X| > ǫ para cada n ≥ 1 )

= P ( lımn→∞

Xn 6= X)

= 0.

El recıproco de la proposicion anterior es falso, es decir, la convergencia enprobabilidad no implica necesariamente la convergencia casi siempre. Parailustrar esta afirmacion se proporciona a continuacion un contraejemplo.

Convergencia en prob. 6=⇒ Convergencia c.s. Considere el espacio ((0, 1),B(0, 1), P )con P la medida de probabilidad uniforme. Defina los eventos

A1 = (0, 1/2), A2 = (1/2, 1),

A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1),

A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1),

· · · · · ·

Sea Xn = 1An. Entonces Xn

p−→ 0 pues para cualquier ǫ tal que 0 < ǫ < 1

lımn→∞

P (|Xn − 0| > ǫ) = lımn→∞

P (An) = 0.

Sin embargo la sucesion no converge casi seguramente pues

w ∈ Ω : lımn→∞

Xn(w) existe = ∅.

Convergencia en m. 6=⇒ Convergencia c.s. Considere la sucesion de variablesXn como en el ejemplo anterior. Entonces Xn

m−→ 0 pues E|Xn−0| = 1/n→0. Sin embargo esta sucesion no converge c.s. pues P (lımXn = 0) = P (∅) =0.

Convergencia c.s. 6=⇒ convergencia en m. Considere el espacio ((0, 1),B(0, 1), P )con P la medida de probabilidad uniforme. Defina la sucecionXn = n1(0,1/n).Entonces Xn converge a 0 c.s. pues P (lımXn = 0) = P (Ω) = 1. Sin embargono hay convergencia en media pues E|Xn − 0| = 1.

Proposicion 62 Convergencia en m.c. =⇒ convergencia en media.

157

Demostracion. La desigualdad de Jensen establece que para u convexa

u(E(X)) ≤ E(u(X)).

Tomando u(x) = x2 se obtiene

E2|Xn −X| ≤ E|Xn −X|2,

de donde se sigue el resultado. Alternativamente la ultima desigualdad esconsecuencia de la desigualdad de Cauchy-Schwarz.

Proposicion 63 Convergencia en media =⇒ convergencia en prob.

Demostracion. Para cualquier ǫ > 0 sea An = (|Xn −X| > ǫ).

E|Xn −X| = E(|Xn −X| · 1An) + E(|Xn −X| · (1 − 1An

))

≥ E(|Xn −X| · 1An)

≥ ǫP (|Xn −X| > ǫ).

Por hipotesis el lado izquierdo tiende a cero cuando n tiende a infinito. Porlo tanto

lımn→∞

P (|Xn −X| > ǫ) = 0.

Proposicion 64 Convergencia en prob. =⇒ convergencia en dist.

Demostracion. Sea x un punto de continuidad de FX(x). Para cualquierǫ > 0

FXn(x) = P (Xn ≤ x)

= P (Xn ≤ x, |Xn −X| ≤ ǫ) + P (Xn ≤ x, |Xn −X| > ǫ)

≤ P (X ≤ x+ ǫ) + P (|Xn −X| > ǫ).

El segundo sumando del lado derecho tiende a cero cuando n tiende a infinitopues por hipotesis Xn

p−→ X. Entonces para cualquier ǫ > 0,

lım supn→∞

FXn(x) ≤ FX(x+ ǫ).

Por la continuidad lateral,

lım supn→∞

FXn(x) ≤ FX(x).

158

Ahora se demuestra la desigualdad inversa. Para cualquier ǫ > 0

FX(x− ǫ) = P (X ≤ x− ǫ)

= P (X ≤ x− ǫ, |Xn −X| ≤ ǫ) + P (X ≤ x− ǫ, |Xn −X| > ǫ)

≤ P (Xn ≤ x) + P (|Xn −X| > ǫ).

Nuevamente el segundo sumando tiende a cero cuando n tiende a infinito.Entonces

FX(x− ǫ) ≤ lım infn→∞

FXn(x).

Por la continuidad en x,

FX(x) ≤ lım infn→∞

FXn(x).

En resumen

FX(x) ≤ lım infn→∞

FXn(x) ≤ lım sup

n→∞FXn

(x) ≤ FX(x).

El converso de la proposicion anterior es falso, es decir, la convergencia endistribucion no siempre implica la convergencia en probabilidad.

Convergencia en dist. 6=⇒ convergencia en prob. Sea X con distribucionN(0, 1) y sea

Xn =

X si n es par,−X si n es impar.

Entonces claramente cada Xn tambien tiene distribucion N(0, 1) y por lo

tanto lımn→∞

FXn(x) = FX(x), es decir, Xn

d−→ X. Sin embargo la sucesion

no converge en probabilidad a X pues para valores impares de n,

P (|Xn −X| > ǫ) = P (2|X| > ǫ)

> 1/2 para ǫ pequena.

Lo anterior demuestra que lımn→∞

P (|Xn −X| > ǫ) 6= 0.

EJERCICIOS

475. Enuncie con precision la definicion de convergencia de variables aleato-rias: casi segura, en media, en media cuadratica, en probabilidad, endistribucion.

476. Establezca las relaciones existentes entre los siguientes tipos de conver-gencia de variables aleatorias: convergencia en distribucion, en proba-bilidad, convergencia casi segura, convergencia en media y convergen-cia en media cuadratica.

159

477. Demuestre que la convergencia casi siempre implica la convergencia enprobabilidad.

478. Demuestre que la convergencia en media cuadratica implica la conver-gencia en media.

479. Demuestre que la convergencia en media cuadratica implica la conver-gencia en probabilidad.

480. Demuestre que la convergencia en probabilidad implica la convergenciaen distribucion.

481. Sea A1, A2, . . . una sucesion de eventos tal que lımn→∞

An = A. ¿En

que sentido la sucesion de variables aleatorias 1Anconverge a 1A?

482. Demuestre que si Xnd−→ X y Yn

d−→ Y entonces no necesariamente

a) cXnd−→ cX, c constante.

b) Xn + Ynd−→ X + Y .

483. Sea Xn con distribucion N(µn, σ2n) y X con distribucion N(µ, σ2).

Suponga µn → µ y σ2n → σ2, con σ2

n, σ2 > 0. ¿En que sentidoXn → X?

484. Suponga Xnd−→ X en donde Xn y X son variables aleatorias absolu-

tamente continuas. ¿Bajo que condiciones fXn(x) → fX(x)?

6.8. Dos resultados importantes de convergencia

Sea X1, X2, . . . una sucesion de variables aleatorias con esperanza finita.Suponga que Xn converge puntualmente a X. Es natural preguntarse sila sucesion de numeros E(Xn) converge a E(X). Tal convergencia numeri-ca equivaldrıa a poder intercambiar las operaciones de lımite y esperanza.En esta seccion se enuncian sin demostracion dos resultados que establecencondiciones bajo las cuales se cumple que E(Xn) converge a E(X).

Teorema 3 (Teorema de convergencia monotona) Si Xn converge pun-tualmente a X y es tal que 0 ≤ X1 ≤ X2 ≤ · · · entonces

lımn→∞

E(Xn) = E(X).

Por lo tanto la condicion de que la sucesion de variables aleatorias seamonotona no decreciente es suficiente para poder afirmar que E(Xn) con-verge a E(X). El segundo resultado que se enuncia a continuacion estableceotro tipo de condicion suficiente para obtener la misma conclusion.

160

Teorema 4 (Teorema de convergencia dominada) Si Xn converge pun-tualmente a X y existe Y con esperanza finita tal que |Xn| ≤ Y para todan, entonces

lımn→∞

E(Xn) = E(X).

Es decir, es suficiente que exista una variable aleatoria con esperanza finitaque sea cota superior de la sucesion para poder afirmar que E(Xn) converge aE(X). Estos dos resultados son de suma utilidad y su demostracion apareceen textos avanzados de probabilidad [11], [16], [21]. Se utilizan en la ultimaparte de este curso para formalizar algunas demostraciones.

161

Capıtulo 7

Funciones generadoras

En este capıtulo se estudia la funcion generadora de probabilidad, la funciongeneradora de momentos y la funcion caracterıstica. Estas funciones sontransformaciones de las distribuciones de probabilidad y constituyen unaherramienta muy util en la teorıa moderna de la probabilidad.

7.1. Funcion generadora de probabilidad

Definicion 44 La funcion generadora de probabilidad de X es la funcion

G(t) = E(tX)

definida para valores reales de t tal que la esperanza existe.

Cuando sea necesario especificarlo se escribe GX(t) en lugar de G(t) y seusan las letras f.g.p. en lugar de ”funcion generadora de probabilidad”. Estafuncion se utiliza principalmente en el caso de variables aleatorias discre-tas, por comodidad supondremos que estas toman valores en el conjunto0, 1, . . . que corresponde al caso de las variables aleatorias discretas estu-diadas en este curso. Entonces

G(t) =

∞∑

k=0

tkP (X = k).

Por lo tanto la f.g.p. es una serie de potencias en t con coeficientes dadospor la distribucion de probabilidad (por ende el nombre) y cuyo radio deconvergencia es por lo menos uno.

La existencia de la f.g.p. no esta garantizada para toda distribucion de prob-abilidad. Sin embargo cuando existe, determina de manera unica a la dis-

162

tribucion en el siguiente sentido. Si X y Y tienen la misma distribucion deprobabilidad entonces claramente GX(t) = GY (t) para valores de t dondeesta esperanza exista. Inversamente, sean X y Y tales que GX(t) y GX(t)existen y coinciden en algun intervalo no trivial alrededor del cero. EntoncesX y Y tienen la misma distribucion de probabilidad.

Esta y otras propiedades generales de la f.g.p. se estudian a continuacion ymas adelante se ilustran estos resultados con un ejemplo.

Proposicion 65

1. Sean X y Y variables aleatorias con valores en 0, 1, . . . tales queGX(t) y GY (t) existen y coinciden en algun intervalo no trivial alrede-dor de t = 0. Entonces X y Y tienen la misma distribucion de proba-bilidad.

2. Si GX(t) existe entonces

dn

dtnGX(t)

∣∣∣∣t=1

= E[X(X − 1) · · · (X − n+ 1)].

3. Si X y Y son independientes y cuyas f.g.p. existen entonces

GX+Y (t) = GX(t)GY (t).

Demostracion. (1) Sean an = P (X = n) y bn = P (Y = n) para n ≥ 0. Lacondicion GX(t) y GX(t) se escribe

∞∑

n=0

tnan =∞∑

n=0

tnbn.

Para que estas dos series de potencias en t coincidan en algun intervalo notrivial alrededor del cero, sus coeficientes deben forzosamente coincidir. Esdecir an = bn para n ≥ 0. (2) Como las series de potencia se pueden derivartermino a termino conservandose el mismo radio de convergencia se tieneque

G′(t) =d

dt

∞∑

k=0

tkP (X = k)

=∞∑

k=0

d

dttkP (X = k)

=∞∑

k=1

ktk−1P (X = k).

163

Al evaluar en t = 1 se obtiene

G′(1) =∞∑

k=1

kP (X = k) = E(X).

De manera analoga se demuestra para las derivadas superiores. (3) CuandoX y Y son independientes,

GX+Y (t) = E(tX+Y )

= E(tXtY )

= E(tX)E(tY )

= GX(t)GY (t).

Ejemplo 15 Sea X con distribucion Poisson(λ). Entonces la f.g.p. de Xes G(t) = e−λ(1−t). En efecto,

G(t) =∞∑

n=0

tne−λλn

n!

= e−λ∞∑

n=0

(λt)n

n!

= e−λeλt

= e−λ(1−t).

Observe que en este caso la f.g.p. se encuentra definida para cualquier valorde t. Calculamos a continuacion la esperanza y varianza de la distribucionPoisson(λ) con ayuda de la f.g.p. Al derivar una vez se obtiene G′(t) =λe−λ(1−t) y al evaluar en t = 1, E(X) = G′(1) = λ. Derivando por segundavez, G′′(t) = λ2e−λ(1−t), y en t = 1 se obtiene E(X(X − 1)) = G′′(1) = λ2.Por lo tanto Var(X) = E(X2) − E2(X) = λ2 + λ− λ2 = λ.

Ahora se muestra el uso de la f.g.p. para determinar la distribucion de unavariable aleatoria. Suponga que X y Y son independientes con distribucionPoisson(λ1) y Poisson(λ2) respectivamente. Entonces

MX+Y (t) = MX(t)MY (t)

= e−λ1(1−t)e−λ2(1−t)

= e−(λ1+λ2)(1−t).

Esta expresion corresponde a la f.g.p. de la distribucion Poisson con parametroλ1 + λ2. Se concluye entonces que X + Y se distribuye Poisson(λ1 + λ2).

Las funciones generadoras de probabilidad para algunas otras distribucionesdiscretas se encuentran en la seccion de ejercicios y tambien en el primerapendice al final del libro.

164

EJERCICIOS

485. Sea X con varianza finita y con f.g.p. G(t). Demuestre que

a) E(X) = G′(1).

b) E(X2) = G′′(1) +G′(1).

c) Var(X) = G′′(1) +G′(1) − [G′(1)]2.

486. Sea X con f.g.p. GX(t) y sean a y b dos constantes. Demuestre queGaX+b(t) = tbGX(ta).

487. Sea X con distribucion Ber(p). Demuestre que

a) G(t) = 1 − p+ pt.

b) E(X) = p usando G(t).

c) Var(X) = p(1 − p) usando G(t).

488. Sea X con distribucion bin(n, p). Demuestre que

a) G(t) = (1 − p+ pt)n.

b) E(X) = np usando G(t).

c) Var(X) = np(1 − p) usando G(t).

489. Sean X1, . . . , Xn independientes cada una con distribucion Ber(p). Usela f.g.p. para demostrar que X1 + · · ·+Xn tiene distribucion bin(n, p).

490. Sean X y Y independientes con distribucion bin(n, p) y bin(m, p) re-spectivamente. Use la f.g.p. para demostrar que X + Y tiene distribu-cion bin(n+m, p).

491. Sea X con distribucion bin(N, p) en donde N es una v.a. con distribu-cion bin(m, r). Use la f.g.p. para demostrar que X tiene distribucionbin(m, rp).

492. Sea X con distribucion geo(p). Demuestre que

a) G(t) = p/[1 − t(1 − p)].

b) E(X) = (1 − p)/p usando G(t).

c) Var(X) = (1 − p)/p2 usando G(t).

493. Sea X con distribucion Poisson(λ). Demuestre que

a) G(t) = e−λ(1−t).

b) E(X) = λ usando G(t).

c) Var(X) = λ usando G(t).

494. Sean X y Y independientes con distribucion Poisson con parametrosλ1 y λ2 respectivamente. Use la f.g.p. para demostrar nuevamente queX + Y tiene distribucion Poisson(λ1 + λ2).

165

495. Sea X con distribucion bin neg(r, p). Demuestre que

a) G(t) = [p/(1 − t(1 − p))]r.

b) E(X) = r(1 − p)/p usando G(t).

c) Var(X) = r(1 − p)/p2 usando G(t).

496. Sean X1, . . . , Xn independientes tales que Xk tiene f.g.p. Gk(t) parak = 1, . . . , n. Demuestre que

GX1+···+Xn(t) =

n∏

k=1

Gk(t).

497. Demuestre que la condicion GX+Y (t) = GX(t)GY (t) no implica queX y Y son independientes.

498. Sea X1, X2, . . . una sucesion de v.a.i.i.d. con f.g.p. GX(t). Sea N otrav.a. con valores en N, independiente de la sucesion y con f.g.p. GN (t).Sea

Y = X1 + · · · +XN .

Demuestre que

a) GY (t) = GN (GX(t)).

b) E(Y ) = E(N)E(X) usando GY (t).

c) Var(Y ) = E2(X)Var(N) + E(N)Var(X) usando GY (t).

7.2. Funcion generadora de momentos

La funcion generadora de momentos es otra funcion que se puede asociar aalgunas distribuciones de probabilidad aunque su existencia no esta garan-tizada para todas las distribuciones. Cuando existe, determina de maneraunica a la distribucion de probabilidad asociada y tiene propiedades seme-jantes a las de la f.g.p. estudiada en la seccion anterior. La funcion gener-adora de momentos se utiliza tanto para variables aleatorias discretas comocontinuas.

Definicion 45 La funcion generadora de momentos de X es la funcion

M(t) = E(etX)

definida para valores reales de t para los cuales esta esperanza existe.

Nuevamente, cuando sea necesario especificarlo se escribe MX(t) en lugar deM(t) y se usan las letras f.g.m. en lugar de ”funcion generadora de momen-tos”. La parte importante de esta funcion es su existencia en una vecindad

166

no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. estan rela-cionadas, cuando existen, por la igualdad M(t) = G(et). Se demuestran acontinuacion algunas propiedades basicas de la f.g.m. y despues se muestrasu utilidad mediante un ejemplo.

Proposicion 66

1. Sea X tal que su f.g.m. M(t) existe. Entonces todos los momentos Xexisten y

dn

dtnM(t)

∣∣∣∣t=0

= E(Xn).

2. Sean X y Y son independientes y cuyas f.g.m. existen. Entonces

MX+Y (t) = MX(t)MY (t).

3. Las variables X y Y tienen la misma distribucion si y solo si MX(t) =MY (t) para cada t ∈ (−ǫ, ǫ) con ǫ > 0 .

Demostracion. (1) El teorema de convergencia dominada permite obtener laderivada a traves de la esperanza de modo que

d

dtM(t) =

d

dtE(etX)

= E(d

dtetX)

= E(XetX).

Al evaluar en t = 0 se obtiene el primer momento. Analogamente se pruebapara derivadas superiores. (2) Cuando X y Y son independientes se tieneque

MX+Y (t) = E(et(X+Y ))

= E(etX · etY )

= E(etX)E(etY )

= MX(t)MY (t)

(3) Si X es tal que su funcion generadora de momentos existe entonces todossus momentos existen y estos determinan de manera unica a la distribucionde probabilidad.

Ejemplo 16 Sea X con distribucion gama(n, λ). Entonces para t < λ,

M(t) =

∫ ∞

0etx

(λx)n−1

Γ(n)λe−λx dx

= λn(λ− t)−n

∫ ∞

0

[(λ− t)x]n−1

Γ(n)(λ− t)e−(λ−t)x dx

167

= λn(λ− t)−n.

Calculamos ahora la esperanza y varianza de X con ayuda de la f.g.m.Derivando una vez, M ′(t) = λnn(λ − t)−n−1, al evaluar en t = 0 se ob-tiene E(X) = n/λ. Derivando nuevamente, M ′′(t) = λnn(n+1)(λ− t)−n−2,por lo tanto E(X2) = M ′′(0) = n(n + 1)/λ2. Entonces Var(X) = n(n +1)/λ2 − n2/λ2 = n/λ2.

Suponga que X y Y son independientes cada una con distribucion gama(n, λ)y gama(m,λ) respectivamente. Entonces la f.g.m. de X + Y es

MX+Y (t) = MX(t)MY (t)

= λn(λ− t)−n · λm(λ− t)−m

= λn+m(λ− t)−n−m.

Esta es nuevamente la expresion de la f.g.m. de la distribucion gama, ahoracon parametros n +m y λ. Se concluye entonces X + Y tiene distribuciongama(n+m,λ).

Como hemos mencionado antes, no todas las distribuciones de probabilidadpermiten calcular la funcion generadora de momentos dentro de un intervaloalrededor del cero, ni todos los calculos son tan sencillos como en el ejemplomostrado. Por ejemplo la f.g.m. de la distribucion Cauchy estandar no existepara valores de t distintos de cero como se pide demostrar en el ejercicio 522.

Finalizamos esta seccion con el enunciado sin demostracion de un resultadoacerca de convergencia de funciones generadoras.

Proposicion 67 Sea X1, X2, . . . una sucesion de variables aleatorias cuyasfunciones generadoras de momentos existen todas ellas en algun intervalo no

trivial alrededor del cero. Entonces Xnd→ X si y solo si MXn

(t) →MX(t).

En la seccion de ejercicios se pueden encontrar las funciones generadoras demomentos de algunas otras distribuciones discretas y continuas, asi como enel primer apendice al final del libro.

EJERCICIOS

499. Sea X con varianza finita y con f.g.m. M(t). Demuestre que

a) E(X) = M ′(0).

b) E(X2) = M ′′(0).

c) Var(X) = M ′′(0) − (M ′(0))2.

168

500. Sean X y Y independientes e identicamente distribuidas con f.g.m.M(t). Demuestre que MX−Y (t) = M(t)M(−t).

501. Sea X con f.g.m. MX(t) y sean a y b dos constantes. Demuestre queMaX+b(t) = etbMX(at).

502. Sea X con f.g.m. MX(t). Diga falso o verdadero. Demuestre en cadacaso.

a) MX(t) ≥ 0.

b) M2X(t) = MX(2t).

503. Sea X con distribucion Ber(p). Demuestre que

a) M(t) = 1 − p+ pet.

b) E(X) = p usando M(t).

c) E(Xn) = p usando M(t).

d) Var(X) = p(1 − p) usando M(t).

504. Sea X con distribucion bin(n, p). Demuestre que

a) M(t) = (1 − p+ pet)n.

b) E(X) = np usando M(t).

c) Var(X) = np(1 − p) usando M(t).

505. Sean X1, . . . , Xn independientes cada una con distribucion Ber(p). Usela f.g.m. para demostrar que X1 + · · ·+Xn tiene distribucion bin(n, p).

506. Sean X y Y independientes con distribucion bin(n, p) y bin(m, p) re-spectivamente. Use la f.g.m. para demostrar que X+Y tiene distribu-cion bin(n+m, p)

507. Sea X con distribucion geo(p). Demuestre que

a) M(t) =p

1 − (1 − p)et.

b) E(X) = (1 − p)/p usando M(t).

c) Var(X) = (1 − p)/p2 usando M(t).

508. Sea X con distribucion Poisson(λ). Demuestre que

a) M(t) = exp[λ(et − 1)].

b) M ′′(t) = M ′(t) + λetM ′(t).

c) E(X) = λ usando M(t).

d) Var(X) = λ usando M(t).

e) E[(X − λ)3] = λ usando M(t).

509. Sea X con distribucion unif(a, b). Demuestre que

a) M(t) =ebt − eat

(b− a)t.

169

b) E(X) = (a+ b)/2 usando M(t).

c) Var(X) = (b− a)2/12 usando M(t).

510. Sea X con distribucion exp(λ). Demuestre que

a) M(t) = λ/(λ− t) para t < λ.

b) E(X) = 1/λ usando M(t).

c) Var(X) = 1/λ2 usando M(t).

511. Sea X con distribucion N(µ, σ2). Demuestre que

a) M(t) = exp(µt+ 12σ

2t2).

b) E(X) = µ usando M(t).

c) Var(X) = σ2 usando M(t).

512. SeanX y Y variables aleatorias independientes con distribucion N(µ1, σ21)

y N(µ2, σ22) respectivamente. Use la f.g.m. para demostrar que X + Y

tiene distribucion N(µ1 + µ2, σ21 + σ2

2).

513. Sea X con distribucion gama(n, λ). Demuestre que

a) M(t) = [λ/(λ− t)]n para t < λ.

b) E(X) = n/λ usando M(t).

c) Var(X) = n/λ2 usando M(t).

514. Sean X y Y independientes ambas con distribucion exp(λ). Use laf.g.m. para demostrar que X + Y tiene distribucion gama(2, λ).

515. Sean X y Y independientes con distribucion gama(n, λ) y gama(m,λ)respectivamente. Use la f.g.m. para demostrar que X + Y tiene dis-tribucion gama(n+mλ).

516. Sea X con distribucion χ2(n). Demuestre que

a) M(t) = [1/(1 − 2t)]n/2 para t < 1/2.

b) E(X) = n usando M(t).

c) Var(X) = 2n usando M(t).

517. Use la f.g.m. para demostrar que si X y Y son independientes talesque X tiene distribucion χ2(n) y X + Y tiene distribucion χ2(m) conm > n, entonces Y tiene distribucion χ2(m− n). Este es el contenidode la proposicion 50 en la pagina 134.

518. Sean X y Y independientes con distribucion χ2(n) y χ2(m) respecti-vamente. Use la f.g.m. para demostrar que X + Y tiene distribucionχ2(n+m).

519. Sea X con distribucion N(µ, σ2). Use la f.g.m. para demostrar que

a) −X tiene distribucion N(−µ, σ2).

170

b) aX + b tiene distribucion N(aµ+ b, a2σ2) con a 6= 0.

c) X2 tiene distribucion χ2(1).

520. Sean X1, . . . , Xn independientes tales que Xk tiene f.g.m. Mk(t) parak = 1, . . . , n. Demuestre que

MX1+···+Xn(t) =

n∏

k=1

Mk(t).

521. Demuestre que la condicion MX+Y (t) = MX(t)MY (t) no implica queX y Y son independientes. Considere la distribucion conjunta

f(x, y) =1

4[1 + xy(x2 − y2)] para − 1 < x, y < 1.

522. Sea X con distribucion Cauchy estandar. Demuestre que

MX(t) =

1 si t = 0,∞ si t 6= 0.

7.3. Funcion caracterıstica

Finalmente se estudia en esta seccion la funcion caracterıstica y se enun-cian algunas de sus propiedades. Esta es una funcion definida para cadadistribucion de probabilidad y a diferencia de las funciones generadoras deprobabilidad y de momentos estudiadas antes, siempre existe. Su definiciones la siguiente.

Definicion 46 La funcion caracterıstica de X es la funcion

φ(t) = E(eitX

)

definida para cualquier numero real t, en donde i es la unidad de los numerosimaginarios.

Observe que la funcion caracterıstica es una funcion de los numeros realesen los numeros complejos y puede escribirse de la forma siguiente

φ(t) = E(cos tX) + iE(sen tX).

Nuevamente se escribe φX(t) cuando sea necesario especificar que se tra-ta de la funcion caracterıstica de X. Se escribe simplemente f.c. en lugarde ”funcion caracterıstica”. Observe que la f.c., la f.g.m. y la f.g.p. estan

171

relacionadas, cuando existen, por las igualdades φ(t) = M(it) = G(eit). Laexistencia de la f.c. se sigue del siguiente analisis

|φ(t)| =

∣∣∣∣

∫ ∞

−∞eitx dF (x)

∣∣∣∣

≤∫ ∞

−∞|eitx| dF (x)

=

∫ ∞

−∞dF (x)

= 1.

De modo que φ(t) es un numero complejo de norma menor o igual a unopara cualquier valor de t. Los momentos de la variable aleatoria pueden sergenerados con la f.c. a traves de la formula φ(n)(0) = inE(Xn), en efecto,por el teorema de convergencia dominada se puede derivar a traves de laesperanza y entonces

d

dtφ(t) =

d

dtE(eitX)

= E

(d

dteitX

)

= E(iXeitX).

Evaluando en t = 0 se obtiene el resultado cuando n = 1. Analogamente secalculan las derivadas superiores.

Como en las funciones generadoras anteriores, cuando X y Y son indepen-dientes se cumple que φX+Y (t) = φX(t)φY (t) pues

φX+Y (t) = E(eit(X+Y ))

= E(eitX · eitY )

= E(eitX)E(eitY )

= φX(t)φY (t).

El siguiente resultado permite determinar la funcion de distribucion de unavariable aleatoria cuando se conoce su funcion de distribucion.

Proposicion 68 (Formula de inversion de Levy) Sea X con funcionde distribucion F y funcion caracterıstica φ(t). Si x < y son puntos decontinuidad de F entonces

F (y) − F (x) = lımT→∞

1

∫ T

−T

e−itx − e−ity

itφ(t) dt.

Con ayuda de este teorema de inversion probaremos que las funciones dedistribucion determinan de manera unica a las distribuciones de probabili-dad.

172

Proposicion 69 (Teorema de unicidad) Si X y Y son tales queφX(t) = φY (t) para todo t entonces X y Y tienen la misma distribucion.

Demostracion. Por el teorema de inversion de Levy, la igualdad φX(t) =φY (t) implica que para cualesquiera dos puntos de continuidad x < y paraambas distribuciones se tiene que

FX(y) − FX(x) = FY (y) − FX(x).

Al hacer x tender a −∞, se obtiene que FX(y) = FY (y), para todos losvalores y puntos de continuidad de ambas funciones de distribucion. Comolas funciones de distribucion tienen a lo sumo un numero numerable dediscontinuidades, FX = FY .

En el caso absolutamente continuo se tiene la siguiente formula.

Proposicion 70 (Formula de inversion en el caso abs. continuo)Sea X absolutamente continua con funcion de densidad f(x) y funcioncaracterıstica φ(t). Entonces

f(x) =1

∫ ∞

−∞e−itxφ(t) dt.

Demostracion. Para x < y dos puntos de continuidad de F , por el teoremade inversion de Levy,

F (y) − F (x) = lımT→∞

1

∫ T

−T

e−itx − e−ity

itφ(t) dt

=1

∫ ∞

−∞

e−itx − e−ity

itφ(t) dt

=1

∫ ∞

−∞

[∫ y

xe−itx dx

]

φ(t) dt.

=

∫ y

x

[1

∫ ∞

−∞e−itxφ(t) dt

]

dx.

Por lo tanto el integrando debe ser la funcion de densidad de X.

Observe que se puede utilizar la formula de inversion anterior unicamentecuando se conoce que la funcion caracterıstica proviene de una variablealeatoria absolutamente continua.

Ahora se demuestra un resultado que sera de utilidad en la ultima partedel curso. Establece que la convergencia en distribucion es equivalente a laconvergencia puntual de las correspondientes funciones caracterısticas.

173

Proposicion 71 (Teorema de Continuidad) Sean X,X1, X2, . . . vari-

ables aleatorias. Entonces Xnd→ X si y solo si φXn

(t) → φX(t).

Demostracion.

(⇒) SupongaXnd→ X. Entonces por el teorema de convergencia dominada,

lımn→∞

φXn(t) = lım

n→∞E(cos tXn) + iE(sen tXn)

= E(cos tX) + iE(sen tX)

= φX(t).

(⇐) Suponga φXn(t) → φX(t). Entonces para dos puntos de continuidad

x < y comunes a cada FXny FX , el teorema de inversion de Levy

establece que

FX(y) − FX(x) = lımT→∞

1

∫ T

−T

e−itx − e−ity

itφ(t) dt.

= lımT→∞

1

∫ T

−T

e−itx − e−ity

it

[

lımn→∞

φXn(t)]

dt.

= lımn→∞

lımT→∞

1

∫ T

−T

e−itx − e−ity

it[φXn

(t)] dt.

= lımn→∞

FXn(y) − FXn

(x).

Haciendo x tender a −∞,

FX(y) = lımn→∞

FXn(y).

Finalmente se muestra con ejemplos la forma de encontrar la funcion carac-terıstica para algunas distribuciones.

Ejemplo 17 Sea X con distribucion bin(n, p). Encontraremos la funcioncaracterıstica de X.

φ(t) =n∑

x=0

eitx(nx

)

px(1 − p)n−x

=n∑

x=0

(nx

)

(peit)x(1 − p)n−x

= (1 − p+ peit)n.

174

Ejemplo 18 Sea X con distribucion N(µ, σ2). Entonces la funcion carac-terıstica de X se calcula como sigue,

φ(t) =

∫ ∞

−∞eitx · 1√

2πσ2e−(x−µ)2/2σ2

dx

=

∫ ∞

−∞

1√2πσ2

e−(x2−2x(µ−itσ2)+µ2)/2σ2dx

= e(−µ2+(µ−itσ2)2)/2σ2

∫ ∞

−∞

1√2πσ2

e−[x−(µ−itσ2)]2/2σ2

︸ ︷︷ ︸

N(µ−itσ2,σ2)

dx

= eitµ−t2σ2/2.

EJERCICIOS

523. Defina con precision la funcion caracterıstica y mencione tres de suspropiedades.

524. Encuentre la f.c. de una v.a. con funcion de densidad

a) f(x) =1

x!(e− 1)para x = 1, 2, . . .

b) f(x) = 12e

−|x|.

525. Demuestre que |φ(t)| ≤ 1.

526. Demuestre que φaX+b(t) = eitbφX(at), con a, b constantes.

527. Demuestre que si x 7→ F (x) es simetrica entonces t 7→ φ(t) es real.

528. Demuestre que si t 7→ φ(t) es real entonces x 7→ F (x) es simetrica.

529. Demuestre que la funcion caracterıstica es una funcion uniformementecontinua.

530. Demuestre que la f.c. satisface φ(−t) = φ(t), en donde z denota elcomplejo conjugado de z.

531. Sean X y Y independientes y con identica distribucion. Demuestre que

φX−Y (t) = |φX(t)|2.

532. Sea X con distribucion Ber(p). Demuestre que

a) φ(t) = (1 − p+ peit).

b) E(X) = p usando φ(t).

c) Var(X) = p(1 − p) usando φ(t).

d) E(Xn) = p usando φ(t), n ≥ 1 entero.

533. Sea X con distribucion bin(n, p). Demuestre que

175

a) φ(t) = (1 − p+ peit)n.

b) E(X) = np usando φ(t).

c) Var(X) = np(1 − p) usando φ(t).

534. Sea X con distribucion Poisson(λ). Demuestre que

a) φ(t) = e−λ(1−eit).

b) E(X) = λ usando φ(t).

c) Var(X) = λ usando φ(t).

535. Sea X con distribucion geo(p). Demuestre que

a) φ(t) = p/(1 − qeit).

b) E(X) = (1 − p)/p usando φ(t).

c) Var(X) = (1 − p)/p2 usando φ(t).

536. Sea X tiene distribucion bin neg(r, p). Demuestre que

a) φ(t) = [p/(1 − (1 − p)eit)]r.

b) E(X) = r(1 − p)/p usando φ(t).

c) Var(X) = r(1 − p)/p2 usando φ(t).

537. Sea X con distribucion unif(−a, a). Demuestre que

φ(t) = (sen at)/at.

538. Sea X con distribucion unif(a, b). Demuestre que

a) φ(t) = [eibt − eiat]/[it(b− a)].

b) E(X) = (a+ b)/2 usando φ(t).

c) Var(X) = (b− a)2/12 usando φ(t).

539. Sea X con distribucion N(µ, σ2). Demuestre que

a) φ(t) = exp(iµt− σ2t2/2).

b) E(X) = µ usando φ(t).

c) Var(X) = σ2 usando φ(t).

540. Sea X con distribucion exp(λ). Demuestre que

a) φ(t) = λ/(λ− it).

b) E(X) = 1/λ usando φ(t).

c) Var(X) = 1/λ2 usando φ(t).

541. Sea X con distribucion gama(n, λ). Demuestre que

a) φ(t) = [λ/(λ− it)]n.

b) E(X) = n/λ usando φ(t).

c) Var(X) = n/λ2 usando φ(t).

176

542. Sean X y Y independientes ambas con distribucion exp(λ). Use la f.c.para demostrar que X + Y tiene distribucion gama(2, λ).

543. Sean X y Y independientes con distribucion gama(n, λ) y gama(m,λ)respectivamente. Use la f.c. para demostrar que X + Y tiene distribu-cion gama(n+m,λ).

544. Demuestre que si X y Y son independientes entonces

φX+Y (t) = φX(t)φY (t).

545. Demuestre que la condicion φX+Y (t) = φX(t)φY (t) no implica queX y Y son independientes considerando por ejemplo la distribucionconjunta

f(x, y) =1

4[1 + xy(x2 − y2)] para − 1 < x, y < 1.

546. Sea X con funcion de distribucion

F (x) =ex

1 + ex.

Demuestre que F (x) es efectivamente una funcion de distribucion ycalcule φ(t). Con ayuda de esta encuentre E(X) y Var(X).

547. Sean X y Y independientes. Demuestre que

φXY (t) =

∫ ∞

−∞φY (tx)dFX(x) =

∫ ∞

−∞φX(ty)dFY (y).

548. Mediante el calculo de residuos se puede demostrar que la distribucionCauchy estandar tiene funcion caracterıstica

φ(t) =

∫ ∞

−∞eitx

1

π(1 + x2)dx = e−|t|.

Suponiendo este resultado, encuentre el error en el siguiente argumentopara encontrar la f.g.m. de la distribucion Cauchy: “Como φ(t) = e−|t|

y M(t) = φ(−it) entonces M(t) = e−|−it| = e−|t|.”

549. Sean X1, . . . , Xn v.a.i.i.d. con distribucion Cauchy estandar, es decir,la funcion caracterıstica de cada una de estas variables es

φ(t) = e−|t|.

Use este resultado para demostrar que la v.a. Sn = (X1 + · · ·+Xn)/ntiene distribucion Cauchy estandar para cualquier valor de n.

177

Capıtulo 8

Teoremas lımite

En este capıtulo estudiamos dos de los teoremas mas importantes en prob-abilidad, la ley de los grandes numeros y el teorema del lımite central.

8.1. Desigualdades de Markov y de Chebyshev

Proposicion 72 (Desigualdad de Markov) Sea X ≥ 0 con esperanzafinita. Para cualquier ǫ > 0,

P (X > ǫ) ≤ E(X)

ǫ. (8.1)

Demostracion.

E(X) = E( X · 1(X>ǫ) +X · 1(X≥ǫ) )

≥ E( X · 1(X>ǫ) )

≥ E( ǫ · 1(X>ǫ) )

= ǫP (X > ǫ).

La desigualdad de Markov establece que la probabilidad de que X excedaun valor ǫ esta acotada superiormente por la media entre ǫ. Las siguientesdesigualdades equivalentes a la demostrada tambien se conocen como de-sigualdades de Markov. Para cualquier ǫ > 0,

1. P (|X| > ǫ) ≤ E|X|ǫ

.

2. P (|X| > ǫ) ≤ E|X|nǫn

.

178

Figura 8.1: Andrei Andreyevich Markov (Rusia 1856–1922).

Proposicion 73 (Desigualdad de Chebyshev) Sea X con media µ yvarianza σ2 <∞. Para cualquier ǫ > 0,

P (|X − µ| > ǫ) ≤ σ2

ǫ2. (8.2)

Demostracion.

σ2 = E[(X − µ)2

]

= E[

(X − µ)2 · 1(|X−µ|>ǫ) + (X − µ)2 · 1(|X−µ|≤ǫ)

]

≥ E[

(X − µ)2 · 1(|X−µ|>ǫ)

]

≥ E[ǫ2 · 1(|X−µ|>ǫ)

]

= ǫ2P (|X − µ| > ǫ).

La desigualdad de Chebyshev dice que la probabilidad de que X difierade su media en mas de ǫ esta acotada superiormente por la varianza entreǫ2. A esta desigualdad tambien se le conoce con el nombre de desigualdadde Chebyshev-Bienayme. Las siguientes desigualdades son versiones equiva-lentes de la desigualdad de Chebyshev. Para cualquier ǫ > 0,

1. P (|X − µ| > ǫσ) ≤ 1/ǫ2.

2. P (|X − µ| ≤ ǫσ) ≥ 1 − 1/ǫ2.

3. P (|X − µ)| ≤ ǫ) ≥ 1 − σ2

ǫ2.

179

Figura 8.2: Pafnuty Lvovich Chebyshev (Rusia 1821–1894).

Proposicion 74 (Desigualdad de Chebyshev extendida) Sea X unavariable aleatoria y sea g ≥ 0 una funcion no decreciente tal que g(X) tieneesperanza finita. Para cualquier ǫ > 0,

P (X > ǫ) ≤ E[g(X)]

g(ǫ). (8.3)

Demostracion.

E[g(X)] = E[ g(X) · 1(X>ǫ) + g(X) · 1(X≥ǫ) ]

≥ E[ g(X) · 1(X>ǫ) ]

≥ E[ g(ǫ) · 1(X>ǫ) ]

= g(ǫ)P (X > ǫ).

A partir de la desigualdad de Chebyshev extendida y con una funcion gadecuada se pueden obtener tanto la desigualdad de Chebyshev como ladesigualdad de Markov. En la siguiente seccion se usara la desigualdad deChebyshev para demostrar la ley debil de los grandes numeros.

180

En resumen tenemos la siguiente tabla.

Desigualdades de Markov y de Chebyshev

1. Markov: Para ǫ > 0a) X ≥ 0 =⇒ P (X > ǫ) ≤ E(X)/ǫb) P (|X| > ǫ) ≤ E|X|/ǫc) P (|X| > ǫ) ≤ E|X|n/ǫn

2. Chebyshev: Para ǫ > 0a) P (|X − µ| > ǫ) ≤ Var(X)/ǫ2

b) P (X > ǫ) ≤ E[g(X)]/g(ǫ) con g ≥ 0 no decreciente

EJERCICIOS

550. Enuncie y demuestre la desigualdad de Markov.

551. Demuestre la desigualdad de Markov siguiendo los siguientes pasos.Suponga X ≥ 0.

a) Para ǫ > 0 defina

Xǫ =

ǫ si X > ǫ,0 si X ≤ ǫ.

b) Compruebe que Xǫ ≤ X.

c) Tome esperanzas de ambos lados y calcule E(Xǫ).

552. Demuestre directamente las siguientes versiones de la desigualdad deMarkov. Para cualquier ǫ > 0,

a) P (|X| > ǫ) ≤ E|X|ǫ

.

b) P (|X| > ǫ) ≤ E|X|nǫn

.

553. Demuestre que la convergencia en media implica la convergencia enprobabilidad usando la desigualdad de Markov aplicada a la variablealeatoria no negativa |Xn −X|.

554. Enuncie y demuestre la desigualdad de Chebyshev.

555. Use la desigualdad de Chebyshev para demostrar directamente que laconvergencia en media cuadratica implica la convergencia en probabil-idad.

556. Demuestre la desigualdad de Chebyshev (8.2) usando la desigualdadde Markov (8.1) aplicada a la v.a. no negativa |X − µ|.

181

557. Use la desigualdad de Chebyshev para demostrar que si X es unavariable aleatoria tal que E(X) = a y E(X2) = 0 entonces X esconstante casi seguramente, es decir, P (X = a) = 1.

558. Sea X con media µ y varianza σ2. Use la desigualdad de Chebyshevpara estimar la probabilidad de que X tome valores entre µ − ǫσ yµ+ ǫσ para ǫ > 0 constante.

559. Enuncie y demuestre la version de Chebyshev extendida.

560. A partir de la desigualdad de Chebyshev extendida (8.3) demuestre ladesigualdad de Chebyshev (8.2) y la desigualdad de Markov (8.1).

561. Demuestre que P (|X| > ǫ) ≤ E|X|ǫ

para ǫ > 0,

a) usando la desigualdad de Chebyshev extendida.

b) de manera directa.

562. Demuestre que P (|X| > ǫ) ≤ E|X|nǫn

para ǫ > 0 y n ∈ N,

a) usando la desigualdad de Chebyshev extendida.

b) de manera directa.

563. Demuestre que P (X > ǫ) ≤ E(etX)

eǫtpara ǫ > 0 y t > 0,

a) usando la desigualdad de Chebyshev extendida.

b) de manera directa.

564. Sea X con funcion de densidad

f(x) =

1/18 si x = −1, 1,16/18 si x = 0,0 otro caso.

Demuestre que P (|X − µ| > 3σ) y la estimacion dada por la desigual-dad de Chebyshev para esta probabilidad coinciden. Este ejercicio de-muestra que en general la cota superior dada por la desigualdad deChebyshev es optima, es decir, no puede establecerse una cota superi-or mas pequena.

565. Considere la siguiente version de la desigualdad de Chebyshev

P (|X − µ| ≤ ǫσ) ≥ 1 − 1/ǫ2.

Encuentre el mınimo valor de ǫ > 0 de tal modo que la probabilidadde que una variable aleatoria tome valores entre µ − ǫσ y µ + ǫσ seaal menos 0.90.

182

8.2. Ley de los grandes numeros

En esta seccion se estudia uno de los teoremas mas importantes de la teorıaclasica de la probabilidad. Se conoce como la ley de los grandes numeros yestablece que, bajo ciertas condiciones, el promedio de variables aleatoriasconverge a una constante cuando el numero de sumandos crece a infinito.Mas precisamente el resultado es el siguiente.

Teorema 5 (Ley debil de los grandes numeros) Sean X1, X2, . . . in-dependientes tales que E(Xi) = µ. Para cualquier ǫ > 0,

lımn→∞

P (| 1n

n∑

i=1

Xi − µ| ≥ ǫ) = 0.

Demostracion. (Suponiendo segundo momento finito.) Sea Sn = (X1 + · · ·+Xn)/n. Entonces E(Sn) = µ y Var(Sn) ≤ σ2/n asumiendo Var(Xi) ≤ σ2 <∞. La desigualdad de Chebyshev aplicada a Sn establece que para cualquierǫ > 0 se cumple P (|Sn − µ| ≥ ǫ) ≤ σ2/nǫ2. Basta ahora tomar el lımitecuando n tiende a infinito para obtener el resultado requerido.

La ley debil de los grandes numeros establece entonces que la variable aleato-ria Sn = (X1 + · · · + Xn)/n converge en probabilidad a la media comunµ. Observe que para la demostracion de este resultado no hemos supuestoidentica distribucion para las variables aleatorias involucradas, unicamenteque tengan la misma media, que sean independientes y aunque las varianzaspueden ser diferentes, se ha necesitado que sean uniformemente acotadas.Damos a continuacion un ejemplo sencillo de aplicacion de este resultado ymas adelante demostraremos una version mas fuerte de la ley de los grandesnumeros.

Ejemplo 19 (Definicion de probabilidad frecuentista) Considere unexperimento aleatorio cualquiera y sea A un evento. Se repite sucesivamenteel experimento y se observa en cada ensayo la ocurrencia o no ocurrencia delevento A. Sea Xk la variable que toma el valor uno si en el k-esimo ensayose observa A y cero en caso contrario. Entonces X1, X2, . . . son variablesaleatorias independientes con distribucion Ber(p) en donde p es la probabil-idad desconocida del evento A. Entonces E(Xk) = p y Var(Xk) = p(1 − p).La ley debil de los grandes numeros asegura que la fraccion de ensayos en losque se observa el evento A converge, en probabilidad, a la constante descono-cida p cuando el numero de ensayos crece a infinito. Esta es la definicionfrecuentista de la probabilidad y hemos entonces corroborado su validez conayuda de la ley de los grandes numeros.

La siguiente version de la ley de los grandes numeros asegura que bajo ciertas

183

condiciones la convergencia de (X1 + · · ·+Xn)/n a la media µ es mas fuerte,es casi segura.

Teorema 6 (Ley fuerte de los grandes numeros) Sean X1, X2, . . . in-dependientes e identicamente distribuidas tales que E(Xi) = µ. Entonces

P ( lımn→∞

1

n

n∑

i=1

Xi = µ) = 1.

Demostracion. (Suponiendo cuarto momento finito.) Dada la identica dis-tribucion cualquier elemento de la sucesion se denota simplemente por X.Observe que E(X − µ) = 0. Entonces por independencia,

E[(

n∑

i=1

(Xi − µ))4] = nE[(X − µ)4] + 3n(n− 1)σ4

= an+ bn2,

para ciertas constante a y b. Por la desigualdad de Chebyshev (8.3) aplicadaa la v.a. |∑n

i=1(Xi − µ)| y la funcion g(x) = x4 se obtiene, para ǫ > 0,

P (|n∑

i=1

(Xi − µ)| ≥ nǫ) ≤ an+ bn2

(nǫ)4.

Sea el evento An = (| 1n∑n

i=1Xi − µ| ≥ ǫ). Entonces∑∞

n=1 P (An) <∞. Porel lema de Borel Cantelli la probabilidad de que ocurra una infinidad deeventos An es cero, es decir, con probabilidad uno, solo un numero finito deestos eventos ocurre. Por lo tanto con probabilidad uno, existe un numeronatural n a partir del cual ningun evento An se verifica. Es decir,

P ( lımn→∞

| 1n

n∑

i=1

Xi − µ| < ǫ) = 1.

Como esta afirmacion vale para cualquier ǫ > 0, se cumple que

P ( lımn→∞

1

n

n∑

i=1

Xi = µ) = 1.

EJERCICIOS

566. Enuncie la ley debil de los grandes numeros y use la desigualdad deChebyshev para demostrarla.

184

567. Use la ley debil de los grandes numeros para demostrar que si Xn tienedistribucion bin(n, p) entonces cuando n→ ∞,

1

nXn

p−→ p.

568. Enuncie la ley fuerte de los grandes numeros.

569. (Ley de los grandes numeros en media cuadratica.) Demuestre quesi X1, X2, . . . es una sucesion de v.a.s independientes con media µ yvarianza σ2 entonces

1

n

n∑

i=1

Xim.c.−→ µ.

Observe que no se pide la hipotesis de identica distribucion para lasvariables aleatorias y que este resultado no es consecuencia de la leyfuerte.

570. SeanX1, . . . , Xn independientes con distribucion N(µ, σ2). Para cualquiervalor de n,

X1 + · · · +Xn

n∼ N(µ, σ2/n).

¿Contradice esto la ley de los grandes numeros?

571. En el ejercicio 549 se pide usar la f.c. para demostrar que si X1, . . . , Xn

son v.a.i.i.d. con distribucion Cauchy estandar entonces el promedioSn = (X1 + · · · +Xn)/n tiene distribucion Cauchy estandar indepen-dientemente del valor de n. ¿Contradice esto la ley de los grandesnumeros?

8.3. Teorema del lımite central

Concluimos el curso con el celebre y famoso teorema del lımite central. Esteresultado es de amplio uso en estadıstica y otras ramas de aplicacion de laprobabilidad.

Teorema 7 (Teorema del lımite central) Sean X1, X2 . . . independi-entes e identicamente distribuidas tales que E(Xi) = µ y Var(Xi) = σ2 <∞.Para cualquier x en R,

lımn→∞

P

[(X1 + · · · +Xn) − nµ√

nσ≤ x

]

= P (Z ≤ x),

en donde Z tiene distribucion N(0, 1).

185

Este resultado establece entonces que la variable aleatoria

(X1 + · · · +Xn) − nµ√nσ

converge en distribucion a una variable aleatoria normal estandar sin im-portar la distribucion original de las variables X. Observe que la suma(X1 + · · ·+Xn) tiene media nµ y varianza nσ2, de modo que la expresion dearriba es una especie de estandarizacion de esta variable. Equivalentementeeste resultado puede enunciarse del siguiente modo

1n(X1 + · · · +Xn) − µ

σ/√n

d−→ N(0, 1).

A fin de dar una demostracion simple de este resultado supondremos adi-cionalmente que los elementos de la sucesion tienen momentos finitos decualquier orden. Esta demostracion hace uso de la funcion caracterıstica.

Demostracion.(Suponiendo todos los momentos finitos.) Observe que

(X1 + · · · +Xn) − nµ√nσ

=[(X1 − µ)/σ + · · · + (Xn − µ)/σ]√

n

en donde cada sumando del numerador en el lado derecho es una variable conmedia cero y varianza uno. Asi pues, sin perdida de generalidad supondremosque cada Xi tiene media cero y varianza uno y consideraremos la suma

Zn =X1 + · · · +Xn√

n.

Se desea probar que Znd→ N(0, 1). Para ello es suficiente demostrar que

lımn→∞

φZn(t) = e−t2/2.

Tenemos que por independencia e identica distribucion,

φZn(t) = E

[

eit(X1+···+Xn)/√

n]

=[φX

(t/√n)]n

.

Por lo tanto,

lnφZn(t) = n lnφX(t/

√n)

= n ln

(

1 +itE(X)√

n+i2t2E(X2)

2!n+i3t3E(X3)

3!n3/2+ · · ·

)

.

Usando la formula ln(1 +x) = x− 1

2x2 +

1

3x3 − · · · y factorizando potencias

de it se obtiene

lnφZn(t) =

(E(X2) − E2(X)

)i2t2/2

+

(E(X3)

3!√n

− E(X)E(X2)

2√n

+E3(X)

3√n

)i3t3√n

+ · · ·

186

El primer sumando es −t2/2 y todos los terminos a partir del segundo suman-do se anulan cuando n tiende a infinito. Por lo tanto,

lımn→∞

lnφZn(t) = −t2/2.

Como la funcion logaritmo es una funcion continua tenemos que

ln(

lımn→∞

φZn(t))

= −t2/2.

De donde se obtienelım

n→∞φZn

(t) = e−t2/2.

EJERCICIOS

572. Enuncie con precision el teorema del lımite central.

573. Use el teorema del lımite central para estimar la probabilidad de obten-er mas de 520 aguilas en 1000 lanzamientos de una moneda honesta.

574. Sea Xn : n = 1, 2, . . . una sucesion de v.a.i.i.d. con distribucionPoisson(λ) con λ = 1. Use el teorema del lımite central para demostrarque

lımn→∞

1

en

n∑

k=0

nk

k!=

1

2.

575. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3.¿Cual es la probabilidad de que la frecuencia relativa de este eventoen 100 ensayos se encuentre entre 0.2 y 0.5?

187

Apendice A

Distribuciones deprobabilidad

Se presenta a continuacion una lista con algunas distribuciones de proba-bilidad de uso comun. Las letras µ y σ2 denotan la esperanza y varianzarespectivamente. La funcion generadora de probabilidad es G(t), la gener-adora de la momentos es M(t) y la funcion caracterıstica es φ(t).

DISTRIBUCIONES UNIVARIADAS DISCRETAS

Distribucion uniforme

X ∼ unifx1, . . . , xn con n ∈ N.f(x) = 1/n para x = x1, . . . , xn.E(X) = 1

n

∑nj=1 xj .

Var(X) = 1n

∑nj=1(xj − µ)2.

M(t) = 1n

∑nj=1 e

xjt.

Distribucion Bernoulli

X ∼ Ber(p) con p ∈ (0, 1).f(x) = px(1 − p)1−x para x = 0, 1.E(X) = p.Var(X) = p(1 − p).G(t) = 1 − p+ pt.M(t) = (1 − p) + pet.

Distribucion binomial

X ∼ bin(n, p) con n ∈ 1, 2, . . . y p ∈ (0, 1).

188

f(x) =

(nx

)

px(1 − p)n−x para x = 0, 1, . . . , n.

E(X) = np.Var(X) = np(1 − p).G(t) = (1 − p+ pt)n.M(t) = [(1 − p) + pet]n.

Distribucion geometrica

X ∼ geo(p), con p ∈ (0, 1) y q = 1 − pf(x) = p(1 − p)x para x = 0, 1, . . .E(X) = q/p.Var(X) = q/p2.G(t) = p/[1 − t(1 − p)].M(t) = p/[1 − (1 − p)et].

Distribucion Poisson

X ∼ Poisson(λ) con λ > 0.

f(x) = e−λλx

x!para x = 0, 1, . . .

E(X) = λ.Var(X) = λ.G(t) = e−λ(1−t).M(t) = exp[λ(et − 1)].

Distribucion binomial negativa

X ∼ bin neg(r, p) con p ∈ (0, 1) y r ∈ 1, 2, . . ..f(x) =

(r + x− 1

x

)

pr(1 − p)x para x = 0, 1, . . .

E(X) = r(1 − p)/p.Var(X) = r(1 − p)/p2.G(t) = [p/(1 − t(1 − p))]r.M(t) = [p/(1 − qet)]r.

Distribucion hipergeometrica

X ∼ hipergeo(N,K, n) con N,K, n ∈ 1, 2, . . . y n ≤ K ≤ N .

f(x) =

(Kx

)(N −Kn− x

)

/

(Nn

)

para x = 0, 1, . . . , n.

E(X) = nK/N .Var(X) = nK

NN−K

NN−nN−1 .

DISTRIBUCIONES UNIVARIADAS CONTINUAS

189

Distribucion uniforme

X ∼ unif(a, b) con a < b.f(x) = 1/(b− a) para x ∈ (a, b).F (x) = (x− a)/(b− a) para x ∈ (a, b).E(X) = (a+ b)/2.Var(X) = (b− a)2/12.M(t) = (ebt − eat)/(bt− at).

Distribucion exponencial

X ∼ exp(λ) con λ > 0.f(x) = λe−λx para x > 0.F (x) = 1 − e−λx para x > 0.E(X) = 1/λ.Var(X) = 1/λ2.M(t) = λ/(λ− t) para t < λ.

Distribucion gama

X ∼ gama(n, λ) con λ > 0 y n > 0.

f(x) =(λx)n−1

Γ(n)λe−λx para x > 0.

F (x) = 1 − e−λx∑n−1

j=0 (λx)j/j! para x > 0.E(X) = n/λ.Var(X) = n/λ2.M(t) = [λ/(λ− t)]n para t < λ.

Distribucion beta

X ∼ beta(a, b) con a > 0, b > 0.f(x) = xa−1(1 − x)b−1/B(a, b) para x ∈ (0, 1).E(X) = a/(a+ b).Var(X) = ab/[(a+ b+ 1)(a+ b)2].

Distribucion normal

X ∼ N(µ, σ2) con µ ∈ R y σ2 > 0.

f(x) =1√

2πσ2e−(x−µ)2/2σ2

.

E(X) = µ.Var(X) = σ2.M(t) = exp(µt+ σ2t2/2).φ(t) = exp(iµt− σ2t2/2).Cuando µ = 0 y σ2 = 1 se obtiene la distribucion normal estandar.

190

Distribucion ji-cuadrada

X ∼ χ2(n) con n > 0.

f(x) =1

Γ(n/2)

(1

2

)n/2

xn/2−1e−x/2 para x > 0.

E(X) = n.Var(X) = 2n.M(t) = (1 − 2t)−n/2 para t < 1/2.

Distribucion t

X ∼ t(n) con n > 0.

f(x) =Γ(n+ 1/2)√nπ Γ(n/2)

(1 +x2

n)−n−1/2.

E(X) = 0.Var(X) = n/(n− 2) para n > 2.M(t) no existe para t 6= 0.φ(t) = exp(|t|).

Distribucion log normal

X ∼ log normal(µ, σ2) con µ ∈ R y σ2 > 0.

f(x) =1

x√

2πσ2exp[−(lnx− µ)2/2σ2] para x > 0.

E(X) = exp(µ+ σ2/2).E(Xn) = exp(nµ+ n2σ2/2).Var(X) = exp(2µ+ 2σ2) − exp(2µ+ σ2).

Distribucion Pareto

X ∼ Pareto(a, b) con a, b > 0.

f(x) =aba

(a+ x)a+1para x > 0.

F (x) = 1 − [b/(b+ x)]a para x > 0.E(X) = b/(a− 1) para a > 1.Var(X) = ab2/[(a− 1)2(a− 2)] para a > 2.

Distribucion Weibull

X ∼ Weibull(r, λ) con r, λ > 0.f(x) = e−(λx)r

rλrxr−1 para x > 0.F (x) = 1 − e−(λx)r

para x > 0.E(X) = Γ(1 + 1/r)/λ.Var(X) = [Γ(1 + 2/r) − Γ2(1 + 1/r)]/λ2.

Distribucion Cauchy

191

X ∼ Cauchy(a, b) con b > 0.

f(x) =1

bπ[1 + ((x− a)/b)2].

E(X) y Var(X) no existen.Cuando a = 0 y b = 1 se obtiene la distribucion Cauchy estandar. En estecaso,

f(x) =1

π(1 + x2).

F (x) = 1/2 + (arctanx)/π.

192

Apendice B

Formulario

El alfabeto griego

A α alpha I ι iota P ρ, rhoB β beta K κ kappa Σ σ, ς sigmaΓ γ gamma Λ λ lambda T τ tau∆ δ delta M µ mu Υ υ upsilonE ǫ, ε epsilon N ν nu Φ φ, ϕ phiZ ζ zeta Ξ ξ xi X χ chiH η eta O o omikron Ψ ψ psiΘ θ, ϑ theta Π π pi Ω ω omega

1. σ-algebra

a) Ω ∈ F .

b) A ∈ F ⇒ Ac ∈ F .

c) A1, A2, . . . ∈ F ⇒∞⋃

n=1

An ∈ F .

2. Axiomas de la probabilidad

a) P (Ω) = 1.

b) P (A) ≥ 0, para A ∈ F .

c) A1, A2, . . . ∈ F ajenos dos a dos ⇒ P (∞⋃

n=1

An) =∞∑

n=1

P (An).

3. Esperanza E(X) =

∫ ∞

−∞x dF (x)

a) E(c) = c

b) E(cX) = cE(X)

193

c) E(X + Y ) = E(X) + E(Y )

d) X ≥ 0 =⇒ E(X) ≥ 0.

e) X ≤ Y =⇒ E(X) ≤ E(Y ).

4. Varianza Var(X) = E(X − µ)2.

Es un numero no negativo que indica el grado de dispersion de lavariable aleatoria. Cumple

a) Var(cX) = c2Var(X).

b) Var(X + c) = Var(X).

c) Var(X) = E(X2) − E2(X).

d) Var(X + Y ) 6= Var(X) + Var(Y ) (excepto caso independencia).

5. Covarianza Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))].

a) Cov(X,Y ) = E(XY ) − E(X)E(Y ).

b) Cov(X,Y ) = Cov(Y,X).

c) Cov(X,X) = Var(X).

d) Cov(a, Y ) = 0, a constante.

e) Cov(aX, Y ) = aCov(X,Y ), a constante.

f ) Cov(X1 +X2, Y ) = Cov(X1, Y ) + Cov(X2, Y ).

g) X,Y indep =⇒ Cov(X,Y ) = 0.

h) Cov(X,Y ) = 0 6=⇒ X,Y indep (excepto caso normal).

6. Coeficiente de correlacion ρ(X,Y ) =Cov(X,Y )

Var(X) Var(Y ).

Es un numero en [−1, 1] que representa una medida del grado de de-pendencia lineal entre dos variables aleatorias. Cuando Y = aX + bcon a 6= 0 y b constantes se cumple |ρ(X,Y )| = 1 y viceversa. Si X y Yson independientes entonces ρ(X,Y ) = 0, el recıproco es falso exceptoen el caso normal.

7. Transformaciones

SiX es una variable aleatoria y φ es una funcion estrictamente monotonay con inversa diferenciable entonces la variable aleatoria Y = φ(X)tiene funcion de densidad

fY (y) = fX(φ−1(y)) | ddyφ−1(y)|.

En el caso bidimensional, si (U, V ) = φ(X,Y ) con φ continua y coninversa diferenciable entonces

fU,V (u, v) = fX,Y (φ−1(u, v)) |J(u, v)|,

en donde J(u, v) =

∣∣∣∣∣∣∣

∂φ−11

∂u

∂φ−11

∂v∂φ−1

2

∂u

∂φ−12

∂v

∣∣∣∣∣∣∣

.

En particular se cumplen las siguiente formulas

194

a) fX+Y (u) =

∫ ∞

−∞fX,Y (u− v, v) dv

b) fX−Y (u) =

∫ ∞

−∞fX,Y (u+ v, v) dv

c) fXY (u) =

∫ ∞

−∞fX,Y (u/v, v)

∣∣∣∣

1

v

∣∣∣∣dv

d) fX/Y (u) =

∫ ∞

−∞fX,Y (uv, v) |v| dv

8. Funcion generadora de probabilidad G(t) = E(tX).

Se utiliza principalmente para distribuciones discretas. Cuando existedetermina de manera unica a la distribucion de probabilidad. Generalos momentos factoriales a traves de la formula

G(n)(1) = E[X(X − 1) · · · (X − n+ 1)],

cuando estos momentos existen. Cumple ademas

a) X,Y indep ⇒ GX+Y (t) = GX(t)GY (t), el recıproco es falso.

9. Funcion generadora de momentos M(t) = E(etX).

Esta funcion no existe para todas las distribuciones de probabilidad.Cuando existe en algun intervalo no trivial alrededor de t = 0 deter-mina de manera unica a la distribucion de probabilidad. Genera losmomentos a traves de la formula M (n)(0) = E(Xn). Ademas cumple

a) X,Y indep ⇒ MX+Y (t) = MX(t)MY (t), el recıproco es falso.

b) Xnd→ X si y solo si MXn

(t) → MX(t) para cada t en (−ǫ, ǫ),ǫ > 0.

10. Funcion caracterıstica φ(t) = E(eitX).

Es una funcion que siempre existe y determina de manera unica ala distribucion de probabilidad. Genera los momentos a traves de laformula φ(n)(0) = inE(Xn) cuando estos momentos existen. Ademascumple

a) X, Y indep ⇒ φX+Y (t) = φX(t)φY (t), el recıproco es falso.

b) Xnd→ X si y solo si φXn

(t) → φX(t) para cada t en R.

c) F (x+ h) − F (x) = lımT→∞

1

∫ T

−T

1 − e−ith

ite−itxφ(t) dt (Levy).

d) f(x) = lımT→∞

1

∫ T

−Te−itxφ(t) dt.

11. Ley de los grandes numeros1

n

n∑

i=1

Xi −→ µ

12. Teorema del lımite central(X1 + · · · +Xn) − nµ√

d−→ N(0, 1)

195

Apendice C

Tabla de la distribucionnormal estandar

Φ(x) =1√2π

∫ x

−∞e−t2/2dt

x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.53590.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.57530.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.61410.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.65170.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879

0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.72240.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.75490.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.78520.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.81330.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8399

1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.86211.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.88301.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.90151.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.91771.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319

1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.94411.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.95451.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.96331.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.97061.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767

2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.98172.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.98572.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.98902.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.99162.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936

2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.99522.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.99642.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.99742.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.99812.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.99903.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.99933.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.99953.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.99973.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998

196

Bibliografıa

[1] Blake I.F. (1979) An introduction to applied probability. Wiley.

[2] Cohn D.L. (1980) Measure theory. Birkhauser.

[3] Feller W. (1978) Introduccion a la teorıa de las probabilidades y susaplicaciones. Vol. I y II. Limusa.

[4] Grimmett G.R., Stirzaker D.R. (1982) Probability and random process-es. Clarendon Press.

[5] Grimmett G.R., Stirzaker D.R. (1986) Probability: an introduction. Ox-ford University Press.

[6] Grimmett G.R. , Stirzaker D.R. (2001) One thousand exercises in prob-ability. Oxford University Press.

[7] Halmos P.R. (1960) Measure theory. Van Nostrand.

[8] Harris B. (1966) Theory of probability. Addison–Wesley.

[9] Hoel P., Port S., Stone C. (1971) Probability theory. Houghton MifflinCo.

[10] Jacod D., Protter P. (2000) Probability essentials. Springer–Verlag.

[11] Karr A.F. (1993) Probability. Springer–Verlag.

[12] Laha R. G., Rohatgi V. K. (1979) Probability theory. John Wiley &Sons.

[13] Miller I., Miller M. (1999) John E. Freund’s mathematical statistics -6th ed. Prentice–Hall.

[14] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the theoryof statistics. McGraw Hill.

[15] Parzen E. (1960) Modern probability theory and its applications. Wiley.

[16] Resnick S.I. (1999) A probability path. Birkhauser.

[17] Rincon L. (2004) ¿Que es la esperanza condicional? MiscelaneaMatematica. No. 37, Agosto 2004, SMM.

197

[18] Romano J.P. , Siegel A.F. (1986) Counterexamples in probability andstatistics. Chapman & Hall.

[19] Rosenthal J.S. (2000) A first look at rigorous probability theory. WorldScientific.

[20] Ross S. (1976) A first course in probability. Prentice Hall.

[21] Williams D. (1991) Probability with martingales. Cambridge UniversityPress.

[22] Williams D. (2001) Weighing the odds: a course in probability ans statis-tics. Cambridge University Press.

198

Indice

σ-algebra, 5generada, 8mınima generada, 8

σ-algebra, 4de Borel, 11

Borel-Cantelli, 34

Coeficiente de correlacion, 105Conjunto

Borel medible, 11Boreliano, 11de Borel, 11medible, 5

Continuidad de la prob, 29, 30Convergencia

casi dondequiera, 151casi segura, 151casi siempre, 151debil, 154de eventos, 15en distribucion, 154en media, 153en media cuadratica, 154en probabilidad, 152puntual, 150puntual de v.a.s, 150

Convolucion, 120Covarianza, 102

Desigualdadde Bonferroni, 28de Boole, 24de Cauchy-Schwarz, 62de Chebyshev, 179, 180de Kounias, 28de Markov, 178

Distribucionarcoseno, 75Bernoulli, 64, 188

beta, 74, 190binomial, 65, 188binomial negativa, 68, 189Cauchy, 191exponencial, 71, 190exponencial doble, 72F de Snedecor, 138gama, 72, 190geometrica, 66, 189hipergeometrica, 69, 189hipergeometrica multivariada, 111ji-cuadrada, 131, 191log normal, 78, 115, 191multinomial, 110normal, 76, 190normal bivariada, 112Pareto, 191Poisson, 67, 189t de Student, 136, 191uniforme continua, 70, 190uniforme discreta, 63, 188Weibull, 191

Espaciode probabilidad, 4, 5medible, 5muestral, 4

Esperanzacondicional, 96de un vector, 99de una funcion de un vector, 99de una v.a., 55

Estadısticas de orden, 141Estadıstica, 130Evento, 4

Funcion caracterıstica, 171formula de inversion, 172, 173teorema de continuidad, 174teorema de unicidad, 173

199

Funcion de densidadcondicional, 89conjunta, 84marginal, 87

Funcion de distribucion, 44condicional, 89conjunta, 81marginal, 87

Funcion generadorade momentos, 166de probabilidad, 162

Independenciade σ-algebras, 33de eventos, 32de v.a.s, 91

Integral de Riemann-Stieltjes, 53

Lımite inferior, 15Lımite superior, 15Ley de los grandes numeros, 183

debil, 183fuerte, 184

Matriz de varianzas, 99Media, 56

muestral, 130Medida de probabilidad, 5, 20Momentos, 61

absolutos, 61centrales, 61centrales absolutos, 61

Muestra aleatoria, 130

Teoremade cambio de variable, 114, 116de convergencia dominada, 160de convergencia monotona, 160del lımite central, 185

Valor esperado, 56Valor medio, 56Valor promedio, 56Variable aleatoria, 36

continua, 51discreta, 50mixta, 51

Varianzacondicional, 98

de un vector, 99de una v.a., 59muestral, 130

Vector aleatorio, 80continuo, 81discreto, 81

200