Está en la página 1de 140

Probabilidad

APUNTES DE CLASE
Leandro Pardo Llorente
transcritos por
David Peñas
Manuel Morán
Departamento de Estadística e Investigación Operativa
Facultad de Ciencias Matemáticas
Universidad Complutense de Madrid

Febrero 2013
Documento maquetado con TEXiS v.1.0+.

Este documento está preparado para ser imprimido a doble cara.


Probabilidad

Apuntes de clase para los alumnos


Doble grado en Ingeniería Informática-Matemáticas
Doble grado en Matemáticas y Físicas

Versión 1.0+

Departamento de Estadística e Investigación Operativa


Facultad de Ciencias Matemáticas
Universidad Complutense de Madrid

Febrero 2013
A Iñigo,
compañero y amigo.
Agradecimientos

En primer lugar, gracias a Leandro por permitirme llevar a cabo este


proyecto, siendo todo el contenido de estos apuntes obra suya y a aquellos
que me ayudaron: Miguel, Jaime, Mayra, Íñigo e Iker. Merece un especial
agradecimiento David, quien se encargó de la generación y edición completa
de lo que son ahora estos apuntes, además de ir añadiendo cosas nuevas que
Leandro iba dando en clases. Este proyecto es más suyo que mío, ya que al
fin y al cabo me dediqué únicamente a la revisión técnica.

Manuel

Gracias a todos los que lográisteis hacer que estas notas que hoy están
aquí puedan existir. A Jaime, Mayra y Miguel por esos ratos que estuvieron
escribiendo y a Jesús, Quique e Íñigo por la correción de erratas, que han
sido numerosas a lo largo del proyecto. A Iker doblemente agradecido, no
sólo por escribir, si no por las erratas y sugerencias que todos los días tenía
para mí.
Sentido agradecimiento a Manuel Blanco, por haber sido guía maquetan-
do el documuento y por estar ahí siempre que esto no compilaba. Su calidad
como editor de LATEX es incuestionable. Además, gran parte del Capítulo 5
es de su mano, debido a la imposibilidad por mi parte por tener los apuntes
a tiempo.

David

vii
Resumen

Azar: casualidad, caso fortuito.


Diccionario de la RAE

No puede resumirse más el contenido de esta obra que el que se ofrece


en la portada. Probabilidad. Mundanamente se define la probabilidad como
la fuerza u ocurrencia con la que se obtiene un resultado (o un conjunto de
ellos) al realizar experimentos aleatorios. Al menos esa es la primera noción
que el ser humano tiene de probabilidad.
Y en esencia es así. Lo que hay por detrás de esa idea (lo aquí expues-
to) no es más que fundamentación matemática de este concepto a la vista
tan sencillo. Solo que se aplica a procesos muchos más complejos y muchas
ocasiones, a sucesos potenciales.
La transcripción de estos apuntes busca plasmar una teoría del cálculo de
probabilidades que cualquier alumno de ciencias ó ingeniería debe manejar
con soltura.

Suerte en tu aventura con ellos.

ix
Índice

Agradecimientos VII

Resumen IX

1. Introducción 1
1.1. Experimentos aleatorios . . . . . . . . . . . . . . . . . . . . . 1
1.2. Límites de sucesiones de conjuntos . . . . . . . . . . . . . . . 2
1.3. Álgebras y σ-álgebras . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Generación de álgebras y σ-álgebras . . . . . . . . . . 6
1.3.2. σ-álgebras particulares . . . . . . . . . . . . . . . . . . 7

2. Probabilidad 9
2.1. Frecuencia absoluta y frecuencia relativa . . . . . . . . . . . . 9
2.2. Definición axiomática de probabilidad . . . . . . . . . . . . . 9
2.3. Espacio de probabilidad discreto. Análisis combinatorio. . . . 17
2.3.1. Breve repaso de combinatoria . . . . . . . . . . . . . . 18
2.4. Probabilidad condicionada e independencia de sucesos . . . . 20
2.4.1. Teorema de la probabilidad total . . . . . . . . . . . . 22
2.4.2. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . 23
2.4.3. Independencia de sucesos . . . . . . . . . . . . . . . . 24
2.5. Función de distribución en R . . . . . . . . . . . . . . . . . . 27

3. Variables aleatorias unidimensionales 31


3.1. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1. Concepto de variable aleatoria. Propiedades . . . . . . 31
3.1.2. Probabilidad inducida por una variable aleatoria . . . 35
3.1.3. Transformaciones de una variable aleatoria . . . . . . 38
3.2. Características de las variables aleatorias unidimensionales . . 43
3.2.1. La esperanza matemática . . . . . . . . . . . . . . . . 43

xi
xii Índice

3.3. Otras medidas de centralización . . . . . . . . . . . . . . . . . 47


3.3.1. Momento de orden k centrado en origen . . . . . . . . 47
3.3.2. Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.3. Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4. Medidas de dispersión de una variable aleatoria . . . . . . . . 49
3.4.1. Varianza y desviación típica . . . . . . . . . . . . . . . 49
3.4.2. Momento de orden k respecto de la media . . . . . . . 51
3.5. La desigualdad de Tchebychev. Aplicaciones . . . . . . . . . . 52
3.6. Función generatriz de momentos. Función característica . . . 53
3.7. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . 56
3.7.1. Distribución de Bernoulli pBerppqq . . . . . . . . . . . 56
3.7.2. Distribución binomial pBpn, pqq . . . . . . . . . . . . . 57
3.7.3. Distribución de Poisson . . . . . . . . . . . . . . . . . 59
3.7.4. Distribución geométrica o de Pascal . . . . . . . . . . 60
3.7.5. Distribución binomial negativa . . . . . . . . . . . . . 62
3.7.6. Distribución hipergeométrica . . . . . . . . . . . . . . 64
3.8. Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . 65
3.8.1. Distribución uniforme pUpa, bqq . . . . . . . . . . . . . 65
3.8.2. Distribución normal (N pµ, σq) . . . . . . . . . . . . . 66
3.8.3. Distribución gamma (γpa, pq) . . . . . . . . . . . . . . 69
3.8.4. Distribución beta (βpp, qq) . . . . . . . . . . . . . . . . 70

4. Variables aleatorias multidimensionales 73


4.1. Variables aleatorias bidimensionales . . . . . . . . . . . . . . 73
4.1.1. σ-algébra de Borel. Función de distribución . . . . . . 73
4.1.2. Variable aleatoria bidimensional. Propiedades . . . . . 77
4.1.3. Distribuciones marginales y condicionales . . . . . . . 80
4.1.4. Independencia de variables aleatorias . . . . . . . . . . 83
4.1.5. Transformación de variables aleatorias . . . . . . . . . 85
4.2. Momentos. Función característica . . . . . . . . . . . . . . . . 87
4.2.1. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2.2. Función característica . . . . . . . . . . . . . . . . . . 90
4.2.3. Familias reproductivas . . . . . . . . . . . . . . . . . . 91
4.3. Esperanza y varianza condicionadas. Regresión y correlación . 93
4.3.1. Esperanza y varianza condicionadas . . . . . . . . . . 93
4.3.2. Regresión . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3.3. Correlación . . . . . . . . . . . . . . . . . . . . . . . . 99
4.3.4. Curvas de regresión . . . . . . . . . . . . . . . . . . . 103
4.4. Distribuciones notables (n-dimensionales) . . . . . . . . . . . 106
4.4.1. Distribución multinomial . . . . . . . . . . . . . . . . 106
4.4.2. Distribución normal bidimensional . . . . . . . . . . . 108
Índice xiii

5. Convergencias estocásticas 111


5.1. Convergencia de variables aleatorias . . . . . . . . . . . . . . 111
5.2. Leyes de los grandes números . . . . . . . . . . . . . . . . . . 119
5.2.1. Leyes débiles de los grandes números . . . . . . . . . . 119
5.2.2. Leyes fuertes de los grandes números . . . . . . . . . . 121
5.3. El teorema central del límite . . . . . . . . . . . . . . . . . . 122
5.4. Corrección por continuidad . . . . . . . . . . . . . . . . . . . 124
Capítulo 1

Introducción

1.1. Experimentos aleatorios


Definición 1.1 (Experimento). Se denomina experimento aleatorio a aquel
experimento que verifica las siguientes condiciones:

a) Se conocen previamente los posibles resultados del experimento.

b) Es imposible conocer el resultado antes de realizarlo.

c) Si se realiza el experimento sucesivas veces en las mismas condiciones


pueden aparecer resultados distintos.

Ejemplo 1.1. Algunos experimentos aleatorios.

Lanzamiento de un dado al aire.

Consumo de agua diario en una ciudad.

Tiempo que tarda cada uno en llegar a la facultad cada día

Definición 1.2 (Espacio muestral). Se denomina espacio muestral al con-


junto de todos los posibles resultados asociados a un experimento aleatorio.
Lo denotaremos por Ω.
Ejemplo 1.2. Espacios muestrales del ejemplo anterior.

a) Experimento: “Lanzar una moneda al aire”. Ω “ tC, Xu.

b) Experimento: “Lanzar dos monedas al aire”.


Si las monedas son distinguibles. Ω “ tCC, CX, XC, XXu
Si las monedas no son distinguibles. Ω “ tCC, CX, XXu

Observación 1.1. Esencialmente hay tres tipos de espacios muestrales:

1
2 Capítulo 1. Introducción

a) Espacio muestral finito (cardinal finito).

b) Espacio muestral infinito numerable.


“Lanzar una moneda al aire hasta obtener por primera vez una cruz”.
Ω “ tX, CX, CCX, ...u

c) Espacio muestral continuo.


“Lanzamiento de una partícula en un plano y suponemos que estamos
interesados en la posición de la partícula en el plano”.

Definición 1.3 (Suceso). Se denomina suceso a cualquier subconjunto del


espacio muestral.

1.2. Límites de sucesiones de conjuntos


Definición 1.4. Sea PpΩq las partes de Ω. Se denomina sucesión de con-
juntos a toda aplicación de N en PpΩq y la representaremos por tAn unPN
(An es la imagen de n mediante la aplicación dada f : N ÝÑ PpΩq).

Definición 1.5 (Límite superior e inferior). Sea tAn unPN una sucesión de
subconjuntos de un conjunto Ω, se denomina límite superior y límite inferior
de la sucesión a las expresiones:
˜ ¸
8
č 8
ď
lı́mAn “ lı́m sup An “ Am “ A˚
n n
n“1 m“n
˜ ¸
8
ď 8
č
lı́mAn “ lı́m inf An “ Am “ A˚
n n
n“1 m“n

Observación 1.2. ˆ ˙
lı́m sup xn “ ı́nf sup xk
nÑ8 ně1 kěn
ˆ ˙
lı́m inf xn “ sup ı́nf xk
nÑ8 ně1 kěn

Ejemplo 1.3. Sea tAn unPN una sucesión tal que A2n´1 “ p´ n1 , 1s, A2n “
p´1, n1 s

n “ 1 : A1 “ p´1, 1s, A2 “ p´1, 1s


n “ 2 : A3 “ p´ 21 , 1s, A4 “ p´1, 12 s
n “ 3 : A5 “ p´ 13 , 1s, A6 “ p´1, 13 s
1.2. Límites de sucesiones de conjuntos 3

8
č 8
ď
Am “ t0u, Am “ p´1, 1s
m“n m“n
˜ ¸
8
č 8
ď 8
č
Am “ p´1, 1s “ p´1, 1s
n“1 m“n n“1
˜ ¸
8
ď 8
č 8
ď
Am “ t0u “ t0u
n“1 m“n n“1

Proposición 1.1. Sea tAn unPN una sucesión de subconjuntos de Ω, enton-


ces:

a) lı́mn An “ tω P Ω | ω pertenece a infinitos An u

b) lı́mn An “ tω P Ω | ω pertenece a todos los An excepto a un número


finitou

Observemos que el apartado b) quiere decir que existe un término m tal que
ω pertenece a An para todo n mayor que m.

Demostración.

a) ω P lı́mn An ô ω P 8
Ş `Ť8 ˘ Ť8
m“n Am ô @n N; ω m“n Am ô @n
P P P
n“1
N D r ě m | ω P Ar ô ω pertenece a infinitos An .

b) ω P lı́mn An ô ω P 8
Ť ` Ş8 ˘ Ş8
m“n Am ô D n
P N | ω P
n“1 m“n Am ô
D n N | ω Am @m ě n ô ω pertenece a todos los An salvo a un
P P
número finito de ellos.

Proposición 1.2. Sea tAn unPN una sucesión de subconjuntos de Ω, enton-


ces lı́mn An Ă lı́mn An

Demostración. ω P lı́mn An ñ ω pertenece a todos los An salvo a un número


finito de ellos ñ ω pertenece a infinitos An ñ ω P lı́mn An

Definición 1.6. Sea tAn unPN una sucesión de subconjuntos de Ω tal que
lı́mn An “ lı́mn An , entonces se dice que tAn unPN tiene límite y su expresión
es:

lı́m An “ lı́mAn “ lı́mAn


n n

Ejemplo 1.4. Sea tAn unPN , An Ă R, An “ tx P R | x ă n1 u


4 Capítulo 1. Introducción

lı́mn An “ 8 `Ť8Am , y ˘puesto


Ş8que An es decreciente respecto de la
Ş `Ť8 ˘
n“1
Ş8 m“n
inclusión n“1 m“n Am “ n“1 p´8, n s “ p´8, 0s
1

lı́mn An “ 8 n“1 p´8, 0s “ p´8, 0s


Ť `Ş8 ˘ Ť8
n“1 m“n Am “

Definición 1.7. Una sucesión tAn unPN de subconjuntos de Ω es monótona


creciente (resp. decreciente) si A1 Ă A2 Ă ¨ ¨ ¨ Ă An Ă ¨ ¨ ¨ presp. A1 Ą A2 Ą
¨ ¨ ¨ Ą An Ą ¨ ¨ ¨ q.
En lo sucesivo la denotaremos tAn unPN Ò presp. tAn unPN Óq

Proposición 1.3. Sea tAn unPN una sucesión monótona de subconjuntos de


Ω, entonces se verifica:

a) tAn u Ò ñ lı́mn An “
Ť8
n“1 An

b) tAn u Ó ñ lı́mn An “
Ş8
n“1 An

Demostración. a) Por un lado,


˜ ¸ ˜ ¸
8
č 8
ď 8
č 8
ď 8
ď
lı́mAn “ Am “ Am “ Am
n
n“1 m“n n“1 m“1 m“1
puesto que es intersección de iguales. Por otro lado,
˜ ¸
ď8 č8 8
ď
lı́mAn “ Am “ An ,
n
n“1 m“n n“1
puesto que
Ş8
m“n Am “ An

b) Por una parte


˜ ¸
8
č 8
ď 8
č
lı́mAn “ Am “ An
n
n“1 m“n n“1

porque “ An . Por otro lado


Ť8
m“n Am
˜ ¸
8
ď 8
č
lı́mAn “ Am “
n
n“1 m“n
como es unión de iguales
˜ ¸
8
ď 8
č 8
č
“ Am “ Am
n“1 m“1 m“1
1.3. Álgebras y σ-álgebras 5

1.3. Álgebras y σ-álgebras


Definición 1.8. Una familia no vacía A de subconjuntos de Ω es un álgebra
si verifica:

i) @A P A ñ Ac P A
Ťn
ii) @A1 , ..., An P Añ i“1 Ai
P A

Definición 1.9. Una familia no vacía A de subconjuntos de Ω es un σ-


álgebra si verifica:

i) @A P A ñ Ac P A

A (Unión numerable)
Ť8
ii) @A1 , . . . , An , . . . P A ñ i“1 Ai
P

Observación 1.3. Toda σ-álgebra es un álgebra. Basta tomar An`1 “


An`2 “ ... “ An .

Proposición 1.4 (Propiedades de álgebras y σ-álgebras). Sea A un álgebra,


entonces

1. H y Ω pertenecen a A

Demostración. Sea A P A ñ Ac P A ñ A Y Ac P AñΩPA


Como Ω P A ñ Ωc “ H P A

Şn
2. Si A1 , . . . , An P Añ i“1 Ai
P A

Demostración. ni“1 Ai “ p ni“1 Aci qc P A porque tanto los comple-


Ş Ť
mentarios como las uniones pertenecen al álgebra.

3. Si A1 , A2 P A y A2 Ă A1 , entonces A1 ´ A2 P A, donde A1 ´ A2 denota


diferencia simétrica.

Demostración. A1 ´A2 “ A1 XAc2 P A, y ambos pertenecen al álgebra.

4. Si A es un σ-álgebra y A1 , . . . , An , . . . P A, entonces
Ş8
n“1 An
P A

Demostración.
Ş8
“p 8 c c
Ť
i“1 Ai i“1 Ai q
P A

5. Toda σ-álgebra es cerrada respecto de las operaciones límite superior


e inferior (Si Ai P A ñ lı́mn An P A y lı́mn An P A )
6 Capítulo 1. Introducción

Demostración. Se obtiene de 4. y de ii) de la definición 1.9.

6. La intersección de una familia de σ-álgebras es σ-álgebra (El resultado


es válido para álgebras)

Demostración. Sea pAi qiPI una familia de σ-álgebras y A :“


Ş
iPI Ai

a) A P A ñ A P Ai @i P I ñ Ac P Ai @i P I ñ Ac P A
b) Sean A1 , . . . ,Ť
Ť8
An , . . . . P A ñ A1 , ..., An , ... P Ai @i P I ñ n“1 An
P
Ai @i P I ñ 8 n“1 An A
P

Definición 1.10 (Espacio probabilizable). Se denomina espacio medible o


probabilizable al par pΩ, Aq con Ω ‰ H, A Ă PpΩq, siendo A álgebra ó
σ-álgebra y Ω un espacio muestral.

Proposición 1.5. Una clase1 de subconjuntos de Ω es un σ´álgebra si y


sólo si es cerrada respecto del límite de sucesiones monótonas.

1.3.1. Generación de álgebras y σ-álgebras


Definición 1.11. Sea Ω un conjunto no vacío y C una clase de subconjuntos
de Ω. Se denomina σ-álgebra (resp. álgebra) engendrada por C y se denota
σpCq (resp. ApCq) a la intersección de todas las σ-álgebras (resp. álgebras)
de Ω que contienen a C. Es el mínimo σ-álgebra (resp. álgebra) que contiene
a C.

σpCq siempre existe porque al menos existe PpΩq (que ya es σ´ álgebra)


que contiene a C. Si existieran más, la intesección numerable de ellas generará
la mínima σ´álgebra posible. No obstante, no existe un método general de
generación de σ-álgebras como sí lo hay para álgebras tal y como veremos a
continuación.

Proposición 1.6. Sea C una clase no vacía de subconjuntos de un espacio


muestral Ω. Se consideran las siguientes clases:
C1 “ tA | A P C o Ac P Cu Y tHu Y tΩu
C2 “ tB | B “ ni“1 Ai , Ai P C1 u
Ş

Con C1 y C2 así construidos tenemos:


ApCq “ tD | D “ ni“1 Di , Di P C2 y Di X Dj “ H con i ‰ ju
Ť

1
familia
1.3. Álgebras y σ-álgebras 7

Ejemplo 1.5. Sea Ω “ N, C “ tt1u, t1, 2uu


C1 “ tt1u, t1, 2u, t1u, t1, 2u, H, Nu ( A “ Ac )
C2 “ tt1u, t1, 2u, t1u, t1, 2u, H, N, t2uu
ApCq “ tt1u, t1, 2u, t1u, t1, 2u, H, N, t2u, t2uu

Proposición 1.7. Sean Ω1 , Ω2 espacios muestrales y f : Ω1 Ñ Ω2 una


aplicación,

a) Sea C un álgebra (resp. σ-álgebra) de Ω2 , entonces

f ´1 pCq “ tA Ă Ω1 | A “ f ´1 pBq, B P Cu
es álgebra (resp. σ-álgebra).

b) Sea C una clase de subconjuntos de Ω2 , entonces

σpf ´1 pCqq “ f ´1 pσpCqq (1.1)

Demostración. Veamos únicamente a) en dos partes.

Sea A P f ´1 pCq ñ A “ f ´1 pBq, para algún B P C, luego como C es álgebra


Bc P C ñ f ´1 pB c q “ pf ´1 pBqqc “ Ac ñ Ac P f ´1 pCq

Ahora, sean A1 , . . . , An P f ´1 pCq ñ Ai “ f ´1 pBi q y B1 , . . . , Bn P C ñ


Ťn ´1 p n B q “
Ť Ťn ´1 B q “
Ťn
j“1 Bj C ñ f j“1 pf j“1 Aj ñ
P
j“1 j j
Ťn
P ´1 pCq
j“1 Aj f

1.3.2. σ-álgebras particulares


i. Si Ω es finito o numerable, la σ-álgebra que generalmente se utilizará
es PpΩq

ii. Si Ω “ R, entonces el espacio muestral está dotado de una topología,


y utilizará la σ´álgebra engendrada por la topología, esto es, por la
familia de conjuntos abiertos. Trabajaremos con BpRq :“ σ-álgebra de
Borel.

(*) σ´álgebra de Borel sobre R: Sea C “ tA | A es abierto en Ru.


Entonces la σ´álgebra de Borel sobre R es la mínima σ´álgebra
engendrada por la clase C.

Algunas de las álgebras de Borel que se pueden construir sobre R son:


8 Capítulo 1. Introducción

pa, bq P BpRq
pa, bs “ 8 1 P
Ş
n“1 pa, b ` n q BpRq
ra, bq “ 8 1
Ş
n“1 pa ´ n , bq BpRq
P
Ş8 1
ra, bs “ n“1 pa ´ n , b ` n1 q P BpRq
a “ ra, as P BpRq
Cualquier unión numerable pertenece a BpRq. En particular, los
racionales pertenecen a BpRq (Q es unión numerable de puntos).
Y por supuesto, también su complementario, los irracionales, per-
tenecen a BpRq.

Se puede comprobar que BpRq puede engendrarse mediante:

a) La clase de todos los subconjuntos cerrados de R


b) La clase de todos los intervalos de la forma p´8, bq
c) La clase de los intervalos de la forma pa, bs

iii. σ´álgebra producto: pΩ1 , A1 q ˆ pΩ2 , A2 q

Definición 1.12 (Rectángulos). Dados los espacios pΩ1 , A1 q, pΩ2 , A2 q se


denomina rectángulos de Ω1 ˆ Ω2 a los conjuntos de la forma A1 ˆ A2 , con
A1 P A1 , A2 P A2

Definición 1.13 (σ´álgebra producto). Se denomina σ-álgebra producto


a la σ´álgebra engendrada por la clase de los rectángulos en Ω1 ˆ Ω2 .
Capítulo 2

Probabilidad

2.1. Frecuencia absoluta y frecuencia relativa


Definición 2.1 (Frecuencia absoluta). Sea E un experimento aleatorio y
Ω el espacio muestral asociado a E. Sea A Ă Ω un suceso. Se denomina
frecuencia absoluta de A al número de veces que se presenta A cuando se
realiza el experimento E n veces y se denota nA .

Definición 2.2 (Frecuencia relativa). Bajo las hipótesis de la definición


anterior, se denomina frecuencia relativa de A a la siguiente expresión:
nA
fA “
n
Proposición 2.1. Propiedades de la frecuencia relativa.

a) fA P r0, 1s

b) fΩ “ 1 (Ω es el suceso seguro y ocurre siempre)

c) fH “ 0 (H es el suceso imposible)

d) Sean A y B sucesos incompatibles, esto es, A X B “ H. Entonces

nAYB nA nB
nAYB “ nA ` nB ñ fAYB “ “ ` “ fA ` fB
n n n

2.2. Definición axiomática de probabilidad


Definición 2.3 (Medida de probabilidad). Sea pΩ, Aq un espacio proba-
bilístico o probabilizable. Una función P : A Ñ r0, 1s es una medida de
probabilidad si cumple:

a) P pΩq “ 1

9
10 Capítulo 2. Probabilidad

b) Dados A1 , . . . , An , . . . P A disjuntos dos a dos y con 8


Ť
n“1 An
P A
(Nótese que si A es álgebra no se tiene que cumplir), entonces:
˜ ¸
8
ď 8
ÿ
P An “ P pAn q
n“1 n“1

(σ-aditividad o aditividad numerable)


Observe que la serie del segundo término converge por ser de términos
positivos con las sumas parciales acotadas.

c) P pAq ě 0 @A P A

Definición 2.4. La terna pΩ, A, P q se denomina espacio de probabilidad.

Proposición 2.2 (Propiedades de la función de probabilidad). Sea pΩ, A, P q


un espacio de probabilidad. Entonces,

a) P pHq “ 0

Demostración. Sea A P A y la sucesión tA1 “ A, A2 “ H, A3 “


i“1 . Como Y Ai “ A, entonces
H, . . . , Ai “ H, . . .u8 8

˜ ¸
ď8 ÿ8 ÿ
P pAq “ P Ai “ P pAi q “ P pAq ` P pAi q ñ P pHq “ 0
i“2

b) Sean A1 , . . . , An P A conjuntos disjuntos dos a dos, entonces:


˜ ¸
n
ď n
ÿ
P Ai “ P pAi q
i“1 i“1

Demostración. Construimos Bi de la siguiente manera: Bi “ Ai si i ď


n y Bi “ H si i ą n.

˜ ¸ «˜ ¸ ˜ ¸ff ˜ ¸
n
ď n
ď 8
ď 8
ď
P Ai “P Ai Y H “P Bi
i“1 i“1 i“n`1 i“1
8
ÿ n
ÿ
“ P pBi q “ P pAi q
i“1 i“1
2.2. Definición axiomática de probabilidad 11

c) Sean A1 , A2 P A con A1 Ă A2 , entonces P pA1 q ď P pA2 q y


P pA2 ´ A1 q “ P pA2 q ´ P pA1 q

Demostración. A1 Ă A2 ñ A2 “ A1 Y pA2 ´ A1 q ñ P pA2 q “ P pA1 Y


pA2 ´ A1 qq “ P pA1 q ` P pA2 ´ A1 q
por ser disjuntos

De aquí obtenemos que P pA2 ´ A1 q “ P pA2 q ´ P pA1 q y además por


ser P pA2 ´ A1 q ě 0 tenemos P pA2 q ě P pA1 q

d) A P A ñ P pAc q “ 1 ´ P pAq

Demostración.

Ac “ Ω ´ A ñ P pAc q “ P pΩ ´ Aq “ P pΩq ´ P pAq “ 1 ´ P pAq

e) Sean A1 , A2 P A con A1 X A2 ‰ H ñ P pA1 Y A2 q “ P pA1 q ` P pA2 q ´


P pA1 X A2 q

Demostración. A1 Y A2 “ A1 Y pA2 ´ pA1 X A2 qq(y como es unión


de conjuntos disjuntos P pA1 Y A2 q “ P pA1 Y pA2 ´ pA1 X A2 qqq “
P pA1 q ` P pA2 ´ pA1 X A2 qq “ P pA1 q ` P pA2 q ´ P pA1 X A2 q

f) Sean A1 , . . . , An A ñ P p ni“1 Ai q ď ni“1 P pAi q


Ť ř
P

Demostración. Lo demostramos por inducción sobre n.


Base: para n “ 2 es cierto por el apartado e).
Paso inductivo: Suponemos que es cierto para n, entonces:

˜ ¸ ˜˜ ¸ ¸
n`1
ď n
ď
P Ai “ P Ai Y An`1 (por e))
i“1 i“1
˜ ¸ ˜˜ ¸ ¸
n
ď n
ď
“ P Ai ` P pAn`1 q ´ P Ai X An`1 (hip. induc.)
i“1 i“1
n
ÿ
ď P pAi q ` P pAn`1 q
i“1
n`1
ÿ
“ P pAi q
i“1
12 Capítulo 2. Probabilidad

g) Sean A1 , . . . , An P A, entonces:
˜ ¸
n
ď n
ÿ ÿ ÿ
P Ai “ P pAi q´ P pAi XAj q` P pAi XAj XAk q`. . .
i“1 i“1 iăj iăjăk
˜ ¸
n
č
n`1
. . . ` p´1q P Ai
i“1

Demostración. Procederemos como antes, por inducción sobre n:


Base: para n “ 2 es cierto por el apartado e).
Paso inductivo: Suponemos que es cierto para n ´ 1, entonces:

˜ ¸ ˜ ¸
ďn n´1
ď
P Ai “ P Ai Y An
˜ ¸ ˜ ¸
n´1
ď n´1
ď
“ P Ai ` P pAn q ´ P pAi X An q

n´1
ÿ n´1
ÿ n´1
ÿ
“ P pAi q ´ pAi X Aj q ` P pAi X Aj X Ak q ´ . . .
i“1 iăj iăjăk
˜ ¸
n´1
č n´1
ÿ
. . . ` p´1qn P Ai ` P pAn q ´ P pAi X An q
i“1
˜ ¸
n´1
ÿ n´1
č
n
´ P pAi X Aj X An q ` . . . ` p´1q P pAi X Aj q
iăj i“1
ÿn n
ÿ n
ÿ
“ P pAi q ´ P pAi X Aj q ` P pAi X Aj X Ak q
iăj iăjăk
˜ ¸
n
č
´ p1qn`1 P Ai
i“1

Teorema 2.1. Sea pΩ, A, P q un espacio de probabilidad, se verifica:

a) Si tAn unPN Ò A con An P A @n, entonces A P A ñ lı́mn P pAn q “


P pAq

b) Si tAn unPN Ó A con An P A @n, entonces A P A ñ lı́mn P pAn q “


P pAq
2.2. Definición axiomática de probabilidad 13

Obsérvese que lo que expresa el teorema es que sí tAn unPN es monótona,


entonces podemos intercambiar el límite de la probabilidad por la probabilidad
del límite. Además exigimos que A “ lı́mn An P A ya que esto en general no
es cierto para álgebras.

Demostración.
a) Construimos tBn unPN de la siguiente manera:
B1 “ A1 y Bn “ An ´ An´1 @n ě 2
tBn unPN cumple:
Bi P A @i “ 1, 2, . . . , n
An “ ni“1 Bi
Ť

An Òñ A “ lı́mn An “ 8
Ť Ť8
n“1 An “ n“1 Bn

P pAq “ P plı́m An q
˜n ¸ ˜ ¸
8
ď 8
ď
“P An “ P Bn
n“1 n“1
y como los Bi son disjuntos dos a dos
ÿ8
“ P pBn q
n“1
˜ ¸
n
ÿ n
ď
“ lı́m P pBi q “ lı́m P Bi
nÑ8 nÑ8
i“1 i“1
“ lı́m P pAn q (2.1)
nÑ8

b) Construimos tBn unPN de la siguiente manera:


Bn “ A1 ´ An`1 @n ě 1
tBn unPN cumple:
Bi P A @i “ 1, 2, ...n
tBn unPN Ò
Primero, es claro que:
lı́m Bn “ lı́mpA1 ´ An`1 q “ A1 ´ lı́m An`1 “ A1 ´ A
n n n

P plı́m Bn q “ (por 2.1) lı́m P pBn q “ lı́mpP pA1 ´ An`1 qq


n n n
“ lı́mpP pA1 q ´ P pAn`1 qq
n
“ P pA1 q ´ lı́m P pAn`1 q
n
(2.2)
14 Capítulo 2. Probabilidad

P plı́m Bn q “ P pA1 ´ lı́m An`1 q


n n
“ P pA1 q ´ P plı́m An`1 q
n
(2.3)

Uniendo (2.2) y (2.3) obtenemos finalmente P plı́mn An q “ lı́mn P pAn q

Consecuencias:
a) tAn unPN Ó H con An P A ñ lı́mn P pAn q “ 0

Demostración. lı́mn P pAn q “ P plı́mn An q “ P pHq “ 0

b) Sea tAn unPN con An A @n, entonces: P p 8


Ť ř8
n“1 An q ď n“1 P pAn q
P

Demostración. Construimos tBn unPN de la siguiente manera:


Bn “ ni“1 Ai @n ě 1
Ť

tBn unPN cumple:


Bi P A @i “ 1, 2, ...n
tBn unPN Ò
Ť8 Ť8
n“1 Bn “ n“1 An

˜ ¸ ˜ ¸
8
ď 8
ď
P An “ P Bn “ P plı́m Bn q
n
n“1 n“1
˜ ¸
n
ď
“ lı́m P pBn q “ lı́m P Ai
n n
i“1
n
ÿ 8
ÿ
ď lı́m P pAi q “ P pAn q
n
i“1 n“1

c) P p ě1´
Ş8 ř8 c
n“1 An q n“1 P pAn q

Demostración.
˜ ¸ ˜˜ ¸c ¸
8
č 8
č
P An “ P pAq “ 1 ´ P pAc q “ 1 ´ P An “
n“1 n“1
˜ ¸
8
ď 8
ÿ
“1´P Acn ě1´ P pAcn q
n“1 n“1
2.2. Definición axiomática de probabilidad 15

d) Lema de Borel-Cantelli: Sean pΩ, A, P q, tAn unPN con An P A y


n“1 P pAn q ă 8, entonces,
ř8

P plı́mAn q “ 0
n

Demostración. A partir de ă 8, se tiene que


ř8
n“1 P pAn q
ÿ
@ε ą 0 D! nε P N, P pAn q ă ε
n“nε

y así
˜ ˜ ¸¸ ˜ ¸
8
č 8
ď 8
č
P plı́mAn q “ P Am “P Bn “
n
n“1 m“n n“1
y puesto que tBn u es monótona decreciente
˜ ¸
8
ď 8
ÿ
“ P plı́m Bn q “ lı́m P pBn q “ lı́mP Am ď lı́m Am ď ε
n n n n
m“n m“n

luego
˜ ˙¸
8 ˆ ď
č 8
P plı́mAn q ă ε @ε ą 0 ñP Am “0
n
n“1 m“n

Proposición 2.3. Sea pΩ, A, P q un espacio de probabilidad. Para toda su-


cesión tAn unPN con An P A se verifica:

P plı́mAn q ď lı́m ı́nf P pAm q ď lı́m sup P pAm q ď P plı́mAn q


n nÑ8 měn nÑ8 měn n

Demostración. Procedamos por pares de desigualdades,

Primera desigualdad:
˜ ˜ ¸¸
8
ď 8
č
P plı́mAn q “ P Am
n
n“1 m“n
por ser Bn “ Xm“n Am creciente, Y8
8 Bn es su límite, y así
˜ n“1˜ ¸¸
8
č
“P lı́m Am
nÑ8
m“n
˜ ¸
8
č
“ lı́m P Am (2.4)
nÑ8
m“n
16 Capítulo 2. Probabilidad

˜ ¸
8
č 8
č
Am Ă Am @m ě n ñ P Am
m“n m“n
ď P pAm q @m ě n
˜ ¸
č8
ñ P Am ď ı́nf P pAm q (2.5)
měn
m“n

Uniendo (2.4) y (2.5) tenemos,


˜ ¸
8
č
P plı́mAn q “ lı́m P Am ď lı́m ı́nf P pAm q
n nÑ8 nÑ8 měn
m“n

Segunda desigualdad: Es claro que lı́m inf ď lı́m sup, conocido resultado de
un curso de análisis de variable real.

Tercera desigualdad: Es totalmente análoga a la primera, empleando la


dualidad de los operadores unión e intersección, por lo que el lector
debiera intentarlo por su cuenta.

˜ ˜ ¸¸
8
č 8
ď
P plı́mAn q “ P Am (2.6)
n
n“1 m“n
(por ser Bn “ Ym“n Am decreciente X8
8
n“1 Bn es su límite)

˜ ˜ ¸¸
8
ď
“P lı́m Am
nÑ8
m“n
˜ ¸
8
ď
“ lı́m P Am
nÑ8
m“n
(2.7)

˜ ¸
8
ď 8
ď
Am Ą Am @m ě n ñ P Am
m“n m“n
˜ ¸
8
ď
ě P pAm q @m ě n ñ P Am
m“n
ě sup P pAm q (2.8)
měn

Uniendo (2.6) y (2.8) tenemos:


2.3. Espacio de probabilidad discreto. Análisis combinatorio. 17

˜ ¸
8
ď
P plı́mAn q “ lı́m P Am ě lı́m sup P pAm q
n nÑ8 nÑ8 měn
m“n

Corolario 2.1. Sean pΩ, A, P q y tAn unPN con An P A, si existe lı́mn An “


A, entonces lı́mn P pAn q “ P pAq

Demostración.

A “ lı́m An “ lı́mAn “ lı́mAn


n n n

ñ P pAq “ P plı́mAn q ď lı́m ı́nf P pAm q


n nÑ8 měn

ď lı́m sup P pAm q ď P plı́mAn q “ P pAq


nÑ8 měn n

ñ lı́m ı́nf P pAm q “ lı́m sup P pAm q


nÑ8 měn nÑ8 měn

ñ D lı́m P pAn q y lı́m P pAn q “ P pAq


n n

2.3. Espacio de probabilidad discreto. Análisis com-


binatorio.
a) Ω finito o numerable, A “ PpΩq σ-álgebra
@ai P Ω P ptai uq “ pi ě 0, ai PΩ pi “ 1
ř
ř ř
@A P A P pAq “ ai PA P ptai uq “ i pi

b) Ω finito, Ω “ ta1 , ..., an u

1
P pta1 uq “ P pta2 uq “ ... “ P ptan uq ą 0 ñ pi “ @i “ 1, ..., n
n

Sea A Ă Ω, A “ ttai1 u, tai2 u, ..., taik uu con aij P Ω

k |A|
P pAq “ P ptai1 uq ` ... ` P ptaik uq “ “
n n
también expresada como número de casos favorables entre casos posi-
bles, conocida como regla de Laplace.
18 Capítulo 2. Probabilidad

2.3.1. Breve repaso de combinatoria


2.3.1.1. Principio fundamental del conteo

Sean A1 , . . . , Ar r conjuntos tales que CardpAi q “ ni i “ 1, . . . , r,


entonces
CardpA1 ˆ A2 ˆ ¨ ¨ ¨ ˆ Ar q “ n1 ¨ n2 ¨ ¨ ¨ nr

Ejemplo 2.1. Clasificación múltiple


Se quiere clasificar a un colectivo de personas según su sexo, su estado
civil y su profesión.
Si se consideran 10 profesiones básicas. ¿Cuántas clases tendremos?
Como hay solamente 2 posibilidades para el sexo: hombre o mujer y
suponemos también solo 2 para el estado civil: casado o soltero.
De esta manera tenemos en total 2 ¨ 2 ¨ 10 “ 40 clases diferentes

Ejemplo 2.2. Colocación de bolas en urnas


¿De cuántas formas se pueden colocar r bolas distintas en n urnas?
Ai “ urnas a las que puede ir la bolai, CardpAi q “ n
Las distintas formas son: loooomoooon
n ¨ n ¨ ¨ ¨ n “ nr
r

Ejemplo 2.3. En una sala hay r personas.


¿Cuántas configuraciones de cumpleaños se pueden dar?
Ai “ tdías en los que la persona i puede tener su cumpleañosu, CardpAi q “
366
El total de configuraciones es 366r

Ejemplo 2.4. En un ascensor de un edificio de 5 plantas se montan 10


personas. Configuraciones posibles para bajada de las personas.
Ai “ tposibilidades de bajada para la i-ésima personau, CardpAi q “ 5
En total hay 510 configuraciones

2.3.1.2. Variaciones

Si se toman k elementos de un conjunto de n elementos, teniendo en


cuenta el orden de los elementos, tendremos variaciones.

Vn,k “ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq

Ejemplo 2.5. Supongamos que un club consta de 25 miembros y que


se han de elegir de la lista de miembros un presidente y un secretario.
El presidente y el secretario no pueden ser la misma persona.
Solución: V25,2 “ 25 ¨ 24
2.3. Espacio de probabilidad discreto. Análisis combinatorio. 19

Si se toman k elementos de un conjunto de n elementos importando


el orden de los elementos y admitiendo la posibilidad de elementos
repetidos tendremos variaciones con repetición.

RVn,k “ nk

Ejemplo 2.6. Considérese un experimento que consiste en anotar la


fecha de cumpleaños para cada una de las 20 personas seleccionadas
al azar. ¿Cuántas configuraciones posibles hay?
Solución: V R366,20 “ 36620

2.3.1.3. Permutaciones
Si en el caso de las variaciones sin repetición se toma k “ n se obtienen
las distintas ordenaciones de los n elementos y se conocen con el nombre de
permutaciones.

Pn “ Vn,n “ n ¨ pn ´ 1q ¨ ¨ ¨ 2 ¨ 1 “ n!

2.3.1.4. Combinaciones
Las combinaciones de n elementos tomadas de k en k son todos los grupos
de k elementos sacados de entre los n, de modo que dos grupos son distintos
si tienen algún elemento distinto. El orden es irrelevante.
ˆ ˙
Vn,k n
Cn,k “ “
k! k
El número de variaciones de n elementos tomados de k en k es Vn,k .
Estas Vn,k variaciones se pueden formar de la forma siguiente: se selecciona
una combinación particular de k elementos. Cada permutación distinta de
esos k elementos producirá una variación. Puesto que hay k! permutaciones
de esos k elementos, esta combinación particular producirá k! variaciones:

Vn,k “ Cn,k ¨ k!
Ejemplo 2.7. Sea Ω “ ta, b, c, du

4 4!
ˆ ˙
C4,3 “ “ “4
3 p4 ´ 3q! 3!
Estas combinaciones son:

ta, b, cu, ta, b, du, ta, c, du, tb, c, du

Podemos observar que

ta, b, cu “ ta, c, bu “ tb, a, cu “ tb, c, au “ tc, a, bu “ tc, b, au


20 Capítulo 2. Probabilidad

Sin embargo, como ternas

pa, b, cq ‰ pa, c, bq ‰ pb, a, cq ‰ pb, c, aq ‰ pc, a, bq ‰ pc, b, aq

2.3.1.5. Permutaciones con repetición

Las permutaciones con repetición de n elementos uno de los cuales se


repite n1 veces, otro n2 veces,..., otro nk veces.
Supongamos que se van a dividir n elementos en grupos distintos de
manera que el j-ésimo grupo pj “ 1, . . . , kq contenga nj elementos y que se
cumple n1 ` n2 ` ¨ ¨ ¨ ` nk “ n. Se trata de determinar el número de formas
distintas en las que se pueden distribuir los n elementos en los k grupos.
˜ ¸ ˜ ¸ ˜ ¸ ˜ ¸ ˜ ¸
n n ´ n1 n ´ n1 ´ n2 n ´ n1 ´ ... ´ nk´2 n ´ n1 ´ ... ´ nk´1
¨ ¨ ¨¨¨ ¨ “
n1 n2 n3 nk´1 nk
(
(( (
((
n! n´
p n1q!
 pn ´ n1 ´
(.(. .(´ nk´2 q! pn ´ n1 ´ (.( . .( ´ nk´1 q!
“ ¨ ( ¨¨¨ ((( ( ¨ (((
( (( “
n1 !p   n´
n ´ n1q! n2 !p( (n1 ´ n2 q!
( ( nk´1 !pn ´ n
(1 ´
( .
( . . ´
( (n k´1 q! nk !p n ´
( n1
( ´
( .
( . .(
´ nk q!
(( ˜( ¸
n! n
“ “
n1 ! ¨ ¨ ¨ nk ! n1 , n2 , . . . , nk

2.4. Probabilidad condicionada e independencia de


sucesos
Definición 2.5 (Frecuencia relativa condicionada). Se define f rpA|Bq como
frecuencia relativa de A condicionada a la ocurrencia de B (Considerando
los casos en los que aparece B y viendo en cuántos de esos ocurre A).

Siendo nAXB el número de veces que se presenta A y B conjuntamente,


es claro que
nAXB
f rpA|Bq “
nB
además dado que f rpA X Bq “ n ,
nAXB
f rpAq “ nA
n y f rpBq “ n ,
nB
tenemos
que
f rpA X Bq
f rpA|Bq “
f rpBq

Definición 2.6 (Probabilidad condicionada). Sea pΩ, A, P q un espacio de


probabilidad y sea A P A con P pAq ą 0. Se denomina probabilidad de B
condicionada por A a la expresión

P pA X Bq
P pB|Aq “ @B P A
P pAq
2.4. Probabilidad condicionada e independencia de sucesos 21

Proposición 2.4. Siguiendo las notaciones anteriores sea pA, AA , PA q, con


PA pBq :“ P pB|Aq y AA :“ tB P PpΩq | B “ A X C, C P Au es un espacio
de probabilidad, llamado espacio de probabilidad condicionado.

Demostración. Probaremos que PA define una función de probabilidad y la


prueba de que AA es un álgebra ó σ-álgebra siéndolo A se deja al lector.

P pAXAq
PA pAq “ P pA|Aq “ P pAq “1

Sean B1 , . . . , Bn , . . . P AA disjuntos dos a dos

˜ ¸
8
Pp 8
Ť
n“1 pBn X Aqq
ď
PA Bn “
n“1
P pAq
ř8
P pBn X Aq
“ n“1 “
P pAq
8 8
ÿ P pBn X Aq ÿ
“ “ PA pBn q
n“1
P pAq n“1

Sea B P AA ñ P pA X Bq ě 0 y por definición P pAq ą 0 ñ PA pBq “


P pAXBq
P pAq ą 0. Además dado que A X B Ă A se tiene que P pA X Bq ď
P pAq. Por lo tanto PA pBq “ P pAXBq
P pAq ď 1

Observación 2.1.

1. P pA X Bq “ P pAq ¨ P pB|Aq. Obsérvese también que P pA X Bq “


P pBXAq “ P pBq¨P pA|Bq. Ésta igualdad nos será de gran utilidad a la
hora de calcular sucesos condicionados mediante la condición opuesta.

2. Sean pΩ, A, P q, A1 , . . . , An P A y P pA1 X . . . X An´1 q ą 0 ñ P pA1 X


. . .XAn q “ P pA1 q¨P pA2 |A1 q¨P pA3 |A1 XA2 q ¨ ¨ ¨ P pAn |A1 X. . .XAn´1 q

Demostración. Haremos la demostración por inducción


Base: para n “ 2 es cierto ya que
P pA1 q ą 0 ñ P pA2 X A1 q “ P pA1 q ¨ P pA2 |A1 q.
22 Capítulo 2. Probabilidad

Paso inductivo: Suponemos que es cierto para n ´ 1, entonces:


˜˜ ¸ ¸
n´1
č
P pA1 X . . . X An q “ P Ai X An
i“1
“ P pB X An q (por 1. y por ser P pBq ą 0, que es condición dada)
“ P pA1 X . . . X An´1 q ¨ P pAn |A1 X . . . X An´1 q
“ P pA1 q ¨ P pA2 |A1 q ¨ ¨ ¨ P pAn´1 |A1 X . . . An´2 q ¨ P pAn |A1 X . . . X An´

Ejemplo 2.8. En una población con 50000 habitantes hay 10000 que tra-
bajan por cuenta propia y 20000 que trabajan por cuenta ajena. A una hora
determinada se abre una ventanilla en una de las secciones del ayuntamien-
to. Calcular la probabilidad de que las dos primeras personas trabajen por
cuenta propia y la tercera lo haga por cuenta ajena.
Solución
A1 :“ primera persona trabaja por cuenta propia
A2 :“ segunda persona trabaja por cuenta propia
A3 :“ tercera persona trabaja por cuenta ajena

10000 9999 20000


P pA1 XA2 XA3 q “ P pA1 q¨P pA2 |A1 q¨P pA3 |A1 XA2 q “ ¨ ¨
50000 49999 49998

2.4.1. Teorema de la probabilidad total


Teorema 2.2 (de probabilidad total). Sean pΩ, A, P q un espacio de proba-
bilidad
Ť y B A. Dada una partición tAi uiPI Ă A disjuntos dos a dos y tales
P
que iPI Ai “ Ω, entonces

ÿ
P pBq “ P pAi q ¨ P pB|Ai q
iPI
P pAi qą0

Observación 2.2. Los sucesos Ai cuya probabilidad sea 0, esto es, P pAi q “
0 se desprecian debido a que P pB|Ai q ¨ P pAi q “ 0 y no aportan nada a la
suma.
2.4. Probabilidad condicionada e independencia de sucesos 23

Demostración.
˜ ¸
ď ď
B “ BXΩ“BX Ai “ pB X Ai q
i PI i PI
˜ ¸
ď
ñ P pBq “ P pB X Ai q
i PI
ÿ ÿ
“ P pB X Ai q “ P pAi q ¨ P pB|Ai q
i PI i PI
P pAi qą0

Ejemplo 2.9. Una compañía financiera para la venta de automóviles a


plazos opera en tres grandes regiones de un país: A, B y C. El 50 % de
las operaciones las realiza en la región A, el 40 % en B y el 10 % en C. Se
ha estimado por larga experiencia el tanto por ciento de los clientes que no
efectúan el pago de las letras en cada una de las regiones. Para A es el 1 %,
para B el 2 % y para C el 8 %. Determinar el tanto por ciento de los clientes
de la compañía que pagan las letras de la operación.
Solución
A :“ clientes de la región A
B :“ clientes de la región B
C :“ clientes de la región C
L :“ clientes que pagan las letras
P pAq “ 0,5, P pLc |Aq “ 0,01, P pL|Aq “ 0,99
P pBq “ 0,4, P pLc |Bq “ 0,02, P pL|Bq “ 0,98
P pCq “ 0,1, P pLc |Cq “ 0,08, P pL|Cq “ 0,92
P pLq “ P pL|Aq ¨ P pAq ` P pL|Bq ¨ P pBq ` P pL|Cq ¨ P pCq “ 0,979

2.4.2. Teorema de Bayes


Teorema 2.3 (de Bayes). Sean pΩ, A, P q un espacio Ť de probabilidad y una
partición tAi uiPI Ă A disjuntos dos a dos y tales que iPI Ai “ Ω, entonces
dado B P A

P pB|Aj q ¨ P pAj q
P pAj |Bq “ ř
i PI P pB|Ai q ¨ P pAi q
P pAi qą0

Demostración.
P pAj X Bq P pB|Aj q ¨ P pAj q P pB|Aj q ¨ P pAj q
P pAj |Bq “ “ “ř
P pBq P pBq i PI P pB|Ai q ¨ P pAi q
P pAi qą0
24 Capítulo 2. Probabilidad

Definición 2.7. Bajo las condiciones del teorema anterior P pAj |Bq se de-
nomina probabilidad “a posteriori”, P pB|Aj q “verosimilitudes” y P pAj q pro-
babilidad “a priori”.

2.4.3. Independencia de sucesos


Consideramos el experimento aleatorio:
E :““Lanzar dos dados al aire”, Ω “ tp1, 1q, . . . , p6, 6qu
A :“ el primer dado es un número par, P pAq “ 36 18
“ 12
B :“ el segundo dado es un 5 ó un 6, P pBq “ 36 12
“ 13

6 1
P pA X Bq “ “
36 6

P pA X Bq 1 3 1
P pA|Bq “ “ ¨ “
P pBq 6 1 2
Podemos observar que P pA|Bq “ P pAq, luego la ocurrencia de B no
aporta información acerca del suceso A. A es independiente de B.

P pA X Bq
“ P pAq ñ P pA X Bq “ P pAq ¨ P pBq
P pBq
Definición 2.8. Sea pΩ, A, P q un espacio de probabilidad y sean A, B P A.
Se dice que A y B son dos sucesos independientes si se cumple

P pA X Bq “ P pAq ¨ P pBq

Observación 2.3. Este concepto sigue siendo válido cuando P pAq ó P pBq
son cero.

P pAq “ 0 ñ A es independiente de B @B P A

P pAq ą 0 ñ A es independiente de H y Ω

A y B son independientes ô P pA|Bq “ P pAq ô P pB|Aq “ P pBq

A y B son independientes ñ A y B c , Ac y B, Ac y B c son indepen-


dientes

Demostración. Veámoslo parte por parte.

P pA X Bq ď P pAq “ 0 ñ P pA X Bq “ 0 y P pAqP pBq “ 0, luego A es


independiente de B, @B

P pA X Hq “ P pHq “ 0 “ 0 ¨ P pAq luego son idependientes. Y además


P pAXΩq “ P pAq ¨1 “ P pAq ¨P pΩq, luego también son independientes.

Veamos ambas implicaciones,


2.4. Probabilidad condicionada e independencia de sucesos 25

P pAXBq P pAq¨P pBq


ñq P pA|Bq “ P pBq “ P pBq “ P pAq
pð P pA X Bq “ P pA|Bq ¨ P pBq “ P pAq ¨ P pBq

• Ac , B son independientes:

P pAc X Bq “ P pB ´ pA X Bqq
“ P pBq ´ P pA X Bq
“ P pBq ´ P pAq ¨ P pBq
“ P pBq ¨ p1 ´ P pAqq
“ P pBq ¨ P pAc q

• A, B c son independientes:

P pB c X Aq “ P pA ´ Bq
“ P pA ´ pA X Bqq
“ P pAq ´ P pA X Bq
“ P pAq ´ P pAq ¨ P pBq
“ P pAqp1 ´ P pBqq
“ P pAq ¨ P pB c q

• Ac , B c son independientes:

P pAc X B c q “ P pA Y Bqc
“ 1 ´ P pA Y Bq
“ 1 ´ rP pAq ` P pBq ´ P pA X Bqs
“ 1 ´ P pBq ´ P pAq ` P pAq ¨ P pBq
“ P pB c q ´ P pAq r1 ´ P pBqs
“ P pB c q ´ P pAq ¨ P pB c q
“ P pB c q ¨ r1 ´ P pAqs
“ P pAc q ¨ P pB c q

La idea de que tres sucesos A1 , A2 , A3 sean independientes exige que


cualquier conocimiento que se tenga sobre dos de ellos no aporte información
sobre el tercero.
26 Capítulo 2. Probabilidad

Definición 2.9. Dado el espacio pΩ, A, P q y tres sucesos A1 , A2 , A3 se dice


que son independientes si se verifica

P pA1 X A2 q “ P pA1 q ¨ P pA2 q


P pA1 X A3 q “ P pA1 q ¨ P pA3 q
P pA2 X A3 q “ P pA2 q ¨ P pA3 q
P pA1 X A2 X A3 q “ P pA1 q ¨ P pA2 q ¨ P pA3 q

Definición 2.10. Sean A1 , . . . , An P A. Se dice que los sucesos A1 , . . . , An


son independientes si cualquier colección formada con los sucesos anteriores
cumple que la probabilidad de la intersección es el producto de las probabili-
dades, es decir

P pAi X Aj q “ P pAi q ¨ P pAj q @i ‰ j


P pAi X Aj X Ak q “ P pAi q ¨ P pAj q ¨ P pAk q @i, j, k distintos
¨¨¨
P pA1 X . . . X An q “ P pA1 q ¨ ¨ ¨ P pAn q

O también: ˜ ¸
č ź
P Ai “ P pAi q
i PF

para cualquier subconjunto F Ă I

Observación 2.4. Si A1 , . . . , An independientes ñ A1 , . . . , An indepen-


dientes dos a dos. Sin embargo la implicación contraria no es cierta en
general.

Contraejemplo. Consideremos un tetraedro que tiene una cara pintada de


rojo, otra de amarillo, otra de verde y la última con los tres colores. Sean
los sucesos:
R :“ la cara contiene color rojo, P pRq “ 42 “ 12
A :“ la cara contiene color amarillo, P pAq “ 24 “ 12
V :“ la cara contiene color verde, P pV q “ 42 “ 12
Los sucesos son independientes dos a dos:
P pR X Aq “ 14 (la última cara). Además

1 1 1
P pR X Aq “ “ ¨ “ P pRq ¨ P pAq
4 2 2

De igual manera se obtiene que R y V , A y V son independientes.


No obstante P pR X A X V q “ 14 ‰ 12 ¨ 12 ¨ 12 “ P pRq ¨ P pAq ¨ P pV q, luego
R, A y V no son independientes.
2.5. Función de distribución en R 27

2.5. Función de distribución en R


En esta sección trabajaremos con el espacio de probabilidad pR, BpRq, P q,
donde R son los reales y BpRq la σ-álgebra de Borel.
Definición 2.11. Sea pR, BpRq, P q el espacio de probabilidad mencionado
antes, la función de distribución asociada a la medida de probabilidad se
define mediante

FP : R Ñ r0, 1s
x ÞÑ FP pxq “ P pp´8, xsq

Proposición 2.5. Propiedades de la función de distribución:

a) FP es monótona no decreciente

Demostración. Sean x1 , x2 P R, x1 ă x2 ñ FP px1 q “ P pp´8, x1 sq ď


P pp´8, x2 sq “ FP px2 q

b) FP p`8q “ lı́mxÒ8 FP pxq “ 1

Demostración.

FP p`8q “ lı́m FP pxq “ lı́m FP pnq


xÒ8 nÒ8
“ lı́m P pp´8, nsq (por ser An “ p´8, ns monótona)
nÒ8
“ P plı́m p´8, nsq “ P pp´8, `8qq( p´8, `8q es el espacio muestral)
nÒ8
“ 1

FP p´8q “ 0

Demostración.

FP p´8q “ lı́m FP pxq “ lı́m FP pnq “ lı́m P pp´8, ´nsq “


xÓ´8 nÓ´8 nÒ8
˜ ¸
ˆ ˙ 8
č
P lı́m p´8, ´ns “ P p´8, ´ns “ P pHq “ 0
nÒ8
n“1

c) FP es continua a la derecha, es decir

lı́m FP px ` hq “ FP pxq @x P R
hÑ0`
28 Capítulo 2. Probabilidad

Demostración. Dada una sucesión monótona decreciente tan unPN Ó 0


se verifica:

lı́m Fp px ` hq “ lı́m Fp px ` an q
hÑ0` nÑ8
“ lı́m P pp´8, x ` an sq (la sucesión tp´8, x ` an sunPN es decreciente)
nÑ8
“ P p lı́m p´8, x ` an sq
nÑ8
˜ ¸
č8
“ P p´8, x ` an s
n“1
“ P pp´8, xsq “ FP pxq

Definición 2.12 (Función de distribución). Una función F : p´8, `8q Ñ


r0, 1s es una función de distribución si verifica:

1. F es monótona no decreciente

2. F p`8q “ lı́mxÒ8 F pxq “ 1


F p´8q “ lı́mxÓ´8 F pxq “ 0

3. F es continua por la derecha en cada punto

Observación 2.5. Sería importante saber si dada una función F verifi-


cando las propiedades anteriores, existe una medida de probabilidad P sobre
pR, BpRq, P q de tal forma que FP asociada a P coincida con la F original.

Teorema 2.4. Dada F : p´8, `8q Ñ r0, 1s que cumple las condicio-
nes de la definición 2.12 existe una única medida de probabilidad P sobre
pR, BpRq, P q de tal forma que la función de distribución FP asociada a P
coincide con la F original.

Proposición 2.6. Sea pR, BpRq, P q un espacio de probabilidad y sea FP la


función de distribución asociada a P, entonces

a) P ppa, bsq “ FP pbq ´ FP paq

b) P pp´8, bqq “ FP pb´ q pFP pb´ q “ lı́mxÑb´ FP pxqq

c) P ptbuq “ FP pbq ´ FP pb´ q

Demostración.

a) pa, bs “ p´8, bs X pa, `8q “ p´8, bs X rp´8, assc ñ P ppa, bsq “


P pp´8, bsq ´ P pp´8, asq “ FP pbq ´ FP paq. Recordar que A ´ B c “
A X Bc
2.5. Función de distribución en R 29

b) P pp´8, bqq `“ P lı́m “ lı́mnÑ8 P ´8, b ´ n1 “


` ` 1
‰˘ `` ‰˘
nÑ8 ´8, b ´ n
lı́mnÑ8 FP b ´ n1 “ FP pb´ q
˘

c) P ptbuq “ P pp´8, bsq ´ P pp´8, bqq “ FP pbq ´ FP pb´ q

Observación 2.6.

a) FP es continua en b, entonces P ptbuq “ 0

Demostración. Veamos las dos implicaciones

ñq FP continua en b ñ P ptbuq “ F pbq ´ F pb´ q “ 0.


ðq Sea tan unPN Ó 0. Entonces
˜ ¸
8
č
0 “ P ptbuq “ P pb ´ an , b ` an q
n“1
“ P plı́m pb ´ an , b ` an qq
nÒ8
“ lı́m P ppb ´ an , b ` an qq
nÒ8
“ lı́m pFP pb ` an q ´ FP pb ´ an qq
nÒ8
“ FP pbq ´ lı́m pFP pb ´ an q
nÒ8
ñ lı́m pFP pb ´ an q “ FP pbq
nÒ8
& lı́m FP pb ` an q “ FP pbq, intercambiando pb ´ an q por pb ` an q
nÒ8

Así queda demostrado que FP es continua por la izquierda y como


por la derecha lo es por definición, entonces es continua en todo
punto.

b) P ppa, bqq “ P ppa, bsq ´ P pbq “ FP pbq ´ FP paq ´ FP pbq ` FP pb´ q “


FP pb´ q ´ FP paq
P pra, bsq “ P ppa, bsq ` P paq “ FP pbq ´ FP paq ` FP paq ´ FP pa´ q “
FP pbq ´ FP pa´ q
P ppa, `8qq “ 1 ´ P pp´8, asq “ 1 ´ FP paq

c) El conjunto de discontinuidades de una función de distribución es fi-


nito o numerable.
30 Capítulo 2. Probabilidad

Demostración. Sea D “ tx P R | FP es discontinua en xu. Entonces


FP es discontinua en x ðñ P ptxuq ą 0 (todos los puntos de discon-
tinuidad tienen!probabilidad positiva). )
Sea @n Dn “ x P D | n`1 1
ă P ptxuq ă n1 , veamos que Dn tiene co-
mo mucho n discontinuidades.
Supongamos que Dn “ tx1 , x2 , . . . , xn`1 u, con xi ordenados en orden
creciente. Entonces
˜ ¸
n`1 n`1 n`1
ď ÿ ÿ 1
FP pxn`1 q “ P pp´8, xn`1 sq “ P p´8, xi s “ P ptxi uq ą “1
i“1 i“1 i“1
n`1

Por lo tanto tenemos comprobado que CardpDn q ď n @n. Ahora, por


otro lado veamos que
ď8
D“ Dn
n“1

D ñ P ptxuq ą 0 ñ D m P N, n`1 1 1 Ť8
xPŤ ă P ptxuq ď n ñxP n“1 Dn
x P n“1 Dn ñ P ptxuq ą 0 ñ x P D.
8

Por lo tanto podemos concluir que


˜ ¸
8
ď
CardpDq “ Card Dn
n“1

d) Toda función de distribución puede escribirse de forma única como una


combinación lineal convexa de una función de distribución continua y
otra a saltos.
Capítulo 3

Variables aleatorias
unidimensionales

3.1. Variables aleatorias


3.1.1. Concepto de variable aleatoria. Propiedades
Definición 3.1 (Variable aleatoria). Sea pΩ, Aq un espacio medible o pro-
babilizable y BpRq la σ-álgebra de Borel sobre R. Una aplicación X : Ω Ñ R
se denomina variable aleatoria si verifica:
@B P BpRq, X ´1 pBq “ tω P Ω | Xpωq P Bu P A
Teorema 3.1 (Caracterización de variable aleatoria). Se considera el es-
pacio medible pΩ, Aq y la clase C2 de subconjuntos de R con σpC2 q “ BpRq,
entonces X es una variable aleatoria si y sólo si X ´1 pAq P A @A P C2

Demostración.

ñq Sea X una variable aleatoria ñ X ´1 pAq P A @A P BpRq. En particular


se cumple para A P C2
ðq (Recordamos el siguiente resultado (ver expresión 1.1, pág. 7)).
X ´1 pC2 q Ă A ñ σpX ´1 pC2 qq Ă σpAq “ A ñ X ´1 pσpC2 qq Ă A

Ejemplo 3.1. Consideremos el experimento E “ “lanzar una moneda al


aire”. Sean Ω “ tC, Xu; A “ tH, Ω, C, Xu. Sea X : Ω Ñ R tal que
#
1 si ω “ C
Xpωq “
0 si ω “ X

31
32 Capítulo 3. Variables aleatorias unidimensionales

Tomaremos C2 “ tp´8, asu, ya que σpC2 q “ BpRq.


$
& H si a ă 0

´1
X pp´8, asq “ X si 0 ď a ă 1

Ω si a ě 1
%

Luego X construida así es variable aleatoria.

Ejemplo 3.2. Consideramos Ω “ ta, b, c, du, A “ tH, Ω, ta, bu, tcu, tc, du,
ta, b, cu, ta, b, du, tduu.
$
Ω Ñ R & 0 si ω “ a ó b

X: , con Xpωq “ 1 si ω “ c
ω Ñ Xpωq ’
2 si ω “ d
%

Tomando C2 “ tp´8, αsu obtenemos:


$


’ H si αă0
si 0ďαă1

& ta, bu
X ´1 pp´8, αsq “


’ ta, b, cu si 1ďαă2
% Ω

si αě2

Podemos observar que X es variable aleatoria.

Nota 1. Para ser variable aleatoria, la aplicación dada depende del álgebra
en consideración. Así, si en el último ejemplo tomamos A˚ “ tH, Ω, ta, bu, tc, duu
podemos observar que X ya no es variable aleatoria ya que las imágenes in-
versas, que antes calculamos, no están en A˚ .

Teorema 3.2. Sea X : pR, BpRqq Ñ pR, BpRqq continua, entonces X es


variable aleatoria.

Demostración. Tengamos en cuenta (1.1, pág 7).


Consideremos C2 “ tA | A es abierto en Ru ñ σpC2 q “ BpRq.
Ahora, dado que la imagen inversa de un abierto respecto de una apli-
cación continua es abierto tenemos que dado A P C2 , X ´1 pAq P BpRq

Teorema 3.3. Sean X : pΩ, Aq Ñ pR, BpRqq e Y : pR, BpRqq Ñ pR, BpRqq
dos variables aleatorias, entonces Y ˝ X es una variable aleatoria.

pΩ, Aq
X / pR, BpRqq Y / pR, BpRqq
7
Y ˝X
3.1. Variables aleatorias 33

Demostración.

@A P BpRq ñ Y ´1 pAq P BpRq ñ


ñ pY ˝ Xq´1 pAq “ X ´1 p Y ´1
pAq q
looomooon
P BpRq pY v.a.q
loooooooooomoooooooooon
P A pX v.a.q

Proposición 3.1 (Cardano). Sea X : pΩ, Aq Ñ pR, BpRqq una variable


aleatoria. Entonces X 2 , ´X, senpXq, |X| son variables aletatorias. En gene-
ral cualquier composición continua de una variable aleatoria es una variable
aleatoria.

Teorema 3.4. Sean X1 , . . . , Xn , . . . variables aleatorias, entonces son tam-


bién variables aleatorias:

Nota. Para las demostraciones siguientes, sea C2 “ tp´8, bsu ñ σpC2 q “


BpRq

a) máx pX1 , X2 q

Demostración.

pmáxpX1 , X2 qq´1 pp´8, bsq “ tω P Ω | pmáxpX1 , X2 qqpωq ď bu


“ tω P Ω | X1 pωq ď b y X2 pωq ď bu
“ tω P Ω | X1 pωq ď bu X tω P Ω | X2 pωq ď bu
´1 ´1
“ X 1 pp´8, bsq X
looooooomooooooon X 2 pp´8, bsq P A
looooooomooooooon
PA PA

b) mı́n pX1 , X2 q

Demostración.

pmı́n pX1 , X2 qqpωq “ mı́ntX1 pωq, X2 pωqu “ ´ máxt´X1 pωq, ´X2 pωqu
ñ mı́n pX1 , X2 q “ ´ máx p´X1 , ´X2 q

c) suppXn q
nPN
34 Capítulo 3. Variables aleatorias unidimensionales

ˆ ˙
Demostración. sup Xn pωq “ suppXn pωqq
nPN nPN

ˆ ˙´1
sup Xn pp´8, bsq “ tω P Ω | psup Xn qpωq ď bu
nPN
“ tω P Ω | Xn pωq ď b @n P Nu
č8
“ tω P Ω | Xn pωq ď bu
n“1
č8
“ Xn´1 pp´8, bsq P A @b
looooooomooooooon
n“1
PA

d) ı́nf pXn q
nPN

´ ¯
Demostración. ı́nf Xn pωq “ ı́nf pXn pωqq ñ ı́nf Xn “ ´supp´Xn q
nPN nPN nPN nPN

e) lı́mXn
n

ˆ ˙
Demostración. plı́mXn qpωq “ ı́nf suppXr pωqq P A (por c) y d))
n n rěn

f) lı́mXn
n

ˆ ˙
Demostración. plı́mXn qpωq “ sup ı́nf pXr pωqq P A (por c) y d))
n n rěn

g) Si existe límite, lı́mn Xn

Demostración. por e) y f)

Teorema 3.5. Sean X1 y X2 dos variables aleatorias. Entonces X1 ` X2 y


X1 ¨ X2 también lo son.

Demostración. Probaremos primero la suma demostrando antes el siguiente


resultado,
3.1. Variables aleatorias 35

Sea A “ tω P Ω | X1 pωq ă X2 pωq ` c, c P Ru. Ahora,

@ω P A X1 pωq ă X2 pωq ` c pQ es denso en Rq


ô D r P Q | X1 pωq ă r ă X2 pωq ` c
ô D r P Q | X1 pωq ă r y X2 pωq ą r ´ c
» fi
ď—
—tω P Ω | X1 pωq ă ru X tω P Ω | X2 pωq ą r ´ cuffi
ffi
ô ω P
–loooooooooooomoooooooooooon loooooooooooooomoooooooooooooonfl
r PQ
X1´1 p´8,rqPA X2´1 pr´c,8qPA
ñ APA

Luego pX1 ` X2 q´1 pp´8, cqq “ tω P Ω | X1 pωq ` X2 pωq ă cu “ tω P


Ω | X1 pωq ă c ´ X2 pωqu P A ñ X1 ` X2 es variable aleatoria.
Ahora, como sabemos que las composiciones continuas son variables alea-
torias, la potencia también lo es y por tanto,
2 2
1 1
„ „
X1 pωq ¨ X2 pωq “ X1 pωq ` X2 pωq ´ X1 pωq ´ X2 pωq
4 4

es variable aleatoria.

3.1.2. Probabilidad inducida por una variable aleatoria


Teorema 3.6 (Probabilidad inducida). Sea pΩ, A, P q un espacio de proba-
bilidad y X una variable aleatoria definida de pΩ, Aq en pR, BpRqq. Entonces
X induce en BpRq una función de conjunto

PX pBq “ P pX ´1 pBqq @B P BpRq

que se denomina distribución de la variable aleatoria X. Además PX


es una medida de probabilidad en BpRq.

Demostración.

Veamos primero que está bien definido. X ´1 pBq P A por


` ser variable
aleatoria y B P BpRq. En consecuencia, PX pBq “ P X ´1 pBq está
˘

bien definida.

PX pRq “ P pX ´1 pRqq “ P pΩq “ 1

A1 , . . . , An , . . . P BpRq Ai X Aj “ H i‰j
36 Capítulo 3. Variables aleatorias unidimensionales

˜ ¸ ˜ ˜ ¸¸
8
ď 8
ď
´1
PX Ai “ P X Ai
i“1 i“1
˜ ¸
8 `
ď ˘
´1
“ P X pAi q
i“1
8
ÿ
“ P pX ´1 pAi qq
i“1
ÿ8
“ PX pAi q
i“1

Ejemplo 3.3. Supongamos una urna con 4 bolas negras y 3 blancas. Se


sacan al azar 3 bolas sin reemplazamiento. Se considera la variable aleatoria
X ” número de bolas blancas obtenidas.

X 0 1 2 3
PX pX “ kq ˚ ˚ ˚ ˚

4 3
` ˘` ˘
3´k k
P pX “ kq “ `7˘
3

Observación 3.1. La función de distribución asociada a PX se denotará


por
FX pxq “ PX pp´8, xsq “ P ptω P Ω | Xpωq ď xuq

Definición 3.2 (Variable discreta). Se dice que la variable aleatoria X es de


tipo discreto si su función de distribución toma únicamente una cantidad fi-
nita o numerable de valores. Si denotamos estos valores por x1 , x2 , . . . , xn , . . .,
la función
P pX “ xn q “ PX ptxn uq “ FX pxn q ´ FX px´
nq

se denomina función de probabilidad o función de masa de la variable


aleatoria X.

Observación 3.2. Cuando tengamos una variable aleatoria discreta, ésta


vendrá de la forma

x1 x2 ... xn
P pX “ xi q P ptx1 uq P ptx2 uq . . . P ptxn uq
3.1. Variables aleatorias 37

Ejemplo 3.4. Sea X variable aleatoria cuya función de masa es la que

1
P pX “ 0q “ FX p0q ´ FX p0´ q “
4
1,5 1 1 1
1 P pX “ 1q “ FX p1q ´ FX p1´ q “ ´ “
2 4 4
muestra en la figura. 0,5 1
P pX “ 2q “ FX p2q ´ FX p2 q “
´
2
´1 1 2 3
X 0 1 2
PX pX “ Kq 1{4 1{4 1{2

Observación 3.3. Dado un conjunto numerable D “ txk ukPD˚ ĂN y una


función #
0 xRD
P ptxuq “
P pxq x P D
verificando que xk PD P pxk q “ 1 se cumple que
ř


xPBXD P pxq @B BpRq y B X D ‰ H
P
PX pBq “
0 BXD “H

y la medida de probabilidad PX asocidada a una variable aleatoria X que


toma los valores txk u con probabilidades P ptxuq y además la función de
distribución viene dada por
ÿ
FX pxq “ P pp´8, xsq “ P ptyuq
y Pp´8,xsXD

Definición 3.3 (Variable absolutamente continua). Se dice que la varia-


ble aleatoria X es de tipo absolutamente żcontinuo si existe una función
no negativa fX , integrable Riemman, con fX pxq dx “ 1 y de tal forma
R
que żx
FX pxq “ fX ptq dt
´8
A la función fX se la denomina función de la densidad de la variable
aleatoria X y al conjunto RX “ tx P R | fX pxq ą 0u soporte de la variable
aleatoria X.
Observación 3.4.
şb şa
a) P pa ă X ď bq “ FX pbq ´ FX paq “ ´8 fX ptq dt ´ ´8 fX ptq dt “
şb
a fX ptq dt y además P pa ă X ď bq “ P pa ă X ă bq “ P pa ď X ď bq.
Si B P BpRq. ż
PX pBq “ fX ptq dt
B
38 Capítulo 3. Variables aleatorias unidimensionales

b) Sea X una variable aleatoria absolutamente continua. ¿Es su función


de distribución continua?

Demostración. Sea ε ą 0
żx ż x´ε
FX pxq ´ FX px ´ εq “ fX ptq dt ´ fX ptq dt “
´8 ´8
żx
“ fX ptq dt “ tT ma valor mediou ε ¨ fX pξq ξ P px ´ ε, εq
x´ε

Entonces lı́m pFX pxq ´ FX px ´ εqq “ lı́m ε ¨ fX pξq “ 0


εÑ0 εÑ0

Ejemplo 3.5. Sea X variable aleatoria con función de distribución


#
0 si x ă 0
FX pxq “
1 ´ ρe ´λx si x ě 0 ρ P p0, 1q λ ą 0
X no es ni discreta ni continua. De hecho
# #
0 xă0 0 xă0
Fd pxq “ Fc pxq “
1 xě0 1 ´ e´λx xě0
FX pxq “ p1 ´ ρqFd pxq ` ρFc pxq
Cuando ocurre esto se dice que la variable aleatoria es combinación lineal
convexa de una discreta y una absolutamente continua.
Definición 3.4 (Variable mixta). Se dice que la variable aleatoria X es
mixta si su función de distribución, FX se puede escribir como una combi-
nación lineal convexa de una función de distribución de una variable aleato-
ria discreta Fd pxq y otra de una variable aleatoria continua Fc pxq. Es decir
FX pxq “ aFd pxq ` bFc pxq 0 ď a, b ď 1 a`b“1

3.1.3. Transformaciones de una variable aleatoria


Dada una variable aleatoria, ¿podemos conocecer (llamamos conocer a
averiguar sus funciones de distribución y densidad) nuevas variables obteni-
das a partir de la inicial?. ¿Cómo se obtienen las nuevas variables aleatorias?.
En este apartado abordaremos este tema.

PY
X Ñ gpXq “ y ¿FY , fY ?
fY
3.1. Variables aleatorias 39

Ejemplo 3.6. Consideramos X “ suma en el lanzamiento de una dado dos veces

X 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P pX “ xq 36 36 36 36 36 36 36 36 36 36 36

Se considera ahora un juego en el que se ganan 5 unidades monetarias si


sale 7 u 11, -3 si sale 3 ó 12 y 0 en el resto.

$
& 5 si
’ X “ 7 o X “ 11
Y “ gpXq “ ´3 si X “ 3 o X “ 12

0 resto
%

P pY “ 5q “ PY pt5uq “ P pω Ω | Y pωq “ 5q
P
8
“ P pω P Ω | Xpωq “ 7 o 11q “
36
P pY “ ´3q “ PY pt´3uq “ P pω P Ω | Y pωq “ ´3q
3
“ P pω P Ω | Xpωq “ 3 o 12q “
36
25
P pY “ 0q “ PY pt0uq “ . . . “
36

Y ´3 0 5
3 25 8
P pY “ yq 36 36 36

En general:

g
pΩ, Aq
X / pR, BpRqq / pR, BpRqq
7
Y “gpXq

3.1.3.1. Si X es variable aleatoria discreta

Teorema 3.7. Sea pΩ, A, P q un espacio de probabilidad y X una variable


aleatoria discreta. Dada una función g : R Ñ R se tiene que Y “ gpXq es
también una variable discreta y su función de probabilidad viene dada por
ÿ
P pY “ yq “ PY ptyuq “ PX ptxuq @y P RY
xPg ´1 pyq

Siendo RY el soporte de Y .
40 Capítulo 3. Variables aleatorias unidimensionales

Demostración.

P pY “ yq “ P ptω P Ω | Y pωq “ yuq “ P ptω P Ω | gpXqpωq “ yuq


“ P ptω P Ω | Xpωq P tx | gpxq “ yuuq “ PX ptx P R | gpxq “ yuq
ÿ
“ PX ptxuq
xPg ´1 pyq

3.1.3.2. X es variable aleatoria continua

Caso 1. Y “ gpXq discreta

Teorema 3.8. Sea X una variable aleatoria con función de densidad fX y


soporte los números reales. Sea g : R Ñ R tal que Y :“ gpXq es variable
aleatoria discreta. Entonces la función de probabilidad de Y viene dada por
ż
PY ptyuq “ fX pxq dx
xPR | gpxq“y

Demostración.

PY ptyuq “ P pY “ yq “ P ptω P Ω | Y pωq “ yuq “ P ptω P Ω | gpXqpωq “ yuq


“ P ptω P Ω | Xpωq P tx | gpxq “ yuuq “ PX ptx P R | gpxq “ yuq
ż
“ fX pxq dx
txPR | gpxq“yu

Ejemplo 3.7. Suponemos


# X variable aleatoria con soporte R.
1 Xą0
Definimos Y “ gpXq “
´1 X ă 0

ża ż0
P pY “ 1q “ P pX ą 0q “ fX pxq dx P pY “ ´1q “ P pX ă 0q “ fX pxq dx
0 a

y para X “ 0 como X es continua. P pX “ 0q “ 0 (por ser un punto),

Caso 2. Y “ gpXq continua

Teorema 3.9. Sea X una variable aleatoria con función de densidad fX


y soporte en el intervalo ra, bs. Sea g : R Ñ R estrictamente creciente y
3.1. Variables aleatorias 41

continua en ra, bs. Entonces Y “ gpXq es variable aleatoria continua con


función de distribución

FY pyq “ FX pg ´1 pyqq @y P RY

y tiene por función de densidad

1
$
& fX pg ´1 pyqq y P rgpaq, gpbqs
fY pyq “ g1 ¨ pg ´1 pyqq
0 y R rgpaq, gpbqs
%

Demostración. Al ser estrictamente creciente es biyectiva y tanto la imagen


como la contraimagen por g de un intervalo será en un intervalo. Luego si y
sólo si RX “ ra, bs se tendrá que RY “ rgpaq, gpbqs

y P RY ñ FY pyq “ P pY ď yq “ P pgpXq ď yq “
“ P pX ď g ´1 pyqq “ FX pg ´1 pyqq

B B 1
fY pyq “ FY pyq “ FX pg ´1 pyqq “ fX pg ´1 pyqq ¨ 1 ´1
By By g pg pyqq

Dada y ă gpaq ñ g ´1 pyq ă a ñ FY pyq “ FX pg ´1 pyqq “ 0 ñ fY pyq “ 0


y ą gpbq ñ g ´1 pyq ą b ñ FY pyq “ FX pg ´1 pyqq “ 1 ñ fY pyq “ 0

Observación 3.5.

a) En las mismas condiciones del teorema anterior si g es estrictamente


decreciente, se tiene:

FY pyq “ 1 ´ FX pg ´1 pyqq @y P RY
Y además
$
´1
& fX pg ´1 pyqq y P rgpaq, gpbqs
fY pyq “ g1 ¨ pg ´1 pyqq
0 y R rgpaq, gpbqs
%

b) El teorema lo hemos dado para soportes de la forma ra, bs y los resulta-


dos son igualmente ciertos para intervalos abiertos o incluso acotados.
Ejemplo 3.8. Sea X variable aleatoria, de la cual conocemos FX . Supone-
mos Y “ aX ` b ´ ¯ ´ ¯
FY pyq “ P pY ď yq “ P paX ` b ď yq “ P X ď y´b a “ FX
y´b
a
´ ¯
y´b
fY pyq “ fX a ¨ a , que se obtiene derivando FX .
1
42 Capítulo 3. Variables aleatorias unidimensionales

Ejemplo 3.9. Sea X ” Upa, bq (distribución uniforme, ver sección 3.8.1).


Entonces #
1
x P pa, bq
fX pxq “ b´a
0 resto

Y “ eX , y P rea , eb s

FY pyq “ P pY ď yq “ P pex ď yq “ P pX ď ln yq “ FX pln yq

1 1 1
fY “ fX pln yq ¨ “ ¨
y b´a y
Ejemplo 3.10 (Ejercicio 10, hoja 3). Consideramos X variable aleatoria
de Cauchy (i.e. fX pxq “ πp1`x1
2 q ). Ahora sea Y “ 3X ` 1. Se pide calcular

FY , fY
FY pyq “ P pY ď yq “ P p3X ` 1 ď yq “ P pX ď y´1 y´1
3 q “ FX p 3 q
fY pyq “ FY1 pyq “ FX1 p y´1 1
3 q“ π ¨
1 1
y´1 2 ¨ 3 , yPR
1`p 3
q

Teorema 3.10. Sea X una variable aleatoria continua con función de den-
sidad fX pxq y sea g : R Ñ R continua y g 1 pxq ‰ 0 salvo en un número finito
de puntos. Supongamos que para cada número real y se tiene

a) Existen exactamente npyq puntos: x1 pyq, x2 pyq, . . . , xn pyq. Tales que


gpxK pyqq “ y g 1 pxK pyqq ‰ 0 K “ 1, . . . , npyq
o bien

b) No existe ningún punto x P RX tal que gpxq “ y y g 1 pxq ‰ 0. En este


caso npyq “ 0

entonces Y es una variable aleatoria continua cuya función de densidad es


de la forma
$
’ npyq
& ÿ f px pyqq ¨ ˇˇg 1 px pyqq´1 ˇˇ si npyq ą 0

k k
hpyq “
’ k“1
%0

si npyq “ 0

Ejemplo 3.11. Consideremos una variable aleatoria X cuya función de


densidad es de Cauchy. ¿Es válida Y “ gpxq “ X 2 ?
? ?
Dado y P R D x1 pyq “ y, x2 pyq “ ´ y de tal forma que

gpx1 pyqq “ y, gpx2 pyqq “ y & g 1 pxq “ 2x


? ?
Además así, g 1 px1 pyqq “ 2 y y g 1 px2 pyqq “ ´2 y, con lo que se tiene que
# ? ?
?1 1
? 2
? 1
2 y fX p yq ` 2 y fX p´ yq “ 2 y ¨ πp1`yq yą0
fY pyq
0 resto
3.2. Características de las variables aleatorias unidimensionales 43

3.2. Características de las variables aleatorias uni-


dimensionales
En la mayoría de las aplicaciones prácticas, la masa de la probabilidad
de una variable aleatoria X estará concentrada principalmente dentro de
un intervalo pequeño y, por tanto, para obtener una idea aproximada de
la distribución completa, a veces es apropiado indicar la posición de ese
intervalo con alguna medida de posición asociada a la variable aleatoria X
bajo consideración.

3.2.1. La esperanza matemática


Definición 3.5 (E. M de una v.a. discreta). Sea X una variable aleatoria
discreta, cuya función de la masa o probabilidad es PX pP pX “ xqq, entonces
la esperanza matemática de X viene dada por
ÿ
ErXs “ px ¨ P pX “ xqq
xPRX

Observación 3.6.

Si RX tiene un número finito de elementos, RX “ tx1 , . . . , xn u, en-


tonces la suma anterior siempre es finita y por tanto ErXs existe.
8
ÿ
Si RX es infinito numerable, entonces la serie xn ¨ P pX “ xn q pue-
n“1
de ser de términos positivos, negativos o puede ser alternada. En los
tres casos puede ser convergente o divergente. Además sabemos que hay
series alternadas convergentes que no son absolutamente convergentes.
En este caso las series no son incondicionalmente convergentes. (Dis-
tintas reordenaciones de sus términos dan valores distintos a la suma).
Diremos que ErXs, X discreta existe cuando la serie anterior converge
ÿ8
absolutamente, es decir, |xn |P pX “ xn q converge como una serie
n“1
de terminos positivos.
Ejemplo 3.12. Suponemos X tal que
RX “ tp´1qn´1 n | n P Nu “ t1, ´2, 3, ´4, . . .u
6 6
P pX “ xq “ P pX “ p´1qn´1 nq “ n “ 1, 2, . . .
π 2 n2 π 2 n2
Veamos primero que la sucesión de puntos del soporte converge,
6
8
ÿ
“1
n“1
π 2 n2
44 Capítulo 3. Variables aleatorias unidimensionales

Y ahora,

6 6 ÿ 1
8
ÿ 8
n´1
ErXs “ p´1q n 2 2 “ 2 p´1qn´1
n“1
π n π n“1 n

converge
Estudiemos ahora la convergencia absoluta.
ˇp´1qn´1 1 ˇ “ 1
8 ˇˇ
ÿ
ˇ
ÿ8
no es abs. convergente ñ no existe ErXs
ˇ
n“1
ˇ n ˇ
n“1
n

Definición 3.6 (E.M. de v. a. abs. cont.). Sea x una variable aleatoria


absolutamente continua con rango o soporte RX y función de densidad fX ,
la esperanza matemática de X se define como
ż
ErXs “ x ¨ fX pxq dx
RX

Observación 3.7.

żb
a) Si RX “ ra, bs ñ ErXs “ x ¨ fX pxq dx
a

ż8 żb
b) Si RX “ R ñ ErXs “ x ¨ fX pxq dx “ lı́m x ¨ fX pxq dx
´8 aÑ´8 a
bÑ8

Al igual que en el caso discreto, diremos que existe la esperanza cuando la


integral impropia converge absolutamente, es decir:
ż8 ż8 ż0
|x|fX pxq dx ă 8 ñ xfX pxq dx ´ xfX pxq dx ă 8
´8 0 ´8

Definición 3.7 (E.M de v.a mixta). Sea X una variable aleatoria mixta.
Sea λ P R tal que FX pxq “ λFd pxq ` p1 ´ λqFc pxq, donde Fc , Fd son las
funciones de distribución de Xd , Xc , una variable aleatoria discreta y otra
continua respectivamente. Entonces, la esperanza de X viene dada por

ErXs “ λErXd s ` p1 ´ λqErXc s

Ejercicio 1. En el juego del parchís, un jugador no puede iniciar el avance


de una ficha hasta que no obtiene un cinco. Se considera la variable aleato-
ria X “ número de tiradas necesarias hasta que aparece un cinco. Calcular
ErXs.
` 5 ˘n´1 1 ` 5 ˘n´1
Solución. Bien, ErXs “ RX xP pX .
ř ř8 1 ř8
“ xq “ n“1 n 6 6 “ 6 n“1 n 6
Sea x P p0, 1q, llamamos: Spxq “ n“1 x “ 1´x . La derivada de S existe,
x
ř8 n
3.2. Características de las variables aleatorias unidimensionales 45

puesto que converge uniformemente. Entonces,

8
ÿ
S 1 pxq “ nxn´1 “
n“1
1´x`x 1
“ 2
“ ñ
p1 ´ xq p1 ´ xq2
1 5
ˆ ˙
ñ ErXs “ S 1 “
6 6
1 1
“ “6
6 p1 ´ 5{6q2

Ejercicio 2. Sea X variable aleatoria cuya función de densidad es

& 1 xě1
$

fX pxq “ x2
%0 resto

Calcular ErXs.
Solución. Calculamos la esperanza mediante la definición,
ż ż1 ż8
ErXs “ xfX pxq dx “ xfX pxq dx ` xfX pxq dx “
RX ´8 1
1
ż8 `8
“0` x ¨ 2 dx “ ln x “ `8 ñ E ErXs
1 x 1

Veamos ahora que no es necesario conocer la función de densidad (o de


masa) de la variable aleatoria Y “ gpXq para hallar su esperanza. Nos basta
conocer la de X, esto es fX (o PX ).

Proposición 3.2. Sea X una variable aleatoria con función de distribución


FX y se considera una función g : R Ñ R. Entonces:
ÿ
ErY s “ gpxq ¨ P pX “ xq
xPRX

si X es discreta o ż
ErY s “ gpxq ¨ fX pxq dx
RX

si Y es continua.

Observación 3.8. En el segundo caso sólo consideramos que Y “ gpXq sea


continua, pues si es discreta basta aplicar el otro caso. Por supuesto si X
es discreta, Y “ gpXq también lo es.
46 Capítulo 3. Variables aleatorias unidimensionales

Demostración. de la Proposición 3.2


a)
ÿ
ErY s “ yPY pY “ yq
y PRY
ÿ ÿ
“ y PX pX “ xq
y PRY xPg ´1 pyq
ÿ ÿ
“ y PX pX “ xq
y PRY xPRX | gpxq“y
ÿ ÿ
“ gpxqPX pX “ xq
y PRY xPRX | gpxq“y
ÿ
“ gpxqPX pX “ xq
X PR X

b)
ż
ErY s “ y ¨ fY pyq dy
RY
1
ż
` ˘
“ y ¨ fX g ´1 pyq dy
RY g 1 pg ´1 pyqq
#
y “ gpxq x “ g ´1 pyq
“ 1
dx “ g1 pg´1 pyqq
dy
ż
“ gpxqfX pxq dx
RX

Observación 3.9.

a) Se dice que X está degenerada en k si P pX “ kq “ 1, entonces ErXs “


k¨1“k

b) a ď X ď b, entonces a ď ErXs ď b

@i a ď xi ď b ñ a ¨ P pX “ xi q ď xi ¨ P pX “ xi q ď b ¨ P pX “ xi q
ÿ8 8
ÿ ÿ8
ñ a P pX “ xi q ď xi P pX “ xi q “ ErXs ď b P pX “ xi q

(& P pX “ xi q “ 1)
ř

Si a “ 0 ñ X ě 0 ñ ErXs ě 0
3.3. Otras medidas de centralización 47

c) Si X es una variable aleatoria y dadas g, h : R Ñ R, entonces Era ¨


gpXq ` b ¨ hpXqs “ aErgpXqs ` bErhpXqs, esto es, la esperanza es
operador lineal (equiv. aplicación lineal).

Demostración. En el caso discreto es inmediato por las propiedades


del sumatorio. En el caso continuo,
ż
EragpXq ` bhpXqs “ pagpxq ` bhpxqqfX pxq dx
RX
ż ż
“ a gpXq ¨ fX pxq dx ` b hpXq ¨ fX pxq dx
RX RX
“ aErgpXqs ` bErhpXqs

Proposición 3.3. Si X es una variable con función de distribución simé-


trica repecto del valor c, entonces si existe ErXs, ésta es igual a c.

Demostración. Supongamos que X es continua. Vamos a demostrarlo en el


supuesto de que c “ 0 (i.e. PX pxq “ PX p´xq)
ż ż0 ż8
ErXs “ xfX pxq dx “ xfX pxq dx ` xfX pxq dx
R ´8 0
ż8 ż8
“ xfX pxq dx ´ xfX pxq dx “ 0
0 0

Ahora bien, si c ‰ 0, tomamos la variable aleatoria Y “ X ´ c que es


simétrica respecto de 0, luego ErY s “ ErX ´ cs “ 0 ñ ErXs ´ Ercs “ 0 ñ
ErXs ´ c “ 0, luego ErXs “ c.

3.3. Otras medidas de centralización

3.3.1. Momento de orden k centrado en origen


Definición 3.8 (Momento de orden k centrado en origen). Se denomina
momento de orden k centrado en el origen, denotado por αk a la
esperanza de la variable aleatoria gpXq “ X k .

a) αk “ ErgpXqs “ ErX k s “ xk ¨ P pX “ xq si X es discreta


ř
xPRX

b) αk “ ErgpXqs “ ErX k s “ xk ¨ fX pxq dx si X es abs. continua


ş
RX
48 Capítulo 3. Variables aleatorias unidimensionales

3.3.2. Mediana
Definición 3.9 (Mediana). Dada una variable aleatoria X, la mediana es
el valor Md que verifica

1
FX pMd q “ P pX ď Md q “
2
La mediana es el valor que deja a su izquierda y a su derecha la misma
cantidad de masa de probabilidad, ya que:

1 1
P pX ą Md q “ 1 ´ P pX ď Md q “ 1 ´ “
2 2
Observación 3.10.

1
Si X es continua siempre se puede encontrar un
valor Md que sea la mediana de X
Md

1,5
Si X es discreta no se puede asegurar que exista
1
o que sea único. En el ejemplo de la izquierda,
0,5
cualquier valor del intervalo p1, 2q nos vale como
´1 1 2 3 mediana.

Para evitar esto último, se escoge como mediana el primer valor de la


variable aleatoria (en orden creciente) que satisface que FX pMd q ě 1{2.

Ejemplo 3.13. Sea X el número de caras al lanzar dos monedas:

P pX “ 0q “ 1
4 P pX “ 1q “ 1
2 P pX “ 2q “ 1
4

$


’ 0 si xă0
si 0 ď x ă 1

& 1{4
FX pxq “ P pX ď xq “



3{4 si 1 ď x ă 2
% 1

si xě2

ErXs “ 0 ¨ 1
4 `1¨ 1
2 `2¨ 1
4 “1 Md “ 1

Ejemplo 3.14.#Consideramos X la variable aleatoria con función de den-


2 si 0 ă x ă 2
x
sidad, fX pxq “
0 resto
3.4. Medidas de dispersión de una variable aleatoria 49

FX pMd q “ 1{2 ô FX pMd q “ P pX ď Md q


ż Md
x
“ dx
0 2
?
“ 1{2 ñ Md “ 2

4
ż2
x
ErXs “ x¨ dx “
0 2 3
Proposición 3.4. Si X es una variable aleatoria con distribución simétrica
respecto de un valor c, entonces la mediana es c.

Demostración.
ż8 żc ż8
1“ fX pxq dx “ fX pxq dx ` fX pxq dx “
´8 ´8 c

y puesto que fX es simétrica respecto de c

żc
“2 fX pxq dx
´8
y así
1
żc
“ fX pxq dx “ FX pcq
2 ´inf ty

luego c es la mediana de X.

3.3.3. Moda
Definición 3.10 (Moda). Se denomina moda de la variable aleatoria X al
valor que hace máxima la función de probabilidad en caso de ser discreta,
o como el valor que hace máxima la función de densidad en caso de ser
continua.
Observación 3.11. Por tratarse del máximo de una función en un conjunto
cerrado, puede que en ocasiones la moda no exista o no sea única.

3.4. Medidas de dispersión de una variable alea-


toria
3.4.1. Varianza y desviación típica
Definición 3.11 (Varianza. Desviación típica).
50 Capítulo 3. Variables aleatorias unidimensionales

a) Sea X una variable aleatoria con ErX 2 s ă `8. Se denomina varian-


za de X a la expresión:

varpXq “ ErpX ´ ErXsq2 s “ σ 2

pσ 2 ě 0; ErpX ´ lo
ErXs 2
omoonq sq
ě0

b) Se denomina desviación típica de la variable aleatoria X a la expre-


sión: a
σ “ varpXq

Proposición 3.5 (Propiedades de la varianza). Sea X variable aleatoria,


entonces

varpXq “ 0 ô D c P R | P pX “ cq “ 1

@a, b P R varpa ¨ X ` bq “ a2 ¨ varpXq

varpXq “ α2 ´ α12

Demostración.

ðq D c P R | PX pX “ cq “ 1 ñ ErXs “ c ¨ PX pX “ cq “ c y
también que ErX 2 s “ c2 ¨ PX pX “ cq “ c2 ñ varpXq “ 0, ya que
varpXq “ ErpX ´ ErXsq2 s
ñq Suponemos X discreta.
ÿ
0 “ varpXq “ ErpX´ErXsq2 s “ px´ErXsq2 ¨P pX “ xq ñ
x PR X
ñ x “ ErXs @x P RX

Así la variable aleatoria X toma un único valor, que es ErXs “ c.

varpaX ` bq “ E paX ` b ´ EraX ` bsq2


“ ‰

“ E paX ` b ´ aErXs ´ bq2


“ ‰

“ E a2 pX ´ ErXsq2
“ ‰
” ı
“ a2 E pX ´ ErXsq2
“ a2 varpXq
3.4. Medidas de dispersión de una variable aleatoria 51

varpXq “ E pX ´ ErXsq2 “ E X 2 ` ErXs2 ´ 2X ¨ ErXs


“ ‰ “ ‰

“ E X 2 ` E ErXs2 ´ 2E rErXs ¨ Xs
“ ‰ “ ‰

“ E X 2 ` ErXs2 ´ 2ErXsErXs
“ ‰

“ E X 2 ´ ErXs2
“ ‰

“ α2 ´ α12

3.4.2. Momento de orden k respecto de la media


Definición 3.12. Se denomina momento de orden k respecto de la
media a la esperanza de la variable aleatoria gpXq “ pX ´ ErXsqk :
” ı
µk “ E pX ´ ErXsqk

ÿ ż
k
pz ´ ErXsq PX pX “ xq & pz ´ ErXsqk fX pxq dx
xPRX RX

Si X es discreta o continua, respectivamente.

En particular, si k “ 2 ñ µ2 “ σ 2 “ α2 ´ α12
Proposición 3.6. Los momentos de orden k respecto de la media, µk , y
respecto del origen, αk , verifican las siguientes relaciones:
ErXs “ µ “ α1
looooooooomooooooooon řn
a) µn n
` ˘
ErpX ´ µqn s “
“ k“0 k p´1qn´k µn´k αk
b) αn “ ErX n s “ nk“0 nk µn´k µk
ř ` ˘

Demostración.

a)
µn “ ErpX ´ µqn s
« ff
n ˆ ˙
ÿ n
“ E p´1qn´k µn´k X k
k“0
k
n ˆ ˙
ÿ n
“ p´1qn´k µn´k ErX k s
k“0
k
n ˆ ˙
ÿ n
“ p´1qn´k µn´k αk
k“0
k
52 Capítulo 3. Variables aleatorias unidimensionales

b)
αn “ ErX n s “ ErppX ´ µq ` µqn s
« ff
n ˆ ˙
ÿ n
“ E pX ´ µqk µn´k
k“0
k
n ˆ ˙
ÿ n n´k
“ µ ¨ ErpX ´ µqk s
k“0
k
n ˆ ˙
ÿ n n´k
“ µ µk
k“0
k

3.5. La desigualdad de Tchebychev. Aplicaciones


Una forma de medir la representatividad de ErXs, sobre todo de cara a
la aplicabilidad en problemas prácticos, es conocer qué probabilidad tienen
diversos intervalos del rango o soporte de variable aleatoria X centrados en
la esperanza ErXs, es decir, el intervalo pErXs ´ ε, ErXs ` εq.
Para valores pequeños de ε, la probabilidad de un intervalo de este tipo
es grande, lo cual indica un claro agrupamiento de la distribución alrededor
de su esperanza y, por tanto, su representatividad es grande. Dicha represen-
tatividad viene pues medida en términos de probabilidad. Esta probabilidad
dependerá evidentemente de la varianza, que mide la dispersión de la varia-
ble. A veces el cálculo de la probabilidad de estos intervalos no es sencillo o
simplemente no tenemos toda la información necesaria para calcularla. En
estos casos nos conformaremos con una cota de esa probabilidad y tal cota
la vamos a obtener mediante la desigualdad de Tchebychev.
Teorema 3.11 (Desigualdad de Markov). Se considera la variable aleatoria
X : pΩ, A, PX q Ñ pR, BpRqq y la función g : R Ñ R no negativa. Entonces,
ErgpXqs
P pgpXq ą kq “ P ptω P Ω | gpXpωqq ą kuq ď , ką0
k
Demostración.
ż
ErgpXqs “ gpxqfX pxq dx
żRX
ě gpxqfX pxq dx
tX | gpXqąku
ż
ě k¨ fX pxq dx
tX | gpxqąku
“ k ¨ P px P R | gpxq ą kq
3.6. Función generatriz de momentos. Función característica 53

Teorema 3.12 (Desigualdad de Tchebychev). Sea X una variable aleatoria


con ErXs y varpXq finitas. Entonces
1
@ε ą 0 P p|X ´ ErXs| ě σεq ď
ε2
Demostración.
σ2 1
P p|X ´ ErXs| ě σεq “ P ppX ´ ErXsq2 ě σ 2 ε2 q ď 2 2
“ 2
σ ¨ε ε
Tomamos como gpXq “ pX´ErXsq2 y empleamos la desigualdad de Markov.

Dado k ą 0, la masa de probabilidad fuera del intervalo rµ ´ kσ, µ ` kσs


es menor que k12 .
Ejemplo 3.15. El dueño de un bar estima que durante el fin de semana, los
clientes piden por término medio 300 bocadillos, con una desviación típica de
20 bocadillos. ¿Qué probabilidad hay de que en un fin de semana los clientes
pidan al menos 330 bocadillos?
Solución. Utilizando la desigualdad de Tchebychev,
30
ˆ ˙
P pX ě 330q “ P pX ´ 300 ě 30q “ P X ´ 300 ě ¨ 20
20
30 1 4
ˆ ˙
ď P |X ´ 300| ě ¨ 20 ď 30 2 “
20 p 20 q 9

Notemos el menor o igual al aplicar valor absoluto. Debe aplicarse para


poder utilizarse la desigualdad de Tchebychev. El menor o igual viene porque
al aplicar valor absoluto ganamos casos (tanto X ´ 300 como ´pX ´ 300q)
¿Cuántos panecillos debe comprar el dueño y así poder satisfacer a los clien-
tes con una probabilidad de por lo menos 0.75?

Sean Y los panecillos que deberá comprar el dueño, denotados por 300`k
por comodidad.
P pX ě 300`kq ď?14 ñ P pX´300 ě kq “ P X ´ 300 ě 20 k ď P |X ´ 300| ą 20 20
` 20
˘ ` k
˘
ď
1
k 2
“ 14 ñ k ě 1600 “ 40 Con lo cual, deberá comprar 324 panecillos.
p 20 q

3.6. Función generatriz de momentos (MX ). Fun-


ción característica (ϕX )
Definición 3.13 (Función generatriz de momentos). Dada una variable
aleatoria X, se define la función generatriz de momentos de X como

MX psq “ E esX
“ ‰
@s P R
54 Capítulo 3. Variables aleatorias unidimensionales

Si X es discreta: MX psq “ ş xPRX esx ¨ P pX “ xq @s P R


ř
Si X es continua: MX psq “ RX esx ¨ fX pxq dx @s P R

Ejemplo 3.16. Sea la variable aleatoria X, con soporte RX “ t1, 2, . . .u, P pX “


nq “ π26¨n2 , n “ 1, 2, ¨ ¨ ¨

6 ÿ esn
8
ÿ 8
MX psq “ esn ¨ P pX “ nq “
n“1
π 2 n“1 n2

esn
a) Si s ą 0 ñ lı́mnÑ8 n2
“ 8 ñ por ser MX psq no convergente no
existe para s ą 0
sn
b) Si s ă 0 ñ esn ă e @n ñ en2 ď ne2 y 8 n“1 n2 es convergente ñ
e
ř
ř8 esn
n“1 n2 es convergente ñ D MX psq para s p´8, 0s
P

Ejemplo 3.17.#Consideremos X variable aleatoria absolutamente continua


1 ´x
e 2 xą0
tal que f pxq “ 2 ¿MX psq?
0 resto

Observación 3.12. Sea X una variable aleatoria cuya función generatriz


de momentos es MX psq. La función generatriz de momentos de Y “ aX ` b
es de la forma MY psq “ esb ¨ MX pasq, puesto que
” ı ” ı
MY psq “ E esY “ E espaX`bq “ E epasqX ¨ esb “ esb ¨ MX pasq
“ ‰

Teorema 3.13. Sea X variable aleatoria con función generatriz de mo-


mentos MX psq. Si D MX psq @s P p´s0 , s0 q entonces existen las derivadas
de cualquier orden de la función generatriz en s “ 0 y se verifica

Bk
ˆ ˙ ” ı
kq
@k, MX p0q “ M X psq “ E X k “ αk
Bsk s“0

Además MX psq “ 1 ` 1!1 ¨ ErXss ` 2!1 E X 2 ¨ s2 ` ¨ ¨ ¨ ` k!


“ ‰ 1
“ ‰
E X k ¨ sk ` . . .

Demostración. Por hipótesis,


ÿ ż
sx
e P pX “ xq & esx fX pxq dx
x PR X RX

son absolutamente convergentes para s P p´s0 , s0 q.


Por otro lado las funciones

g1 psq “ esx P pX “ xq & g2 psq “ esx fX pxq


3.6. Función generatriz de momentos. Función característica 55

son indefinidamente derivables en R. En consecuencia se tiene que:


˜ ¸
B ÿ
MX 1
psq “ esx P pX “ xq
Bs xPR
X
ÿ B
“ pesx P pX “ xqq
x PR X
Bs
ÿ
“ xesx P pX “ xq
x PR X

ÿ
1
MX p0q “ x ¨ P pX “ xq “ ErXs
x PR x
kq
Es claro que MX p0q “ E X k @k. Por el desarrollo de McLaurin de
“ ‰

MX psq @s P p´s0 , s0 q
1 2 1 kq
MX psq “ M X p0q ` M
1
X p0q s ` MX p0q s2 ` ¨ ¨ ¨ ` MX p0q sk ` . . .
loomoon loomoon 2! k!
1 ErXs
8 kq 8
ÿ MX p0q k ÿ αk k
“ s “1` s
k“0
k! k“1
k!

Teorema 3.14. Sean X e Y dos variables aleatorias con funciones gene-


ratrices de momentos MX psq y MY psq. Si MX psq “ MY psq @s P p´s0 , s0 q,
entonces las distribuciones de probabilidad de X e Y coinciden.
Recíprocamente si X e Y tienen la misma distribución de probabilidad en-
tonces sus funciones generatrices coinciden en p´s0 , s0 q.
Definición 3.14 (Función característica). Dada una variable aleatoria X se
denomina función característica de la variable aleatoria X a la expresión
$ ÿ

’ X discreta : eitx P pX “ xq
“ itX ‰ & x
ϕX ptq “ E e “ żPRX
%X continua : eitx fX pxq dx


RX

eitx “ cosptxq ` i senptxq ›eitx › ď 1 luego siempre existe (es acotada).


› ›

ż ż ż
e itx
fX pxq dx “ cos tx fX pxqdx ` i ¨ sen tx fX pxqdx
RX RX RX
” ı
kq
ϕX p0q “ ik ¨ E X k
56 Capítulo 3. Variables aleatorias unidimensionales

” ı ” ı
ϕaX`b ptq “ E eitpaX`bq “ E eitaX ¨ eitb “ eitb ¨ ϕX patq

Teorema 3.15 (Teorema de inversión). Sea X variable aleatoria y ϕptq su


función característica, entonces
1
ż
fX pxq “ e´itx ϕptq dt
2π R

3.7. Distribuciones discretas


3.7.1. Distribución de Bernoulli pBerppqq
Es de hecho la distribución binomial con n “ 1. Consideremos un ex-
perimento aleatorio. La probabilidad de que sucedan dos hechos, a los que
llamaremos ”Éxito” y ”Fracaso” puede expresarse:
#
Éxito pEq P pEq “ p
Exp , p P p0, 1q
Fracaso pF q P pF q “ 1 ´ p
Luego, tomamos el espacio muestral que forman los dos sucesos, y por σ-
álgebra sus partes. Ω “ tE, F u, A “ PpΩq
Consideremos la aplicación y la tabla de representación de la variable X.

X : pΩ, A, P q Ñ pR, BpRqq


X 0 1
E ÞÑ 1
P pX “ xq 1 ´ p p
F ÞÑ 0

P pX “ 1q “ P pX ´1 p1qq “ P pEq “ p
P pX “ 0q “ P pX ´1 p0qq “ P pF q “ 1 ´ p En lo sucesivo, usaremos indistin-
tamente q y 1 ´ p. Calculamos ahora todas las medidas de la variable que
conocemos.

Esperanza µ “ ErXs “ 0 ¨ p1 ´ pq ` 1 ¨ p “ p

Varianza: σ 2 “ varpXq “ E X 2 ´ErXs2 “ 02 ¨p1´pq`12 ¨p´p2 “ pp1´pq


“ ‰

Función característica: ϕX ptq “ EreitX s “ eit0 P pX “ 0q ` eit1 P pX “


1q “ 1 ´ p ` peit

Generatriz de momentos: MX psq “ q ` pes


2
“ ‰ ϕX p0q 1
` ˘
Momento de orden 2: α2 “ E X 2 “ i2
“ i2
i2 ¨ peit t“0
“p

Conocido el parámetro p tenemos completamente determinada la distribu-


ción.
3.7. Distribuciones discretas 57

3.7.2. Distribución binomial pBpn, pqq


Al igual que antes, volvamos a utilizar el suceso aleatorio de resultados
”Éxito” y ”Fracaso”.
#
Éxito pEq P pEq “ p
Exp , p P p0, 1q
Fracaso pF q P pF q “ 1 ´ p

Tendremos en cuenta Ωn .
ω P Ωn ñ ω “ pR1 , . . . , Rn q donde cada Ri “ E ó Ri “ F . P pωq “ pk ¨ q n´k
(k éxitos y n ´ k fracasos).
Consideremos la aplicación y la tabla de representación de la variable
aleatoria X:

X : pΩn , PpΩn q, P q Ñ pR, BpRqq


ω ÞÑ éxitos en la n-upla ω

X 0 1 2 ... n
X”
P pX “ xq . . . . . . . . . ...

P pX “ kq “ P ptω P Ωn | Xpωq “ kuq “ nk pk ¨ q n´k


` ˘

Como puede observarse, conocidos n y p la distribución queda determi-


nada. Veamos ahora sus elementos más importantes.
$

&ř0 xă0
n
0 ď x ă n & MX psq “ ppes ` qq
`n˘ k n´k
FX pxq “ kďx k p ¨ q

1 xěn
%

“ itX ‰ ÿn
ϕX ptq “ E e “ eitk ¨ P pX “ kq
k“0
n ˆ ˙
itk n
ÿ
“ e pk ¨ p1 ´ pqn´k
k“0
k
n ˆ ˙
ÿ n itk k n´k
“ e p ¨q
k“0
k
“ peit p ` qqn
ϕ1 p0q ˘n´1
Esperanza: ErXs “ Xi ; Calculemos ahora ϕ1X ptq “ n ¨ eit p ` q
`
¨
p ¨ i ¨ eit ñ ϕ1 p0q “ n ¨ p ¨ i. Luego entonces ErXs “ np
“ ‰ ϕ2 p0q
Momento de orden 2: α2 “ E X 2 “ Xi2 “ n2 p2 ´ np2 ` np
“ ‰
Varianza: E X 2 ´ ErXs2 “ npp1 ´ pq
58 Capítulo 3. Variables aleatorias unidimensionales

Previo cálculo de: ” ı


˘n´2 ˘n´1
ϕ2X ptq “ n ¨ p ¨ i pn ´ 1q eit p ` q ¨ pi ¨ eit ¨ eit ` eit p ` 1
` `
¨ i ¨ eit

ϕ2X p0q “ n ¨ p ¨ i rpn ´ 1qpi ` is “ ´np rpn ´ 1qp ` 1s


“ ´npn ´ 1qp2 ´ np “ ´n2 p2 ` np2 ´ np
“ i2 n2 p2 ´ np2 ` np
` ˘

Ejemplo 3.18. Se sabe por larga experiencia que la calidad de fabricación


(proporción de artículos defectuosos fabricados) de un determinado artículo
es p “ 0, 1. Para controlar la calidad se interrumpirá el proceso de fabri-
cación, si al inspeccionar 10 artículos tomados al azar de la producción, se
encuentran por lo menos dos defectuosos. Se pide:

a) ¿Cuál es la probabilidad de encontrar exactamente 3 defectuosos entre


los 10 inspeccionados?

b) ¿Cuál es la probabilidad de que la producción se interrumpa?

c) Si la calidad cambia a p “ 0, 6 y se inspeccionan 10 artículos después


del cambio, ¿cuál es la probabilidad de que la producción se interrum-
pa?
#
Defectuoso P pdefq “ 0,1
Exp n “ 10
No defectuoso P pnoDefq “ 0,9
Consideramos la variable aleatoria X ” nº de defectuosos al observar 10
artículos. Vemos que es equivalente a Bpn “ 10, p “ 0,1q

P pX “ 3q “ 10 3 0,1 ¨ 0,9
10´3 « 0,0574
` ˘ 3

P pX ě 2q “ 1 ´ P pX ă 2q “ 1 ´ rP pX “ 0q ` P pX “ 1qs “ 1 ´
r0,3487 ` 0,3874s

X ” Bpn “ 10, p “ 0,6q

k 0,6 0,4
P pX “ kq “ 10 “ 10´k 0, 4 ¨ 0,6k “ P pY “ n ´ kq
` ˘ k 10´k ` 10 ˘ 10´k
B(10, 0.6) B(10,0.4)

P pX “ kq “ P pY “ n ´ kq
B(n,p) B(n, 1-p)

P pX ě 2q “ 1 ´ P pX ă 2q “ 1 ´ tP pX “ 0q ` P pX “ 1qu “
“ 1 ´ tP pY “ 10q ` P pY “ 9qu

Observación 3.13. Consideramos X ” Bpn, pq, n Ñ 8, p Ñ 0, np Ñ


k ´λ
λ ñ P pX “ kq Ñ λ k!
e
3.7. Distribuciones discretas 59

ˆ ˙
n n!
P pX “ kq “ ¨ pk ¨ p1 ´ pqn´k “ pk ¨ p1 ´ pqn´k
k pn ´ kq!k!
nk ¨ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ k ` 1q k
“ p ¨ p1 ´ pqn´k
nk ¨ k!
pnpqk ¨ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq p1 ´ pqn
“ ¨
nk ¨ k! p1 ´ pqk
pnpqk 1 2 k´1 p1 ´ pqn
ˆ ˙ ˆ ˙ ˆ ˙
“ ¨1¨ 1´ ¨ 1´ ¨¨¨ 1 ´ ¨
k! n n n p1 ´ pqk
n
pnpqk λk
¨1¨ 1 ´ n1 ¨ 1 ´ n2 ¨ ¨ ¨ 1 ´ ¨ p1´pqk ÝÝÝÝÑ lı́mnÑ`8 p1´pqn
` ˘ ` ˘ ` k´1
˘
k! n p1´pq npÑλ k!
pÑ0
nÑ8
pÑ0

λk
lı́m p1 ´ pqn “
k! pÑ0
nÑ`8
»˜ ¸´ 1 fi´pn
λk 1 p

“ lı́m – 1 ` 1 fl “
k! pÑ0 ´p
nÑ`8

λk
“ e´λ ¨
k!

3.7.3. Distribución de Poisson


Se dice que la variable aleatoria X tiene una distribución de Poisson,
Ppλq, si
λk ´λ
P pX “ kq “ ¨ e , k “ 0, 1, 2, . . .
k!
Observación 3.14. ¿Cuando la aproximación de la binomial por una Pois-
son es buena?

n ą 50 p ă 0,1 np ă 5

¿Es distribución de probabilidad?


8 8 8
ÿ ÿ λk ÿ λk
P pX “ kq “ e´λ “ e´λ ¨ “ e´λ ¨ eλ “ e0 “ 1
k“0 k“0
k! k“0
k!

ÿ ÿ λk
FX pxq “ P pX “ kq “ e´λ ¨
kďx kďx
k!
60 Capítulo 3. Variables aleatorias unidimensionales

Hallamos sus elementos más importantes:

α2 “ E X 2
“ ‰
α1 “ µ “ ErXs
8 8
ÿ ÿ λk
“ k ¨ P pX “ kq “ k 2 ¨ e´λ ¨
k“0 k“0
k!
8
ÿ λk ÿ8 ` ˘ λk
“ k ¨ e´λ ¨ “ e´λ k2 ´ k ` k ¨
k“0
k! k!
k“1
8 ˜ ¸
ÿ λk´1 8
λk
8
λk
“ e´λ ¨ λ
ÿ ÿ
pk ´ 1q! “ ´λ
e ¨ k ¨ pk ´ 1q ¨ ` k¨
k“1 k“0
k! k“0 k!
“ e´λ ¨ λ ¨ eλ “ λ
˜ ¸
8 8
ÿ λk ÿ λk
“ ´λ
e ¨ k ¨ pk ´ 1q ¨ ` k¨
k“2
k! k“1 k!
˜ ¸
8 k´2 8 k´1
ÿ λ ÿ λ
“ e´λ ¨ λ2 ¨ `λ¨
k“2
pk ´ 2q! k“1
pk ´ 1q!
´ ¯
“ e´λ ¨ λ2 ¨ eλ ` λ ¨ eλ “ λ2 ` λ

‰ ÿ8
ϕX ptq “ E eitX “ eitk ¨ P pX “ kq “

k“0
8 8 ` it ˘k
ÿ
itk ´λ λk ´λ
ÿ λe
“ e ¨e ¨ “e “
k“0
k! k“0
k!
it it ´1q
“ eλe ¨ e´λ “ eλpe

s ´1q
varpXq “ µ2 “ σ 2 “ α2 ´ α12 “ λ2 ` λ ´ λ2 “ λ & MX psq “ eλpe

3.7.4. Distribución geométrica o de Pascal


Volvamos sobre el caso que tratábamos en la distribución binomial.
#
Éxito pEq P pEq “ p
Exp , p P p0, 1q, Ω “ tE, F u
Fracaso pF q P pF q “ 1 ´ p

X : pΩn , PpΩn q, P q Ñ pR, BpRqq


ω ÞÑ Xpωq “ k ” si hay primer éxito en la pos. k
3.7. Distribuciones discretas 61

luego P pX “ kq “ q k´1 ¨ p kPN

1
8 8
ÿ ÿ p
q k´1 p “ p ¨ q k´1 “ p ¨ “ “1
k“1 k“1
1´q p

Veamos sus elementos más importantes

Función característica:
8 8
‰ ÿ p ÿ ` it ˘k p eit ¨ q
ϕX ptq “ E eitX “ eitk p1´pqk´1 ¨p “ ¨

e ¨q “ ¨
k“1
q k“1 q 1 ´ eit q

Momentos de orden 1, 2:

E X2
“ ‰
α1 “ µ “ ErXs α2 “
ÿ8 8
ÿ
“ k P pX “ kq “ k 2 ¨ P pX “ kq
k“0 k“0
ÿ8 ÿ8
“ kp1 ´ pqk´1 ¨ p “ k 2 ¨ q k´1 ¨ p
k“0 k“1
1 1
8 8
ÿ p ÿ 2 k
“ p kp1 ´ pqk´1 “p˚q p ¨ “ “ ¨ k ¨q
k“1
p2 p q k“1
p qpq ` 1q
“ ¨
x“q q p3
1´x“p
q`1

p2

Varianza:
q`1 1 q
varpXq “ E X 2 ´ pErXsq2 “
“ ‰
´ 2 “ 2
p2 p p

(*)

1 1
8
ÿ
Sp “ p1 ´ pqk “ “
k“0
1´q p
p˚q 1
8 8
ÿ ´1 ÿ
Sp1 “ k ¨ p1 ´ pqk´1 ¨ p´1q “ ùñ k ¨ p1 ´ pqk´1 “ 2
k“0
p2 k“0
p
62 Capítulo 3. Variables aleatorias unidimensionales

Observación 3.15. La distribución no tiene memoria, esto es,P pX ą m `


n | X ą mq “ P pX ą nq. En primer lugar,

P pX ą kq “ P pX “ k ` 1q ` P pX “ k ` 2q ` ¨ ¨ ¨ “
“ pq k ` p ¨ q k`1 ` p ¨ q k`2 ` ¨ ¨ ¨ “
1
“ p ¨ q k 1 ` q ` q 2 ` ¨ ¨ ¨ “ pq k ¨ “ qk
` ˘
1´q

luego,

P ppX ą m ` nq X pX ą mqq
P pX ą m ` n | X ą mq “ “
P pX ą mq
P pX ą m ` nq q m`n
“ “ m “ q n “ P pX ą nq
P pX ą mq q

3.7.5. Distribución binomial negativa


De nuevo, tengamos presente el experimento con el que comenzamos esta
sección.
#
Éxito pEq P pEq “ p
Exp , p P p0, 1q
Fracaso pF q P pF q “ 1 ´ p “ q

Es inmediato que Ω “ tE, F u. Usaremos Ωn como espacio, y como σ-


álgebra PpΩn q

Bien, consideremos la variable aleatoria X dada por

X : pΩn , PpΩn q, P q Ñ pR, BpRqq


ω ÞÑ Xpωq “ k fracasos antes de obtener n éxitos

n`k´1 n k
ˆ ˙
P pX “ kq “ P ptω P Ω | Xpωq “ kuq “ p ¨q
k

Observación 3.16.

a) Se denomina número combinatorio generalizado α sobre k al va-


lor definido por la expresión:

αpα ´ 1q ¨ ¨ ¨ pα ´ k ` 1q
ˆ ˙
α
“ α P R, k P Z`
k k!
` α˘
@k ą α k “0 si α P Z`
3.7. Distribuciones discretas 63

Ejemplo 3.19.

0, 5 0, 5p0, 5 ´ 1q 2 2p2 ´ 1qp2 ´ 2qp2 ´ 3q


ˆ ˙ ˆ ˙
“ “ ´0, 125; “ “0
2 2! 4 4!

b) Utilizando el desarrollo de McLaurin de f pxq “ p1 ` xqα

8 ˆ ˙
ÿ α k
@x P Rp1 ` xqα “ x , x, α P R |x| ă 1
k“0
k

c) @α P R, @k P Z`

`´α˘ ´αp´α´1q¨¨¨p´α´k`1q αpα`1q¨¨¨pα`k´1q `α`k´1˘


k “ k! “ p´1qk k! “ p´1qk k

Comprobemos ahora que la binomial negativa es distribución de proba-


bilidad,

n`k´1 n
8
ÿ ÿ8 ˆ ˙
P pX “ kq “ p ¨ p1 ´ pqk
k“0 k“0
k
8 ˆ ˙
ÿ
k ´n n k
“ p´1q ¨ p q
k“0
k
8 ˆ ˙
ÿ ´n
“ pn ¨ p´qqk “ pn ¨ p1 ´ qq´n
k“0
k
“ pn ¨ p´n “ 1

Función característica:

n`k´1 n k
8
ÿ 8
ÿ ˆ ˙
itX itk itk
“ ‰
ϕX ptq “ E e “ e P pX “ kq “ e p ¨q “
k“0 k“0
p

itk n ` k ´ 1
8 ˆ ˙ 8 ˆ ˙
n
ÿ
k n
ÿ
itk k k ´n
“p e q “p e ¨ q ¨ p´1q ¨ “
k“0
k k“0
k
8 ˆ ˙ ˆ ˙n
n
ÿ ´n it k n it ´n p
“p p´q ¨ e q “ p ¨ p1 ´ q ¨ e q “
k“0
k 1 ´ q ¨ eit

nq
Esperanza: ErXs “ p

nq
Varianza: varpXq “ p2
64 Capítulo 3. Variables aleatorias unidimensionales

3.7.6. Distribución hipergeométrica


Consideremos una población Ω˚ de cardinal N resultado de una cantidad
finita de experimentos de Bernoulli. De ellos, D son éxitos y evidentemente
N ´ D son fracasos. Tomando ω P Ω˚ , ¿cual es la probabilidad de que haya
k éxitos?
Si n ă N , podemos tomar N1 n-uplas. Por tanto, la probabilidad de
pnq
que haya k éxitos en una n-upla de Ω˚ es
`D˘ `N ´D˘
¨
P pX “ kq “ k `N ˘n´k
n

Definimos

X : pΩ˚ , A, P q Ñ pR, BpRqq


ω ÞÑ Xpωq ” Número de éxitos que hay en ω

Con las propiedades de numeros combinatorios en mente, veamos ahora


que es distribución de probabilidad:

1 ÿ D
ˆ ˙ ˆ ˙
ÿ N ´D
P pX “ kq “ `N ˘ ¨ ¨ “1
k n k
k n ´ k

D
Esperanza: α1 “ µ “ ErXs “ N ¨n

n¨pn´1q
Momento de orden dos: α2 “ E X 2 “ D ¨ pD ´ 1q ¨
“ ‰ D¨n
N ¨pN ´1q ` N

Varianza: σ 2 “ varpXq “ µ2 “ n ¨ D
N ¨ N ´D
N ¨ N ´n
N ´1

Observación 3.17 (Relación entre las distribuciones binomial e hipergeo-


métrica).

`D˘ `N ´D˘ `pN ˘` N q ˘ ppN q! pN qq!


¨ k!ppN ´kq! ¨ pn´kq!pN q´n`kq!
P pX “ kq “ k `N ˘n´k “ k
`Nn´k
˘ “ N!

D
n p“ N n n!pN ´nq!
N ´D
q“ N

n! pN ppN ´ 1q ¨ ¨ ¨ ppN ´ pk ´ 1qq pN q pN q ´ 1q ¨ ¨ ¨ pN q ´ pn ´ k ´ 1qqq


“ ¨
k!pn ´ kq! ¨N pN ´ 1q ¨ ¨ ¨ pN ´ pn ´ 1qq
n ppN qk ¨ pqN qn´k
ˆ ˙ ˆ ˙
n k n´k
« n
“ p q
N Ñ8 k N k
3.8. Distribuciones continuas 65

3.8. Distribuciones continuas


3.8.1. Distribución uniforme pUpa, bqq
Para empezar, sea X variable aleatoria continua. Decimos que X satis-
face una distribución uniforme en pa, bq, X ” Upa, bq ´ 8 ă a ă b ă 8, si
posee:

Función de densidad:

#
1 fX pxq 1
b´a x P pa, bq b´a
fX pxq “
0 x R pa, bq
a b
Función de distribución:
$
&0
’ xăa FX pxq
x´a
FX pxq “ b´a a ď x ă b 1

1 xěb
%
a 0
b

Esperanza y momento de orden 2:

ż ż
2
x2 fx pxq dx
“ ‰
ErXs “ α1 “ x ¨ fx pxq dx E X “ α2 “
RX RX
1 1
żb żb
“ x¨ dx “ x2 dx
a b´a a b´a
„ 2 b
1 1 x3 b

x
“ ¨ “
b´a 2 a b´a 3 a
1 1 1 b3 ´ a3
“ ¨ ¨ pb2 ´ a2 q “
b´a 2 3 b´a
pb´aqpb
 ` aq 1 2
pb ` a2 ` abq

“ ¨ 2 “
pb
´ aq 3
b`a

2

Varianza:
1` 2
varpXq “ α2 ´ α12 “ b ` a2 ` ab ´
˘
3
pb ` aq2 b2 ` a2 ´ 2ab pb ´ aq2
´ “ “
4 12 12
66 Capítulo 3. Variables aleatorias unidimensionales

Función característica:
ż
ϕX ptq “ E eitX “ eitx fx pxq dx “
“ ‰
RX
b
1 1 eitx
żb
eitb ´ eita
“ eitx dx “ “
a b´a b ´ a it a itpb ´ aq

etb ´eta
Función generatriz: MX ptq “ t¨pb´aq

3.8.2. Distribución normal (N pµ, σq)


Sea la función Gamma:
ż8
Γptq “ xt´1 e´x dx tą0
0
ş8
a) Dado a ą 0, 0 xt´1 e´ax dx “ at Γptq
1

Demostración.
y t´1 ´y 1
ż8 " ż8
t´1 ´ax y “ ax
x e dx “ dy “ dx “ e dy “
0 a 0 a a
1 8 t´1 ´y 1
ż
“ t y e dy “ t Γptq
a 0 a

b) Γpt ` 1q “ tΓptq

Demostración.
ż8 "
u “ xt dv “ e´x dx
Γpt ` 1q “ t ´x
x e dx “ du “ txt´1 v “ ´e´x “
0
8 ż 8 ż8
t ´x
“ ´x e ` e´x txt´1 dx “ t e´x xt´1 dx “ tΓptq
0 0 0

c) Γpnq “ pn ´ 1q! n P N
` ˘ ?
d) Γ 21 “ π

Definición 3.15. Se dice que una variable X sigue una distribución normal,
N pµ, σq, µ P R, σ ą 0, si su función de densidad es de la forma
1 1 x´µ 2
fX pxq “ ? e´ 2 p σ q xPR
σ 2π
3.8. Distribuciones continuas 67

La integral de esta función, esto es, la función de distribución no tiene


primitiva, pero puede comprobarse que es convergente. Se deja al lector
demostrar que f es simétrica respecto de µ, tiene máximo en µ y dos puntos
de inflexiónş en x “ µ ˘ σ. Es evidente que fX pxq es no negativa. Veamos
ahora que R fX pxq dx “ 1

Demostración.

1
ż ż "
2 x´µ
´ 21 p x´µ q “z
fX pxq dx “ ? e σ dx “ 1 σdx “ dz “
R R σ 2π σ

1 1
ż ż8 "z
1 2 1 2 ? “y
“σ ? e 2 dz “ 2
´ z ´ z
? e 2 dz “ ?dz2 “
R σ 2π 2π “ dy
0 2

1 ´y2 ? 2 8 ´y2
ż8 ż
“2 ? e 2 dy “ ? e dy “
0 2π π 0
2 1 ?
" ż 8
y2 “ t
“ dy “ dt “ ? e´t t´1{2 dt “ ? π“1
?
2 t 2 π loooooooomoooooooon
0 π
Γp1{2q

Los elementos más importantes de la distribución,

Esperanza:

1
ż ż "
1 x´µ 2 x´µ
“z
ErXs “ xfX pxq dx “ x ? e´ 2 p σ q dx “ dxσ “ σdz “
σ 2π
„R ż R
1
ż  ż8 "z
´ 1 2
z 2 ´ 1 2
z µ ´ 1 2
z ? “u
“ ? µσ e 2 dz ` σ ze 2 dz “ ? e 2 dz “ 2 ? “
σ 2π R R 2π 0 dz “ 2du
?
2µ ? 8 ´u2
ż "
u2 “ t dt “ 2 tdu
“? 2 e du “ 2udu “ dt du “ dt “
2π 0
?
2 t
? ż
2µ 2 8 1 ´ 1 ´t 1
ˆ ˙
µ
“ ? t 2 e dt “ ? Γ “µ
2 2π 0 2 π 2

Momento de orden dos centrado en origen:

1
ż ż "
1 x´µ 2 x´µ
“r
α2 “ E X 2 “ x2 fX pxq dx “ x2 ? e´ 2 p σ q dx “ dxσ “ σdr
“ ‰

σ 2π
ż R R
1 1
„ż
1 2 1 2
r
2 ´
“ ? “ pσr ` µq e 2 σ dr “ ? r2 σ 2 e´ 2 r dr`
σ 2π R 2π R
ż ż 
1 2 1 2
` µ2 e´ 2 r dr ` 2µσ re´ 2 r dr “
R R
looooooomooooooon
función impar
1
„ ż 
1 2 ?
“? σ 2
r e 2 dr ` µ 2π ` 0 “p˚q σ 2 ` µ2
2 ´ r 2
2π R
68 Capítulo 3. Variables aleatorias unidimensionales

ż "
r2 dh
2 ´ 12 r2 “h dr “
p˚q r e dr “ 2
rdr “ dh dr “ ?
r
dh “
R 2h

1 4 8 1 ´h ?
ż ż
“ 2he´h ¨ ? dh “ ? h 2 e dh “ 2π
R 2h 2 loooooomoooooon
0
Γp3{2q“1{2Γp1{2q

Varianza: varpXq “ E X 2 ´ ErXs2 “ σ 2 ` µ2 ´ µ2 “ σ 2


“ ‰

Función característica:
ż
“ itX ‰
ϕX ptq “ E e “ eitx fX pxq dx “
R
1 1
ż " ż
itx ? ´ 12 p x´µ q2 z “ x´µ 1 2
“ e e σ dx “ dx “ σdz σ
“ eitpzσ`µq ¨ ? ¨e´ 2 z ¨σ dz “
R σ 2π R σ 2π
eitµ itµ ż
ż
z2 e 1 2 1 2 2
“? epitzσ´ 2 q “ ? e´ 2 pz´itσq e´ 2 t σ dz “
2π R 2π R
1 2 2 ż 1 2 2
eitµ´ 2 t σ 1 2 eitµ´ 2 t σ ? 1 2 2
“ ? e´ 2 pz´itσq dz “p˚q ? 2π “ eitµ´ 2 t σ
2π R 2π

ż "
1 2 z ´ itσ “ v
p˚q e´ 2 pz´itσq dz “ dz “ dv

R
ż
1 2 ?
“ e´ 2 v dv “ 2π
R

Observación 3.18.

1 2
a) X ” N p0, 1q ñ ϕX ptq “ e´ 2 t

b) X ” N pµ, σq ñ Z “ X´µ σ ” N p0, 1q. Este proceso se denomina


tipificación de una normal.

Demostración.
” X´µ ı ” itX ´itµ ı
ϕZ ptq “ E eit σ “ E e σ ¨ e σ
µ 1 t2
´itµ
” itX ı µ t µ 2
“ e σ ¨E e σ “ e´it σ ϕX p σ q “ e´it σ eit σ ´ 2 σ2 σ “
1 2
“e´ 2 t ñ Z ” N p0, 1q
3.8. Distribuciones continuas 69

c) Y “ aX ` b ñ ϕY ptq “ eitb ϕX patq

d) Supongamos X ” N p2, 5q P pX ď 3q “ P p X´2


5 ď
3´2
5 q “ P pZ ď 15 q
siendo Z ” N p0, 1q.

3.8.3. Distribución gamma (γpa, pq)


Se dice que una variable aleatoria absolutamente conitnua tiene una
distribución de probabilidad gamma de parámetros a ą 0 y p ą 0 si su
función de densidad es de la forma:
#
ap
Γppq ¨ e´ax ¨ xp´1 xą0
fX pxq “
0 resto

Vemos que la función de distribución cumple que es igual a 1 en R

ap ´ax p´1
ż ż8 "
ax “ y
fX pxq dx “ e x dx “ adx “ dy “
R 0 Γppq
ap y p´1 1 Γppq
ż8
“ e´y p´1 dy “ “1
Γppq 0 a a Γppq

Veamos los elementos más importantes, comenzando por la función ca-


racterística:

ap
ż8 ż8
“ itX ‰ itx
ϕX ptq “ E e “ e ¨ f pxq dx “ eitx ¨ ¨ e´ax ¨ xp´1 ¨ dx
0 0 Γppq
ap
ż8
“ ¨ xp´1 ¨ e´xpa´itq dx
Γppq 0
˙p´1
ap
ż8ˆ
y dy
pa´itqx“y “ ¨ ¨ e´y ¨
Γppq 0 a ´ it a ´ it
˙p ˆ
p 1 it ´p
ż8 ˆ ˙
a  a
“ ¨ ¨ p´1 ´y
y  ¨ e dy “ “ 1´
Γppq
  pa ´ itqp 0 a ´ it a
la esperanza
ap ap
ż ż8 ż8
ErXs “ x ¨ f pxq dx “ x¨ ¨ e´ax ¨ xp´1 dx “ xp ¨ e´ax dx
R 0 Γppq Γppq 0
ap y p 1 ´y 1 1
ż8´ ¯ ż8
ax“y “ ¨ ¨ e dy “ ¨ y p ¨ e´y dy
Γppq 0 a a a Γppq 0
1 1 “ p
“ ¨  ¨ p ¨ Γppq

a  Γppq
 a
70 Capítulo 3. Variables aleatorias unidimensionales

el momento de orden dos respecto de la media

ap ap
ż ż8 ż8
2 2
¨ e´ax ¨ xp`1 dx “ xp`1 ¨ e´ax dx
“ ‰
E X “ x ¨ f pxq dx “
R 0 Γppq Γppq 0
ap ż8´ ¯
y p`1 dy
ax“y “ ¨ e´y ¨ “
Γppq 0 a a
1 1 p ¨ pp ` 1q
“ 2¨ ¨ Γpp ` 2q “
a Γppq a2

y la varianza (el momento de orden dos)

p2 ` p p2 p
varpXq “ σ 2 “ µ2 “ α2 ´ α12 “ 2
´ 2 “ 2
a a a

Observación 3.19. #
λe´λx x ą 0
Si tenemos a “ λ, p “ 1 ñ fX pxq “ ” γpλ, 1q
0 resto
Esta distribución se llama exponencial de parámetro λ.

3.8.4. Distribución beta (βpp, qq)

Se denomina función beta a la función definida mediante

ż1
βpp, qq “ xp´1 p1 ´ xqq´1 dx
0

Proposición 3.7 (Propiedades de la función beta).

ΓppqΓpqq
a) βpp, qq “
Γpp ` qq
3.8. Distribuciones continuas 71

Demostración.
ż8 ż8 ż8 ˆż 8 ˙
Γppq ¨ Γpqq “ ´t
e ¨t p´1
dt ¨ ´y
e ¨y q´1
dy “ ´t p´1
e t ¨ ´y q´1
e y dy dt
0 0 0 0
ż8 ˆż 8 ˙
´t p´1 ´tx q´1 q´1
y“tx “ e ¨t ¨ e ¨t ¨x ¨ t dx dt
dy“t dx 0 0
ż8ż8
“ e´tpx`1q ¨ tp`q´1 ¨ xq´1 dx dt
ż08 0 ˆż 8 ˙
q´1 ´tpx`1q p`q´1
“ x ¨ e ¨t dt dx
0 0
ż8 ˜ż8 ˆ ˙p`q´1 ¸
y dy
tp1`xq“y “ xq´1 ¨ e´y ¨ ¨ dx
p1`xq dt“ dy 0 0 1`x 1`x

: Γpp ` qq
xq´1
ż8 ˆż 8 ˙


´y p`q´1
“ p`q
¨ e ¨y  dy dx
0 p1 ` xq

0
xq´1
ż8
“ p`q
¨ Γpp ` qq dx
0 p1 ` xq
1 1
ż1
x
“y “ Γpp ` qq ¨ yq ¨ ´ ¯p ¨ dy
1`x
0 y 1 p1 ´ yq2
1´y
 1´y
ż1
“ Γpp ` qq ¨ y q´1 ¨ p1 ´ yqp´1 dy “ Γpp ` qq ¨ βpp, qq
0

y, de esta manera, tenemos que

Γppq ¨ Γpqq
βpp, qq “
Γpp ` qq

Γp 12 qΓp 12 q
b
b) β ñ Γp 21 q “
`1 1
˘
2, 2 “ Γp1q βp 12 , 12 q

1 1 1
ˆ ˙ ż1 ż1
´ 12 ´ 21
β , “ x p1 ´ xq
? ? dx “
dx “ x“y2
2 2 0 0 x 1´x dx“2y dy
ż1 1
y ´ π ¯
“2 dy “ 2 arc senpyq “ 2 ´0 “π
2
a
0 y 1´y
2
0

Definición 3.16. Se dice que la variable aleatoria X sigue una distribución


beta de parámetros p y q si su función de densidad es de la forma:
#
1
xp´1 p1 ´ xqq´1 p, q ą 0 x P p0, 1q
fX pxq “ βpp,qq
0 resto
72 Capítulo 3. Variables aleatorias unidimensionales

Esperanza:

1
ż ż1
ErXs “ xfX pxq dx “ xxp´1 p1 ´ xqq´1 dx “
R βpp, qq 0
Γpp`1qΓpqq
βpp ` 1, qq Γpp`q`1q
“ “ ΓppqΓpqq

βpp, qq
Γpp`qq
pΓppqΓpp ` qq p
“ “
pp ` qqΓpp ` qqΓppq p`q

Momento de orden 2:

1
ż ż1
2 2
x2 xp´1 p1 ´ xqq´1 dx “
“ ‰
E X “ x f pxq dx “
R 0 βpp, qq
Γpp`2qΓpqq
1 βpp ` 2, qq
ż1
p`2´1 q´1 Γpp`q`2q
“ x p1 ´ xq dx “ “ ΓppqΓpqq

βpp, qq 0 βpp, qq
Γpp`qq
ppp`1qΓppqΓpqq
pp`qqpp`q`1qΓpp`qq ppp ` 1q
“ “
ΓppqΓpqq pp ` qqpp ` q ` 1q
Γpp`qq

Varianza:

ppp ` 1q p2
σ 2 “ varpXq “ E X 2 ´ ErXs2 “
“ ‰
´ “
pp ` qqpp ` q ` 1q pp ` qq2
pq

pp ` qq2 pp ` q ` 1q
Capítulo 4

Variables aleatorias
multidimensionales

4.1. Variable aleatoria bidimensional. Tipos de va-


riable aleatoria.
4.1.1. σ-algébra de Borel. Función de distribución
Definición 4.1 (σ-álgebra de Borel). Se denomina σ-álgebra de Borel,
BpR2 q, a la miníma σ-álgebra engendrada por todos los subconjuntos de R2
de la forma

p´8, a1 s ˆ p´8, a2 s “ tpx1 , x2 q P R2 | x1 ď a1 , x2 ď a2 | a1 , a2 P Ru

Observación 4.1. Sean a “ pa1 , a2 q y b “ pb1 , b2 q puntos de R2 . Entonces

a) pa, bs “ tpx1 , x2 q P R | ai ă xi ď bi , i “ 1, 2u ñ σppa, bsq “ BpR2 q

b) pa, bq “ tpx1 , x2 q P R | ai ă xi ă bi , i “ 1, 2u ñ σppa, bqq “ BpR2 q

c) ra, bs “ tpx1 , x2 q P R | ai ď xi ď bi , i “ 1, 2u ñ σpra, bsq “ BpR2 q

d) ra, bq “ tpx1 , x2 q P R | ai ď xi ă bi , i “ 1, 2u ñ σpra, bqq “ BpR2 q

e) p´8, bs “ tpx1 , x2 q P R | xi ď bi , i “ 1, 2u ñ σpp´8, bsq “ BpR2 q

f) pa, `8q “ tpx1 , x2 q P R | ai ą xi , i “ 1, 2u ñ σppa, `8qq “ BpR2 q

g) ra, `8q “ tpx1 , x2 q P R | ai ě xi , i “ 1, 2u ñ σpra, `8qq “ BpR2 q

h) σptA | A es abierto en R2 uq “ BpR2 q

i) σptA | A es cerrado en R2 uq “ BpR2 q

73
74 Capítulo 4. Variables aleatorias multidimensionales

Sea pR2 , BpR2 q, P q la función de distribución asociada a la medida de


probabilidad P , que se define mediante:

FP : R2 Ñ r0, 1s

a “ pa1 , a2 q Ñ FP paq “ FP pa1 , a2 q “ P pp´8, a1 s ˆ p´8, a2 sq


que es equivalente a
ˆ ˙
2
FP pa1 , a2 q “ P tpx1 , x2 q R | x1 ď a1 , x2 ď a2 u
P

Propiedades
a) FP es monótona no decreciente en cada una de sus variables

Demostración. Sea h ą 0, entonces

FP pa1 ` h, a2 q ě FP pa1 , a2 q y FP pa1 , a2 ` hq ě FP pa1 , a2 q

ˆ ˙
FP pa1 ` h, a2 q “ P tpx1 , x2 q PR2 | x1 ď a1 ` h, x2 ď a2 u “
ˆ ˙
2
“ P tpx1 , x2 q PR | x1 ď a1 , x2 ď a2 u `
ˆ ˙
` P tpx1 , x2 q P R2 | a1 ă x1 ď a1 ` h, x2 ď a2 u ě
looooooooooooooooooooooooooooooomooooooooooooooooooooooooooooooon
ě0
ě FP pa1 , a2 q

y análogamente para F px1 , x2 ` hq.

b) FP pa1 , a2 q Ña1 Ñ`8 1. Entonces,


a2 Ñ`8

FP p`8, `8q “ lı́m FP pa1 , a2 q “ lı́m FP pn, nq “


a1 ,a2 Ñ`8 nÑ`8
ˆ ˙
“ lı́m P tpx1 , x2 q R | x1 ď n, x2 ď nu
P 2
nÑ`8

que como es monótona creciente


ˆ ˙
P lı́m tpx1 , x2 q P R2 | x1 ď n, x2 ď nu “
nÑ`8
ˆ `8
ď ˙
“P p´8, ns ˆ p´8, ns “ P pR2 q “ 1
n
4.1. Variables aleatorias bidimensionales 75

c) FP pa1 , a2 q Ña1 Ñ´8 0 o viceversa. Entonces,


a2 fijo

FP p´8, a2 q “ lı́m FP pa1 , a2 q “ lı́m FP pn, a2 q “


a1 Ñ´8 nÑ´8
ˆ ˙
“ lı́m P tpx1 , x2 q PR | x1 ď n, x2 ď a2 u
2
nÑ´8

que como es monótona decreciente


ˆ ˙
P lı́m tpx1 , x2 q P R | x1 ď ´n, x2 ď a2 u “
2
nÑ8
ˆ `8
č ˙
“P p´8, ´ns ˆ p´8, a2 s “ P pHq “ 0
n

d) F es continua por la derecha en cada una de sus variables.


lı́mhÑ0,phą0q FP pa1 ` h, a2 q “ FP pa1 , a2 q, lı́mhÑ0,phą0q FP pa1 , a2 ` hq “
FP pa1 , a2 q

Demostración.

lı́m FP pa1 ` h, a2 q “ lı́m FP pa1 ` 1{n, a2 q “


hÑ0,phą0q nÑ8

“ lı́m P ptpx1 , x2 q P R2 | x1 ď a1 ` 1{n, x2 ď a2 uq “


nÑ8

“ lı́m P ptpx1 , x2 q PR2 | x1 ď a1 , x2 ď a2 uq`
nÑ8
ˆ" *˙
2
`P px1 , x2 q PR | a1 ă x1 ď a1 ` {n 1 “

“ FP pa1 , a2 q ` lı́m P tpx1 , x2 q P R2 | a1 ă x1 ď a1 ` 1{n, x2 ď a2 u “


` ˘
nÑ8
“ FP pa1 , a2 q ` P lı́m tpx1 , x2 q P R2 | a1 ă x1 ď a1 ` 1{n, x2 ď a2 u “
` ˘
nÑ8
“ FP pa1 , a2 q ` P pHq “ FP pa1 , a2 q

Sea G : R2 Ñ R y sean a “ pa1 , a2 q, b “ pb1 , b2 q con a1 ă b1 y a2 ă b2 .


Se define el operador diferencia mediante:

∆b1 ,a1 Gpx1 , x2 q “ Gpb1 , x2 q ´ Gpa1 , x2 q


∆b2 ,a2 Gpx1 , x2 q “ Gpx1 , b2 q ´ Gpx1 , a2 q

y se denotará por ∆b,a Gpx1 , x2 q “ ∆b1 ,a1 ∆b2 ,a2 Gpx1 , x2 q


76 Capítulo 4. Variables aleatorias multidimensionales

∆b,a Gpx1 , x2 q “ ∆b1 ,a1 ∆b2 ,a2 Gpx1 , x2 q “


“ ∆b1 ,a1 pGpx1 , b2 q ´ Gpx1 , a2 qq “
“ Gpb1 , b2 q ´ Gpb1 , a2 q ´ Gpa1 , b2 q ` Gpa1 , a2 q

e) Dados a “ pa1 , a2 q, b “ pb1 , b2 q P R2 , a1 ă b1 , a2 ă b2 se verifica

∆b,a FP px1 , x2 q ě 0

Demostración.
ˆ ˙
∆b,a FP px1 , x2 q “ ∆b1 ,a1 ∆b2 ,a2 FP px1 , x2 q “ ∆b1 ,a1 FP px1 , b2 q ´ FP px1 , a2 q “

“ FP pb1 , b2 q ´ FP pb1 , a2 q ´ FP pa1 , b2 q ` FP pa1 , a2 q “


ˆ ˙
“ P tpx1 , x2 q P R | a1 ă x1 ď b1 , a2 ă x2 ď b2 u “ P pAq ě 0
2

Definición 4.2 (Función de distribución). Una función F : R2 Ñ r0, 1s es


una función de distribución si verifica:

F es monótona no decreciente en cada una de sus variables.

F p`8, `8q “ 1

F pa1 , a2 q “ 0 si ai Ó ´8, i P t1, 2u y la otra variable está fija.

F es continua por la derecha en cada variable.

∆b,a F px1 , x2 q ě 0

La pregunta que nos podemos formular es: dada una función F , verifi-
cando las propiedades anteriores, ¿existe una única medida de probabilidad
P sobre pR2 , BpR2 qq de tal forma que su función de distribución asociada
FP coincida con F ?

Teorema 4.1. Dada F : R2 Ñ r0, 1s, verificando las propiedades anteriores


existe una única medida de probabilidad P sobre pR2 , BpR2 qq de tal forma
que FP (su función de distribución asociada) coincida con F .
4.1. Variables aleatorias bidimensionales 77

4.1.2. Variable aleatoria bidimensional. Propiedades


Definición 4.3 (Variable aleatoria bidimensional). Sea pΩ, Aq un espacio
medible o probabilizable y BpR2 q la σ-álgebra de Borel en R2 . Una aplicación

X : Ω Ñ R2

se dice que es una variable aleatoria bidimensional si @B P BpR2 q se


verifica
X ´1 pBq “ tω P Ω | Xpωq P Bu P A
Teorema 4.2 (Caracterización de una variable aleatoria bidimensional). Se
considera el espacio probabilizable pΩ, Aq y la clase C2 de subconjuntos de
R2 con σpC2 q “ BpR2 q. Entonces X “ pX1 , X2 q es una variable aleatoria si,
y sólo si
X ´1 pAq P A, @A P C2

Demostración.

ñq X es una variable aleatoria ñ X ´1 pAq P A @A P BpR2 q, en particular


a los A P C2

ðq f : Ω1 Ñ Ω2 , C una clase de subconjuntos de Ω2 , entonces:

σpf ´1 pCqq “ f ´1 pσpCqq

Sabemos que X ´1 pC2 q Ă A ñ σpX ´1 pC2 qq Ă A (siendo σ el mínimo


σ´álgebra) ñ X ´1 pσpC2 qq Ă A ñ X ´1 pBpR2 qq Ă A
La idea reside en que σ´ álgebra ñ álgebra, luego mínimo σ´álgebra
ñ mínimo álgebra.

Proposición 4.1. Sea X “ pX1 , X2 q : pΩ, A, P q Ñ pR2 , BpR2 qq. Entonces


X es variable aleatoria si, y sólo si X1 , X2 son variables aleatorias unidi-
mensionales.

Demostración. Se considera C “ tp´8, x1 s ˆ p´8, x2 su, σpCq “ BpR2 q

ñq X1´1 p´8, a`1 s “ tω P Ω | ˘X1 pωq ď a1 u “ tω P Ω | X1 pωq ď a1 , X2 pωq P


` ˘

Ru “ X ´1 p´8, a1 s ˆ R P A ñ X1 es variable aleatoria. Análoga-


mente para X2 .

ð) X ´1 p´8, a1 s ˆ p´8, a2 s “ tω P Ω | X1 pωq ď a1 , X2 pωq ď a2 u “


` ˘
Ş2 Ş2
i“1 tω Ω | Xi pωq ď ai u “
´1
` ˘
loooooooomoooooooon A
i“1 X p´8, a s
P i i P

PA
78 Capítulo 4. Variables aleatorias multidimensionales

4.1.2.1. Probabilidad inducida por una variable aleatoria

X “ pX1 , X2 q : pΩ, A, P q Ñ pR2 , BpR2 qq

Se denomina probabilidad inducida a la aplicación:

BpR2 q Ω | Xpωq P Bu “ P pX ´1 pBqq


` ˘
@B P PX pBq “ P tω P

En consecuencia se tendrá el espacio de probabilidad:

R2 , BpR2 q, PX
` ˘

La función de distribución asociada a PX se define mediante

FX pa1 , a2 q “ PX p´8, a1 sˆp´8, a2 s “ PX tpx1 , x2 q P R2 | x1 ď a1 , x2 ď a2 u


` ˘ ` ˘

Definición 4.4 (Variable aleatoria discreta). Se dice que la variable alea-


toria bidimensional X “ pX1 , X2 q es de tipo discreto si el rango de X “
pX1 , X2 q es un conjunto de R2 , finito o numerable. Estos valores los deno-
taremos mediante tpan , bn qunPN . La función

P pan , bn q “ PX pX1 “ an , X2 “ bn q “ FX pan , bn q´FX pa´ ´ ´ ´


n , bn q´FX pan , bn q`FX pan , bn q

que definimos como función de masa o de probabilidad de X

Observación 4.2.

a) La función de distribución de una variable aleatoria bidimensional dis-


creta es de la forma
ÿ
F px, yq “ PX pX1 “ xi , X2 “ yj q
xi ďx,yj ďy

b) ř
Unařcolección de números no negativos, tpj,k uj,k“1,2,... que verifican
j k pj,k “ 1 es la función de masa de alguna variable aleatoria
bidimensional discreta.

Ejemplo 4.1. Dada la función de masa P pt0, 0uq “ P pt0, 1uq “ P pt1, 0uq “
4.1. Variables aleatorias bidimensionales 79

P pt1, 1uq “ 1{4


$
’px, yq P R1
’ 0


&px, yq P R2 1{4


ÿ
F px, yq “ P ptxi , xj uq “ px, yq P R3 1{2
xi ďx

px, yq P R5 1{2


yj ďy ’


px, yq P R4 1
%

0 xă0óyă0
$


R4



R3

0ďxă1&yě1

R1 1

2
&
“ 1{4 ó 1{2 R2 R5

’ x ě 1 & 0ďyă1 1{4


’ ´1
1

2


1 xě1&yě1 3
%

Definición 4.5 (Función de densidad). Una función f : R2 Ñ R se llama


función de densidad de R2 si se cumple:
a) @px, yq P R2 f px, yq ě 0
b) f es integrable-Riemann en R2
ż `8 ż `8
c) f px, yq dx dy “ 1 (integral en el sentido Riemann)
´8 ´8
Observación 4.3.

a) Sea f una función de densidad en R2 , la función


F : R2 Ñ R
żx ży
px, yq ÞÑ f pu, vq du dv
´8 ´8

es una función de distribución en R2 y es la función de distribución


asociada a la densidad de f
b) Sea F la función de distribución asociada a la f definida antes. Si f
es continua en un entorno de un punto px0 , y0 q, entonces F admite en
dicho punto derivada segunda respecto de x y de y y además se cumple
la permutabilidad en el orden de integración siendo px, yq un punto del
entorno de px0 , y0 q.
c)
B 2 F px, yq B 2 F px, yq
“ “ f px, yq
Bx By By Bx
80 Capítulo 4. Variables aleatorias multidimensionales

Definición 4.6 (Variable aleatoria continua). Una variable aleatoria bidi-


mensional pX, Y q se dice continua si su función de distribución F se puede
expresar para cada px, yq de R2 de la forma
żx ży
F px, yq “ f pu, vq du dv
´8 ´8

donde f pu, vq es una función de densidad en R2 . A esta función de densi-


dad se la denomina función de densidad asociada a la variable aleatoria
pX, Y q.

Observación 4.4.

a) Al conjunto CXY “ tpx, yq P R2 | fX,Y px, yq ą 0u se le denomina


soporte de la variable aleatoria bidimensional pX, Y q

b) Dado B BpR2 q se prueba que P pBq “ P px, yq P B “ B f pu, vq du dv


` ˘ şş
P

4.1.3. Distribuciones marginales y condicionales


4.1.3.1. Distribuciones marginales

Definición 4.7 (Distribución marginal). Dada una variable aleatoria bi-


dimensional X “ pX1 , X2 q : pΩ, A, P q Ñ pR2 q, BpR2 q, PX q se denomina
distribución marginal de X1 ,X2 a

Ω | X1 pωq ď x1 u
` ˘
FX1 px1 q “ FX px1 , `8q “ P tω P @x2 P R

Ω | X2 pωq ď x2 u
` ˘
FX2 px2 q “ FX p`8, x2 q “ P tω P @x1 P R

respectivamente.

Proposición 4.2. Dada la variable aleatoria bidimensional discreta X “


pX1 , X2 q se tiene que X1 y X2 son discretas con función de masa:
ÿ ÿ
&
` ˘ ` ˘
P pX1 “ x1 q “ PX tx1 , x2 u P pX2 “ x2 q “ PX tx1 , x2 u
x 2 PC 2 x 1 PC 1

Demostración.
`
´ ´
1 q´FX1 px1 q “ FX px1 , `8q´FX px1 , `8q “
PX1 pX1 “ x1 q “ F˘X1 pxř
2
P tpa1 , a2 q P R | a1 “ x1 , a2 P Ru “ x2 PC2 PX ptx1 , x2 uq

Ejemplo 4.2. Sea la variable aleatoria bidimensional discreta X “ pX1 , X2 q


dada mediante:
4.1. Variables aleatorias bidimensionales 81

x1
x2 0 1 2 3 P pX2 “ x2 q
1 0 3{8 3{8 0 6{8

3 1{8 0 0 1{8 2{8

P pX1 “ x1 q 1{8 3{8 3{8 1{8

PX1 px1 “ 0q “ 0 ` 81 “ 1
8 PX2 px2 “ 1q “ 0 ` 38 ` 38 ` 0 “ 6
8
PX1 px1 “ 1q “ 83 ` 0 “ 3
8 PX2 px2 “ 3q “ 18 ` 0 ` 0 ` 18 “ 2
8
PX1 px1 “ 2q “ 83 ` 0 “ 3
8
PX1 px1 “ 3q “ 0 ` 81 “ 1
8

Proposición 4.3. Dada una variable aleatoria bidimensional continua X “


pX1 , X2 q, las variables aleatorias X1 , X2 son continuas y sus funciones de
densidad vienen dadas por:
ż ż
fX1 px1 q “ fX px1 , x2 q dx2 & fX2 px2 q “ fX px1 , x2 q dx1
CX2 CX1

Demostración.
ż x1 ż `8
FX1 px1 q “ FX px1 , 8q “ f px1 , x2 q dx1 dx2
´8 ´8
ż x1 ˆż `8 ˙
“ f px1 , x2 q dx2 dx1
ż´8
x1
´8

“ fX1 px1 q dx1


´8
ż
donde fX1 px1 q “ f px1 , x2 q dx2 , y la llamamos función de densidad de la
R
variable aleatoria X1 .

4.1.3.2. Distribución condicionada


Definición 4.8 (Distribución condicionada). Sea la variable aleatoria bi-
dimensional X “ pX1 , X2 q : pΩ, A, P q Ñ pR2 , BpR2 q, PX q. Para x1 fijo se
define la función de distribución de X2 condicionada por X1 “ x1 como

FX px1 , x2 q ´ FX px1 ´ h, x2 q FX px1 , x2 q ´ FX px1 ´ h, x2 q


F px2 |x1 q “ lı́m ´ “ lı́m
hÑ0 FX px1 , `8q ´ FX px1 , `8q hÑ0 FX1 px1 q ´ FX1 px´ 1q

cuando este límite existe para cualquier x2 .

Proposición 4.4. Dada la variable aleatoria discreta X “ pX1 , X2 q y


supuesto que x1 sea un valor de la variable aleatoria X1 de forma que
82 Capítulo 4. Variables aleatorias multidimensionales

PX1 ptx1 uq ą 0 se tiene que la variable aleatoria X2 condicionada por X1 “


x1 (escrito como pX2 | X1 “ x1 q) es discreta y tiene como función de masa
˘ PX ptx1 , x2 uq
PX2 |X1 “x1 X2 “ x2 |X1 “ x1 (fijo) “
`
@x2 P CX2
PX1 ptx1 uq
Demostración. Sea x1 un valor de X1 con P pX1 “ x1 q ą 0, entonces:
ř ` 1
˘
FX px1 , x2 q ´ FX px1 ´ h, x2 q x12 ďx2 PX tx1 , x2 u
F px2 |x1 q “ lı́m “ ` ˘
hÑ0 FX1 px1 q ´ FX1 px1 ´ hq PX1 tx1 u
y
` ˘
` ˘ ` ` ´ PX tx1 , x2 u
PX2 |X1 “x1 X2 “ x2 |X1 “ x1 “ F x2 |x1 q ´ F x2 |x1 q “ ` ˘
PX1 tx1 u

Proposición 4.5. Sea la variable aleatoria bidimensional X “ pX1 , X2 q


continua con función de densidad fX px1 , x2 q. Sea un valor x1 de X1 tal que
fX1 px1 q ą 0. Entonces la función de densidad de la variable aleatoria X2
condicionada por el valor x1 de X1 viene dada por
fX px1 , x2 q
f px2 |x1 q “ @x2 P R
fX1 px1 q
con x1 fijo.

Demostración.
FX px1 , x2 q ´ FX px1 ´ h, x2 q
F px2 |x1 q “ lı́m
hÑ0 FX1 px1 q ´ FX1 px1 ´ hq
ż x2 ż x1 ż x2 ż x1 ´h
fX pu, vq du dv ´ fX pu, vq du dv
“ lı́m ´8 ´8
ż x1
´8 ´8
ż x1 ´h
hÑ0
fX1 px1 q dx1 ´ fX1 px1 q dx1
´8 ´8
ż x2 ˆ ż x1 ˙
fX pu, vq du dv
“ lı́m ´8 ż xx11´h
hÑ0
fX1 puq du
x1 ´h
ż x2
h ¨ fX pa, vq dv
“ lı́m ´8
a, b P rx1 ´ h, x1 s
hÑ0 h ¨ fX1 pbq
ż x2
fX pa, vq dv
“ lı́m ´8
hÑ0 fX1 pbq
ż x2
fX px1 , vq
“ dv
´8 fX1 px1 q
4.1. Variables aleatorias bidimensionales 83

y por tanto
fX px1 , x2 q
fX1 px1 q
es la función de densidad asociada a la función de distribución F px2 | x1 q y
es la que se denomina función de X2 condicionada por el valor x1 de X1 .

4.1.4. Independencia de variables aleatorias


Se plantea el caso de que conocidas dos funciones de distribución margi-
nales podamos conocer la función de distribución conjunta. Por regla general
esto no es posible, pero existe un caso en que sí, cuando las variables aleato-
rias que componen la variable bidimensional sean independientes. Por ello,
en esta sección la dedicaremos al estudio de la independencia de las variables
aleatorias.
Definición 4.9 (Variable aleatoria independiente). Sea X “ pX1 , X2 q una
variable aleatoria bidimensional con función de distribución en R2 , F px1 , x2 q
y sean FX1 px1 q y FX2 px2 q las funciones de distribución de X1 y X2 respecti-
vamente. Se dice que X1 y X2 son dos variables aleatorias independientes
si y sólo si

FX px1 , x2 q “ FX1 px1 q ¨ FX2 px2 q @px1 , x2 q P R2

Proposición 4.6. Las variables aleatorias unidimensionales X1 , X2 con


funciones de masa o probabilidad PX1 y PX2 son independientes si y sólo
si
` ˘
PX X1 “ x1 , X2 “ x2 “ PX1 pX1 “ x1 q ¨ PX2 pX2 “ x2 q @x1 , x2 P CX1 ,X2

Demostración.

ñq P pX1 “ x1 , X2 “ x2 q “ FX px1 , x2 q ´ FX px´ ´ ´ ´


1 , x2 q ´ FX px1 , x2 q ` FX px1 , x2 q
“ FX1 px1 q ¨ FX2 px2 q ´ FX1 px´ ´
1 q ¨ FX2 px2 q ´ FX1 px1 q ¨ FX2 px2 q `
` FX1 px´ ´
1 q ¨ FX2 px2 q
“ ‰ “ ‰
“ FX1 px1 q ¨ FX2 px2 q ´ FX2 px´ ´ ´
2 q ´ FX1 px1 q ¨ FX2 px2 q ´ FX2 px2 q
“ ‰ “ ‰
“ FX1 px1 q ´ FX1 px´ ´
1 q ¨ FX2 px2 q ´ FX2 px2 q
“ P pX1 “ x1 q ¨ P pX2 “ x2 q

y recíprocamente
ÿ ÿ
pð FX px1 , x2 q “ P pX1 “ x11 , X2 “ x12 q
x11 ďx1 x12 ďx2
ÿ ÿ
“ PX1 pX1 “ x11 q ¨ PX2 pX2 “ x12 q
x11 ďx1 x12 ďx2

“ FX1 px1 q ¨ FX2 px2 q


84 Capítulo 4. Variables aleatorias multidimensionales

Proposición 4.7. Las variables aleatorias unidimensionales continuas X1


y X2 con funciones de densidad marginales fX1 y fX2 son independientes si
y sólo si

f px1 , x2 q “ fX1 px1 q ¨ fX2 px2 q px1 , x2 q P CX1 ,X2

siendo f la función de densidad de R2 de la variable aleatoria bidimensional


X “ pX1 , X2 q

Demostración.

ñq Si X1 y X2 son independientes, entonces FX px1 , x2 q “ FX1 px1 q¨FX2 px2 q,


y de esta manera

BFX px1 , x2 q BFX1 px1 q ¨ FX2 px2 q


“ “ fX1 px1 q ¨ FX2 px2 q
Bx1 Bx1
y por lo tanto
B 2 FX px1 , x2 q BfX1 px1 q ¨ FX2 px2 q
fX px1 , x2 q “ “ “
Bx2 Bx1 Bx2
fX1 px1 q ¨ fX2 px2 q @x1 , x2 .


ż x2 ż x1
FX px1 , x2 q “ fX pu, vq du dv
´8 ´8
ż x1 ˆż x2 ˙
“ fX1 puq ¨ fX2 pvq dv du
´8 ´8
ż x1 ˆż x2 ˙
“ fX1 puq ¨ fX2 pvq dv du
´8 ´8
ż x1
“ FX2 px2 q ¨ fX1 puq du “ FX2 px2 q ¨ FX1 px1 q
´8

Observación 4.5.

Las variables aleatorias unidimensionales X1 , X2 continuas son inde-


pendientes si y sólo si

fX2 |X1 “x1 px2 |x1 q “ fX2 px2 q @x2 P CX2

Demostración.
4.1. Variables aleatorias bidimensionales 85

ñq fX px1 , x2 q “ fX1 px1 q ¨ fX2 px2 q ùñ f px2 | x1 q “ ffXXpxpx


1 ,x2 q
1q

1
fX2 px2 q
pð f px2 | x1 q “ fX2 px2 q ùñ fX px1 , x2 q “ f px2 | x1 q ¨ fX1 px1 q “
fX2 px2 q ¨ fX1 px1 q

Las variables aleatorias X1 , X2 son independientes si y sólo si


fX1 |X2 “x2 px1 , x2 q “ fX1 px1 q

Las observaciones anteriores para variables aleatorias continuas se ve-


rifican en el caso discreto cambiando la función de densidad por la
función de probabilidad.

4.1.5. Transformación de variables aleatorias

Y “gpXq“pg1 pXq,g2 pXqq

X “ pX1 , X2 q ” FX Y “ pY1 , Y2 q “ pg1 pX1 , X2 q, g2 pX1 , X2 qq

Nos preguntamos ahora, ¿cómo calculamos FY ?


Ejemplo 4.3. Sea X “ pX1 , X2 q variable aleatoria discreta, con función de
masa dada por:

x1
x2 ´1 0 1
´2 1{6 1{12 1{6 Y “ p|X1 |, X22 q
1 1{6 1{12 1{6

2 1{12 0 1{12

P pX1 “ kq ùñ 5{12 2{12 5{12 qpX1 , X2 q “ pq1 pX1 , X2 q, q2 pX1 , X2 qq “ p|X1 |, X22 q
P pX2 “ rq ùñ 5{12 5{12 2{12 CX “ tpx1 , x2 q | x1 P t´1, 0, 1u, x2 P t´2, 1, 2uu
CY “ tpx1 , x2 q | y1 P t0, 1u, y2 P t1, 4uu

py1 , y2 q Valores de pX1 , X2 q que dan lugar a los valores py1 , y2 q P pY1 “ y1 , Y2 “ y2 q
p0, 1q p0, 1q 1{12

p0, 4q p0, ´2q p0, 2q `0


1{12

p1, 1q p´1, 1q p1, 1q 1{6 ` 1{6

p1, 4q p´1, ´2q p´1, 2q p1, ´2q p1, 2q 1{6 ` 1{12 ` 1{6 ` 1{12
86 Capítulo 4. Variables aleatorias multidimensionales

Teorema 4.3. Sea X “ pX1 , X2 q variable aleatoria bidimensional continua


con función de densidad fX px1 , x2 q. Supongamos que:
La transformación Y “ gpXq : R2 Ñ R2 , donde Y “ pY1 , Y2 q con
Y1 “ g1 pX1 , X2 q y Y2 “ g2 pX1 , X2 q es biyectiva. Es decir, existe la
transformación inversa h “ g ´1 definida sobre la imagen de la trans-
formación, es decir

X1 “ h1 pY1 , Y2 q & X2 “ h2 pY1 , Y2 q

Tanto la transformación como su inversa son continuas.


Existen las derivadas parciales
Bh1 Bh1 Bh2 Bh2
, , ,
By1 By2 By1 By2
y son continuas.
El jacobiano de la transformación:
ˇ ˇ
ˇ Bh1 Bh1 ˇ
ˇ‰0
ˇ By1 By2
J “ ˇ Bh
ˇ
ˇ By 2 Bh2 ˇ
1 By2

entonces # ` ˘
fX h1 py1 , y2 q, h2 py1 , y2 q |J | py1 , y2 q P gpCx q
fY py1 , y2 q “
0 resto.
Ejemplo 4.4. Sea X “˘ pX1 , X2 q una variable aleatoria uniforme en el
cuadrado U p0, 1q ˆ p0, 1q
`

Observación 4.6 (Pbm. 13). Sea X “ pX1 , X2 q una variable aleatoria


continua con función de densidad f px1 , x2 q y sea Y1 “ g1 pX1 , X2 q, Y2 “
g2 pX1 , X2 q una transformación de R2 en R2 . Supongamos que la transforma-
ción g “ pg1 , g2 q tiene un número finito k de inversas. Supongamos además
que existe una partición de R2 , tAi ui“1,...,k , de forma que la transformación
g de Ai en R2 es biyectiva y la inversa viene dada por1
pi pi
X1 “ h1 py1 , y2 q X2 “ h2 py1 , y2 q i “ 1, . . . , k.

Supongamos que las derivadas parciales son continuas y además el jacobiano


pi pi

Bh1 py1 ,y2 q Bh1 py1 ,y2 q

By By2
Ji “ pi 1 ‰0

Bh2 py1 ,y2 q pi
Bh2 py1 ,y2 q

By1 By2
1
Para aclarar, la notación utilizada para las derivadas es una entre muchas. Para re-
presentar la derivada n-ésima escribiremos f nq ptq. En este momento se trata de un índice,
así que lo ponemos como f pi ptq, para diferenciar de la potencia i-ésima f i ptq.
4.2. Momentos. Función característica 87

es el rango de la transformación. Por otra parte, la función de densidad


asociada es
k
ÿ pi pi
fY py1 , y2 q “ fX ph1 py1 , y2 q, h2 py1 , y2 qq ¨ |Ji |
i“1

4.2. Momentos y función característica de una va-


riable aleatoria
4.2.1. Momentos
Definición 4.10 (Esperanza matemática de una variable aleatoria discreta).
Sea X “ pX1 , X2 q una variable aleatoria bidimensional discreta con función
de masa P pX1 “ x1 , X2 “ x2 q y sea g : R2 Ñ R, entonces se denomina
esperanza de la variable aleatoria gpX1 , X2 q a la serie
ÿ
ErgpX1 , X2 qs “ gpx1 , x2 q ¨ P pX1 “ x1 , X2 “ x2 q
px1 ,x2 qPCX

siempre y cuando ésta sea convergente.


Definición 4.11 (Esperanza de una variable aleatoria continua). Sea X “
pX1 , X2 q una variable aleatoria bidimensional continua con función de den-
sidad f px1 , x2 q y sea g : R2 Ñ R. Se denomina esperanza de la variable
aleatoria gpX1 , X2 q a la expresión
ż
ErgpX1 , X2 qs “ gpx1 , x2 q ¨ f px1 , x2 q dx1 dx2
R2

en caso de que converja.


Definición 4.12 (Momento respecto del origen). Se denomina momento
respecto del origen de órdenes pk, `q de la variable aleatoria bidimensional
X “ pX1 , X2 q a la esperanza matemática de la función gpX1 , X2 q “ X1k ¨ X2`
y se representará mediante
” ı
αk,` “ E X1k ¨ X2`

Observación 4.7.

Si k “ 1, ` “ 0 ñ α1,0 “ ErX1 s “ µ1

Si k “ 0, ` “ 1 ñ α0,1 “ ErX2 s “ µ2

Al vector µ “ pµ1 , µ2 q “ pα1,0 , α0,1 q se le denomina vector de medias de


la variable aleatoria bidimensional X.
88 Capítulo 4. Variables aleatorias multidimensionales

Definición 4.13 (Momento respecto de la media). Se denomina momen-


to central o momento respecto de la media de órdenes pk, `q de la variable
aleatoria bidimensional X “ pX1 , X2 q a la esperanza de la variable aleatoria
gpX1 , X2 q “ pX1 ´ α1,0 qk pX2 ´ α0,1 q` y se representará mediante
„ 
k `
µk,` “ E pX1 ´ α1,0 q pX2 ´ α0,1 q
“µ1 “µ2

Observación 4.8.

a) Si k “ 2, ` “ 0 ñ µ2,0 “ E pX1 ´ µ1 q2 “ σX
“ ‰ 2
1

Si k “ 0, ` “ 2 ñ µ0,2 “ E pX2 ´ µ2 q2 “ σX
“ ‰ 2
2

Si k “ 1, ` “ 1 ñ µ1,1 “ E pX1 ´ µ1 qpX2 ´ µ2 q ”def. covpX1 , X2 q


“ ‰

(covarianza entre X1 y X2 )
˜ ¸
ÿ 2
σX 1
cov pX1 , X2 q

x cov pX1 , X2 q 2
σX 2

llamamos a esta matriz matriz de varianza-covarianza de la varia-


ble aleatoria X.

b) Si X “ pX1 , X2 , . . . , Xn q es una variable aleatoria multidimensional,


entonces
¨ ˛
2
σX 1
covpX1 , X2 q covpX1 , X3 q . . . covpX1 , Xn q
covpX1 , X2 q 2
σX covpX2 , X3 q . . . covpX2 , Xn q
˚ ‹
ÿ ˚ 2

“˚ .. .. .. .. .. ‹
. . . . .
˚ ‹
x ˝ ‚
covpX1 , Xn q ... ... ... 2
σXn

c) covpX1 , X2 q “ ErX1 ¨ X2 s ´ ErX1 s ¨ ErX2 s.

Demostración.

covpX1 , X2 q “ µ1,1 “ ErpX1 ´ α1,0 q ¨ pX2 ´ α0,1 qs


“ ErX1 ¨ X2 ´ X1 ¨ α1,0 ´ α1,0 ¨ X2 ` α1,0 ¨ α0,1 s
: α1,0 : α0,1
“ ErX1 ¨ X2 s ´ α0,1 ¨ 
ErX
1 s ´ α1,0 ¨ 

ErX2 s ` α1,0 ¨ α0,1


“ ErX1 ¨ X2 s ´ α1,0 ¨ α0,1

d) Si X1 y X2 son independientes ñ covpX1 , X2 q “ 0.


ö
4.2. Momentos. Función característica 89

Demostración.
ż ż
ErX1 ¨ X2 s “ x1 x2 ¨ f px1 , x2 q dx1 dx2 “ x1 x2 ¨ fX1 px1 q ¨ fX2 px2 q dx1 dx2
2 R2
żR ˆż ˙
“ x1 fX1 px1 q x2 fX2 px2 q dx2 dx1
R R
“ ErX2 sErX1 s ñ covpX1 , X2 q “ 0

e) Si covpX1 , X2 q “ 0 se dice que las variables X1 y X2 son incorreladas.

f) Se tiene que
« ff
n
ÿ n
ÿ ÿÿ
var Xi “ var rXi s ` 2 ¨ covpXi , Xj q
i“1 i“1 i‰j

En particular, si las Xi son independientes entonces covpXi , Xj q “ 0


y por lo tanto
« ff
n
ÿ n
ÿ
var Xi “ var rXi s
i“1 i“1

Demostración. Si denotamos ξ :“
ř
Xi
»˜ « ff¸2 fi
n
„ÿ  n
ÿ n
ÿ
var “ varrξs “ E pξ ´ Erξsq2 “ E –
“ ‰
Xi Xi ´ E Xi fl
i“1 i“1 i“1

y como la esperanza es un operador lineal


»˜ ¸2 fi »˜ ¸2 fi
ÿn n
ÿ n
ÿ
“ E pξ ´ Erξsq2 “ E –
“ ‰
Xi ´ ErXi s fl “ E – pXi ´ ErXi sq fl
i“1 i“1 i“1
n
„ÿ ÿÿ 
2
“E pXi ´ ErXi sq ` pXi ´ ErXi sq ¨ pXj ´ ErXj sq
i“1 i‰j
n
ÿ ” ı ÿÿ
“ E pXi ´ ErXi sq2 ` 2 E rXi ´ ErXi ss ¨ E rXj ´ ErXj ss
i“1 iăj
ÿn ÿÿ
“ var rXi s ` 2 covpXi , Xj q
i“1 iăj
90 Capítulo 4. Variables aleatorias multidimensionales

4.2.2. Función característica


Definición 4.14 (Función característica). Sea X “ pX1 , X2 q una variable
aleatoria bidimensional. Se denomina función característica de la variable
aleatoria X a la esperanza de

gpX1 , X2 q “ eiptX1 `uX2 q


Es decir
$ÿ ÿ

’ P pX1 “ x1 , X2 “ x2 q ¨ eiptx1 `ux2 q
” ı & CX1 CX2
ϕX1 ,X2 pt, uq “ E eiptX1 `uX2 q “ ż
fX1 ,X2 px1 , x2 q ¨ eiptx1 `ux2 q dx1 dx2


%
R2
en los casos discreto y continuo, respectivamente.
Observación 4.9.

a) ϕX pt, 0q “ EreitX1 s “ ϕX1 ptq


ϕX p0, uq “ EreiuX2 s “ ϕX2 puq
1
ˆ k`` ˙
B
b) αk,` “ k`` ϕX pt, uq p0, 0q
i Btk Bu`
c) Si X1 y X2 son independientes se tiene
ϕX pt, uq “ ϕX1 ptq ¨ ϕX2 puq

Demostración.
ϕX pt, uq “ E eitX1 `iuX2
“ ‰
ij
“ eitx1 `iux2 fX px1 , x2 q dx1 dx2
R 2
ij
“ eitx1 ¨ eiux2 fX1 px1 q ¨ fX2 px2 q dx1 dx2
R2
ż ˆż ˙
itx1 iux2
“ e fX1 px1 q e fX2 dx2 dx1
R R
looooooooooomooooooooooon
ϕX2 puq
ż
“ ϕX2 puq ¨ eitx1 fX1 px1 q dx1
R
looooooooooomooooooooooon
ϕX1 ptq

“ ϕX2 puq ¨ ϕX1 ptq


4.2. Momentos. Función característica 91

d) Sean X1 y X2 variables aleatorias independientes, entonces

ϕX1 `X2 ptq “ ϕX1 ptq ¨ ϕX2 ptq

Demostración.
” ı
itpX1 `X2 q
ϕX1 `X2 ptq “ E e
ij
“ eitpx1 `x2 q ¨ fX px1 , x2 q dx1 dx2
R 2
ij
“ eitx1 ¨ eitx2 ¨ fX1 px1 qfX2 px2 q dx1 dx2
R2
ż ˆż ˙
itx2 itx1
“ e ¨ fX2 px2 q e ¨ fX1 px1 q dx1 dx2
R R
looooooooooooooomooooooooooooooon
ϕX1 ptq

“ ϕX1 ptq ¨ ϕX2 ptq

4.2.3. Familias reproductivas


Definición 4.15 (Familias reproductivas). Sea L una familia de variables
aleatorias. Se dice que L es reproductiva si para todo par de variables
X1 , X2 P L independientes se verifica que X1 ` X2 P L
Ejemplo 4.5. Algunas distribuciones que son reproductivas respecto de al-
guno de sus parámetros son,

a) L “ Bpn, pq con p fijo, n P N

X1 P L ñ X1 ” Bpn1 , pq ñ ϕX1 ptq “ pp ¨ eit ` qqn1 q “1´p


X2 P L ñ X2 ” Bpn2 , pq ñ ϕX2 ptq “ pp ¨ eit ` qqn2 q “1´p

Luego, ϕX1 `X2 ptq “ ϕX1 ptq ¨ ϕX2 ptq “ ppeit ` qqn1 `n2 ñ X1 ` X2 ”
Bpn1 ` n2 , pq ñ X1 ` X2 P L. La binomial es reproductiva respecto del
parámetro n, pero no del parámetro p.

b) L ” Ppλq
it ´1q
X1 P L ñ X1 ” Ppλ1 q ñ ϕX1 ptq “ eλ1 pe
it ´1q
X2 P L ñ X2 ” Ppλ2 q ñ ϕX2 ptq “ eλ2 pe
it ´1q
Luego, ϕX1 `X2 ptq “ epλ1 `λ2 qpe ñ X1 ` X2 ” Ppλ1 ` λ2 q ñ X1 `
X2 P L
92 Capítulo 4. Variables aleatorias multidimensionales

c) L “ γpa, pq, con a fijo.


˘´p1
L ñ X1 ” γpa, p1 q ñ ϕX1 ptq “ 1 ´ ita
`
X1 P
˘´p2
X2 P L ñ X2 ” γpa, p2 q ñ ϕX2 ptq “ 1 ´ ita
`

˘´pp1 `p2 q
Luego, ϕX1 `X2 ptq “ 1 ´ ita
`
ñ X1 ` X2 “ γpa, p1 ` p2 q ñ
X1 ` X2 ” γpa, p1 ` p2 q ñ X1 ` X2 P L

d) L “ N pµ, σq
t2 2
X1 P L ñ X1 ” N pµ1 , σ2 q ñ ϕX1 “ eitµ1 ´ 2 σ1
t2 2
X2 P L ñ X2 ” N pµ2 , σ2 q ñ ϕX2 “ eitµ2 ´ 2 σ2
t2 2 2
´ a ¯
Luego, ϕX1 `X2 ptq “ eitpµ1 `µ2 q´ 2 pσ1 `σ2 q ñ X1 `X2 ” N µ1 ` µ2 , σ12 ` σ22

4.2.3.1. Un ejemplo notable: la χ2


Ejemplo 4.6 (Distribución χ2 (de Pearson)). Sean X1 , . . . , Xn variables
aleatorias independientes que siguen una distribución N p0, 1q. ¿Cuál es la
n
ÿ
distribución de la variable aleatoria Y:= Xi2 ?.
i“1
Para cada Xi su función de densidad es
1 x2
fXi pxq “ ? ¨ e´ 2

luego
` ? ? ˘
GX 2 pxq “ P Xi2 ď x “ P ´ x ď Xi ď x
` ˘
i
`? ˘ ` ? ˘
“ FXi x ´ FXi ´ x
y así la función de densidad de Xi2 es
1 `? ˘ 1 ` ? ˘
gX 2 pxq “ ? ¨ fXi x ` ? ¨ fXi ´ x
i 2 x 2 x

&x ă 0 0
$

“ 1
%x ą 0 x x p 12 q 2 1 ´1 1
1 ?1
e´ 2 ` 2?1 x ?12π e´ 2 “ ¨ e´ 2 x

?
2 x 2π Γp 12 q
x2

que coincide con la densidad de una variable aleatoria γp1{2, n{2q. Y, debido
a la reproductividad de la distribución γ respecto de p
n
1
ˆ ˙
ÿ n
Xi2 ” γ a “ ,p “
i“1
2 2
Veamos ahora sus características:
4.3. Esperanza y varianza condicionadas. Regresión y correlación 93

Su función de densidad
&0 xă0
$

f pxq “ 1 1 1 n
% n ¨ n ¨ e´ 2 x ¨ x 2 ´1 xą0
2 Γp 2 q
la media
1
„ ˆ ˙
n
Erχ2n s “ E γ a “ ,p “ “n
2 2
la varianza
1
„ ˆ ˙
n p
varrχ2n s “ var γ a “ , p “ “ 2 “ 2n.
2 2 a

Y así se define la distribución χ2 con n grados de libertad

0,4
n n“2
0,3 ÿ
n“3
χ2n ” Xi2
0,2 i“1 n“4
0,1 n“5
0
0 2 4 6 8 10

4.3. Esperanza y varianza condicionadas. Regre-


sión y correlación
4.3.1. Esperanza y varianza condicionadas
Definición 4.16 (Esperanza condicionada discreta). Sean X, Y dos varia-
bles aleatorias discretas con función de probabilidad conjunta PX,Y ptx, yuq.
Sea x P CX con PX ptxuq ą 0. Entonces la esperanza de Y condicionada a
que X tome el valor x se define mediante
ÿ
ErY |X “ xs “ y ¨ P pY “ y | X “ xq
y PC Y

Si gpY q es una variable aleatoria transformada de Y , se tiene


ÿ
ErgpY q|X “ xs “ gpyq ¨ P pY “ y | X “ xq
y PC Y

Definición 4.17 (Esperanza condicionada continua). Sean X e Y dos va-


riables aleatorias continuas con función de densidad conjunta fX,Y px, yq.
Sea x P CX con fX pxq ą 0. Entonces la esperanza de Y condicionada a que
X tome el valor x se define mediante
ż
ErY |X “ xs “ y ¨ fY |X“x py|xq dy
CY
94 Capítulo 4. Variables aleatorias multidimensionales

Al igual que antes, si gpY q es una variable aleatoria transformada de Y , se


tiene
ż
ErgpY q|X “ xs “ gpyq ¨ fY |X“x py|xq dy
CY

Observación „4.10. Sea pX, Y q variable aleatoria bidimensional. Entonces


se tiene que E ErY |Xs “ ErY s

Demostración. En el caso discreto,


„  ÿ
E ErY |Xs “ pErY |X “ xsq PX pX “ xq
x PC X
˜ ¸
ÿ ÿ
“ y ¨ P pY “ y|X “ xq PX pX “ xq
x PC X y PCY
def. marginal
hkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkj
ÿ ÿ
“ y ¨ P pX “ x, Y “ yq
y PC Y x PC X
ÿ
“ y ¨ P pY “ yq
y PC Y
“ ErY s

y en el caso continuo
„ż 
ErErY | Xss “ E y ¨ f py | xq dy
CY
ż ˆż ˙
“ y ¨ f py | xq dy fX pxq dx
CX CY
ż ż
“ y ¨ f px, yq dy dx
CX CY
ż ˆż ˙
“ y f px, yq dx dy
CY CX
ż
“ y ¨ fY pyq dy “ ErY s
CY

Ejemplo 4.7. Sea pX, Y q una variable aleatoria bidimensional cuya función
de masa viene dada por la siguiente tabla. Hallar ErY |X “ xs, ErX|Y “ ys.
4.3. Esperanza y varianza condicionadas. Regresión y correlación 95

Y
X 0 1 4 PX pX “ xq
´2 0 0 1{5 1{5

´1 0 1{5 0 1{5

0 0 1{5 0 1{5

1 1{5 0 0 1{5

2 0 0 1{5 1{5

PY pY “ yq 1{5 2{5 2{5

P pX“x,Y “yq
Ahora, puesto que P pX “ x|Y “ yq “ P pY “yq , tenemos

X P pX “ x|Y “ 0q P pX “ x|Y “ 1q P pX “ x|Y “ 2q

´2 0 0 1{2

´1 0 1{2 0
0 1 0 0
1 0 1{2 0
2 0 0 1{2

ErX|Y “ 0s “ p´2q ¨ 0 ` p´1q ¨ 0 ` 0 ¨ 1 ` 1 ¨ 0 ` 2 ¨ 0 “ 0


ErX|Y “ 1s “ 0
ErX|Y “ 4s “ p´2q ¨ 21 ` 2 ¨ 21 “ ´1 ` 1 “ 0
Calculamos ahora ErY |X “ xs de la misma forma:

Y P pY “ y|X “ ´2q P pY “ y|X “ ´1q P pY “ y|X “ 0q P pY “ y|X “ 1q P pY “ y|X “ 2q

0 0 0 1 0 0
1 0 1 0 1 0
4 1 0 0 0 1

x ´2 ´1 0 1 2
y así
ErY |X “ xs 4 1 0 1 4
#
1{8px ` yq 0 ă x, y ă 2
Ejemplo 4.8. Sea pX, Y q variable aleatoria bidimensional y fX,Y “
0 resto
ErY |X “ xs, ErX|Y “ ys
#
0 y R p0, 2q
ż
fY pyq “ fX,Y px, yq dx “ ş2
R 0
1{8px ` yq dx “ 1{4py ` 1q y P p0, 2q
#
fX,Y px, yq 0 x R p0, 2q
f px|yq “ “ 1{8px`1q x`y
y Pp0,2q fY pyq 1{4py`1q “ 2py`1q x P p0, 2q
96 Capítulo 4. Variables aleatorias multidimensionales

1 4 ` 3y
ż ż2
x`y
ErX|Y “ ys “ x ¨ f px|yq dx “ x¨ dx “ ¨
R 0 2py ` 1 3 y`1
y por simetría
1 4 ` 3x
ErY |X “ xs “ ¨
3 x`1
Definición 4.18 (Varianza condicionada). Sean X e Y dos variables alea-
torias. Se denomina varianza condicionada de Y para un valor x P CX
de la variable aleatoria X a la expresión
$ÿ

’ py ´ ErY |X “ xsq2 P pY “ y|X “ xq
&yPC
varpY |X “ xq “ ż
Y

py ´ ErY |X “ xsq2 f py|xq dy




%
CY

para los casos discreto y continuo, respectivamente.

Proposición 4.8.

ErvarpY |Xqs ` varrEpY |Xqs “ varrY s

Demostración.
” “ ı ” ı
E rvar rY | Xsss “ E E Y 2 | X ´ E rY | Xs2 “ E E Y 2 | X ´ E E rY | Xs2
‰ “ “ ‰‰
” ı
“ E Y 2 ´ E E rY | Xs2
“ ‰

ahora, por otra parte,


” ı
var rE rY | Xss “ E E rY | Xs2 ´ E rE rY | Xss2
” ı
“ E E rY | Xs2 ´ E rY s2

y, uniendo ambas cosas:

E rvar rY | Xss ` var rE rY | Xss “ E Y 2 ´ E rY s2 “ var rY s


“ ‰

4.3.2. Regresión
4.3.2.1. Rectas de regresión. Error residual
Sea pX, Y q una variable aleatoria bidimensional y supongamos que la
variable aleatoria Y resulta dificil de medir. Entonces podemos preguntarnos
si sería posible considerar que el valor de la variable Y se puede aproximar
4.3. Esperanza y varianza condicionadas. Regresión y correlación 97

por la variable aX ` b. Si Y no es exactamente función de la forma aX ` b,


tenemos la posibilidad de cometer un error y en muchas situaciones esta
probabilidad de error será la unidad. El error que se cometerá en principio
es Z “ Y ´ paX ` bq, que no es una cantidad fija, ya que Z es una variable
aleatoria. Para valorar o cuantificar el error usaremos

ErZ 2 s “ ErpY ´ aX ´ bq2 s ” método de mínimos cuadrados

Queremos“ encontrar a y b de modo que el error sea lo menor posible, es


decir, mı́n E Z 2

gpa, bq “ E pY ´ aX ´ bq2 “ ErY 2 s`a2 ErX 2 s`Erb2 s´2aErXY s´2bErY s`2abErXs


“ ‰

Calculamos las derivadas parciales de gpa, bq y tenemos

BErpY ´ aX ´ bq2 s
“ 2a ¨ ErX 2 s ´ 2 ¨ ErX ¨ Y s ` 2b ¨ ErXs “ 0
Ba
BErpY ´ aX ´ bq2 s
“ 2b ´ 2 ¨ ErY s ` 2a ¨ ErXs “ 0.
Bb
Con todo esto, nos ponemos a obtener a y b

b “ ErY s ´ a ¨ ErXs
ùñ a ¨ ErX 2 s ` ErY s ¨ ErXs ´ a ¨ ErX 2 s “ ErX ¨ Y s
ùñ a ¨ ErX 2 s ´ ErXs2 “ ErX ¨ Y s ´ ErXs ¨ ErY s
` ˘

y por lo tanto
covpX, Y q
a“
varpXq
covpX, Y q
b “ ErY s ´ ¨ ErXs
varpXq

entonces la recta y “ aX ` b queda

covpX, Y q covpX, Y q
ˆ ˙
y“ x ` ErY s ´ ¨ ErXs
varpXq varpXq
y definimos la recta de regresión de Y sobre X como
covpX, Y q
y ´ ErY s “ ¨ px ´ ErXsq
varpXq
y, análogamente, la recta de regresión de X sobre Y como
covpX, Y q
x ´ ErXs “ ¨ py ´ ErY rq
varpY q
Las denotaremos como Y Ñ X y X Ñ Y , respectivamente.
98 Capítulo 4. Variables aleatorias multidimensionales

Ejemplo 4.9. Consideremos el último ejemplo. Sea pX, Y q variable aleato-


ria con función de densidad conjunta
#
1{8px ` yq 0 ă x, y ă 2
fX,Y “
0 resto
# #
1{4py ` 1q y P r0, 2s 1{4px ` 1q x P r0, 2s
fY pyq “ fX pxq “
0 resto 0 resto

1 7
ż2
ErXs “ x px ` 1q dx “
0 4 6
1 5
ż2
ErX 2 s “ x2 px ` 1q dx “
0 4 3
` 7 ˘2
Además, ErY s “ 76 , ErY 2 s “ 3,
5
por lo tanto varpXq “ 5
3 ´ 6 “ 36 .
11
Y
también varpY q “ 36
11

covpX, Y q “ ErXY s ´ ErXsErY s

4
ij ż 2 ˆż 2 ˙
ErXY s “ xy ¨ fX,Y px, yq dx dy “ xy ¨ {8px ` yq dy dx “
1
0 0 3
R2

covpX, Y q “ 34 ´ 76 ¨ 67 “ ´ 36
1

Recta de regresión de Y sobre X:


7 7 1 7
ˆ ˙ ˆ ˙ ˆ ˙
´1{36
y´ “ ¨ x´ “´ ¨ x´
6 11{36 6 11 6
Recta de regresión de X sobre Y :
7 1 7
ˆ ˙ ˆ ˙
x´ “´ ¨ y´
6 11 6

Definición 4.19 (Coeficiente de regresión). Se denomina coeficiente de re-


gresión de Y sobre X (resp. X sobre Y) y se representa por βY,X presp.βX,Y q
a la pendiente de la recta de regresión de Y sobre X (resp. X sobre Y)

covpX, Y q covpX, Y q
ˆ ˙
βY,X “ & resp. βX,Y “
varpXq varpY q

Definición 4.20 (Error residual). Se denomina error residual de la re-


gresión de Y sobre X a la expresión
covpX, Y q
ˆ ˙
eY |X “ Y ´ ErY s ` pX ´ ErXsq
varpXq
4.3. Esperanza y varianza condicionadas. Regresión y correlación 99

covpX, Y q
ˆ ˙
eX|Y “ X ´ ErXs ` pY ´ ErY sq
varpY q
Ambos tienen esperanza cero.
Teorema 4.4. Las varianzas de las variables aletorias eY |X y eX|Y vienen
dadas por
covpX, Y q2
ˆ ˙
varpeY |X q “ varpY q 1 ´
varpXq varpY q
covpX, Y q2
ˆ ˙
varpeX|Y q “ varpXq 1 ´
varpXq varpY q
Demostración.
covpX, Y q
„ ˆ ˙ 
varpeY |X q “ var Y ´ ErY s ` ¨ pX ´ ErXsq
varrXs
»» fi2 fi
covpX, Y q
ˆ ˙
“ E ––pY ´ ErY sq ´ ¨ pX ´ ErXsq fl fl
—— ffi ffi
a varpXq
b
˙2
covpX, Y q
ˆ
“ E pX ´ ErY sq2 ` ¨ E pX ´ ErXsq2 ´
“ ‰ “ ‰
varpXq
covpX, Y q
´2¨ ¨ E rpX ´ ErXsq ¨ pY ´ ErY sqs
varpXq
covpX, Y q covpX, Y q
ˆ ˙
“ varpY q ` 2 ¨ varpXq ´ 2 ¨
varpXq varpXq
˙2
covpX, Y q
ˆ
“ varpY q ´
varpXq
covpX, Y q
“ varpY q ´ varpY q ¨
varpXq ¨ varpY q
covpX, Y q2
ˆ ˙
“ varpY q ¨ 1 ´
varpXq ¨ varpY q

4.3.3. Correlación
Definición 4.21 (Coeficiente de correlación lineal). Sea X e Y dos variables
aleatorias para las que existen sus varianzas pvarpXq ą 0, varpY q ą 0q. Se
define el coeficiente de correlación lineal entre las variables aleatorias
X e Y mediante:
covpX, Y q
ρ“ a
varpXq varpY q
Proposición 4.9 (Propiedades de la correlación). Veamos algunos resulta-
dos relacionados con la correlación.
100 Capítulo 4. Variables aleatorias multidimensionales

a) Si ρ “ 0, entonces covpX, Y q “ 0 y por ello X e Y son incorreladas.

b) Se verifica ´1 ď ρ ď 1

covpX, Y q2
ˆ ˙
varpeY |X q “ varpY q 1 ´
varpXq varpY q
“ varpY qp1 ´ ρ2 q ě 0 ñ 1 ´ ρ2 ě 0 ñ ´1 ď ρ ď 1

c) Si |ρ| “ 1, entonces las variables aleatorias X e Y están en dependen-


cia funcional y en este caso las rectas de regresión de ambas variables
coinciden.

Demostración. Si |ρ| “ 1, entonces

covpX, Y q
varpeY |X q “ 0 ñ Y “ ErY s ` pX ´ ErXsq
varpXq

con probabilidad uno, luego la Y dependende funcionalmente de la X.


Si modificamos la expresión de las rectas de regresión de Y sobre X y
de X sobre Y y las escribimos en función de ρ, se tiene:

varpY q
a
covpX, Y q covpX, Y q
y ´ ErY s “ ¨ px ´ E rXsq “ a ¨a px ´ E rXsq
varpXq varpXq varpY q ¨ varpXq
varpY q
a
“ρ¨ a ¨ px ´ E rXsq
varpXq

covpX, Y q px ´ E rXsq
x ´ E rXs “ ¨ pY ´ E rY sq ñ y ´ E rY s “ ¨ varpY q “
varpY q covpX, Y q
?
varpXq
varpY q
a
varpY q 1
“ px ´ E rXsq ¨ “ ¨a ¨ px ´ E rXsq
? covpX,Y q ρ varpXq
varpY q¨varpY q

En particular, si |ρ| “ 1 ñ ρ “ ρ1 con lo cual las rectas de regresión


son la misma (las rectas son coincidentes).

d) La recta de regresión de X sobre Y es la que trae mayor pendiente en


valor absoluto.
?
varpY q
Si ρ ? ą 0 ñ ρ ą 0 ñ ρ1 ą 1 ą ρ, luego la recta de regresión
varpXq ρă1
de X sobre Y tiene mayor pendiente.
4.3. Esperanza y varianza condicionadas. Regresión y correlación 101

?
varpY q
Si ρ ? ă0ñρă0 ñ 1
ă ´1 ă ρ, luego la recta de regresión
varpXq ρą´1 ρ
de Y sobre X tiene mayor pendiente, pero en valor absoluto es la
de X sobre Y la que tiene mayor inclinación.

e) El ángulo θ determinado por las dos rectas de regresión viene dado por

varpXq varpY q
a a
1 ´ ρ2
tanpθq “ ¨
ρ varpXq ` varpY q

Demostración. ? ,
varpY q
Y Ñ X tanpβq “ ρ ? /
.
? varpXq
ñ
1 ? varpY q
X Ñ Y tanpαq “ ρ /
-
varpXq

tanpαq ´ tanpβq
tanpθq “ tanpα ´ βq “
1 ` tanpαq tanpβq
ˆ? ˙ ? ?
1 varpY q varpY q varpY q
? ´ ρ ? ?
ρ varpXq varpXq 1 ´ ρ2 varpXq
“ ? “ ¨ varpY q
1` ?
varpY q ρ 1 ` varpXq
varpXq

varpY q varpXq
a a
1´ρ 2
“ ¨
ρ varpXq ` varpY q

f) Las rectas de regresión se cortan en el punto P “ pErXs, ErY sq

Demostración. ? Como vimos antes, ,


varpY q
y ´ ErY s “ ρ ? px ´ ErXsq Y Ñ X /
.
varpXq
? luego,
varpY q
y ´ ErY s “ ρ1 ? px ´ ErXsq X Ñ Y /
-
varpXq

varpY q 1 varpY q
a a
ρa px ´ ErXsq “ px ´ ErXsq
varpXq ρ varpXq
a

1
ñ ρ ´ ¨ px ´ ErXsq “ 0
ρ
ñ x “ ErXs ñ y “ ErY s

g) Si X e Y son independientes, entonces las rectas de regresión son


paralelas a los ejes de coordenadas.
102 Capítulo 4. Variables aleatorias multidimensionales

Demostración. X e Y son independientes, entonces covpX, Y q “ 0,


con lo cual ρ “ 0, luego
?
varpY q
Y sobre X ñ y ´ ErY s “ ρ ? px ´ ErXsq ñ y “ ErY s
?varpXq
varpXq
X sobre Y ñ x ´ ErXs “ ρ ? py ´ ErY sq ñ x “ ErXs
varpY q

Ejemplo 4.10. Las expresiones de las rectas de regresión de dos variables


aleatorias X e Y son:

3x ` 2y ´ 26 “ 0

6x ` y ´ 31 “ 0

Se pide:

a) ¿Cuál es la recta de X Ñ Y y la de Y Ñ X?

b) Calcular ErXs, ErY s

c) Determinar el coeficiente de correlación, ρ, entre X e Y .

Solución. Vayamos por apartados:

a) La recta que tenga más pendiente en valor absoluto es simpre la de X


sobre Y . Vamos a determinar las pendientes de cada una de las rectas
que tenemos. Basta despejar y en cada una de las ecuaciones:

´ 32 x ` 13 “ y, la recta regresión de Y Ñ X
´6x ` 31 “ y, la recta de regresión de X Ñ Y

b) Las rectas se cortan en el punto pErXs, ErY sq, así que resolvamos el
sistema para obtener el+punto de corte y así las esperanzas de X e Y .
3x ` 2y ´ 26 “ 0
ñ x “ 4, y “ 7 ñ ErXs “ 4, ErY s “ 7
6x ` y ´ 31 “ 0

c) Ahora vamos a determinar el coeficiente de correlación, ρ. Utilizando


las expresiones para las rectas de regresión de X sobre? Y y de Y ?sobre
X vistas en la proposición 4.9 c), deducimos que ρ ?var var Y
X
y ρ1 ?var
var Y
X
son las pendientes de ambas rectas. Así si sustituimos tenemos:

varpY q 1q 3 1 varpY q 2q
a a
Y Ñ X : ρa “´ “ ´6
varpXq 2 ρ varpXq
a
4.3. Esperanza y varianza condicionadas. Regresión y correlación 103

dividiendo ambos (1 y 2)
1 1
ρ2 “ ñρ“´
4 2
(al aplicar la raíz es necesario comprobar cual de las dos soluciones es
la correcta)

4.3.4. Curvas de regresión


Se trata de determinar la función gpXq que mejor aproxima la variable
aleatoria Y .
Queremos que el error cuadrático medio

E pY ´ gpXqq2
“ ‰

sea mínimo. Para ello


ij
E pY ´ gpXqq2 “ py ´ gpxqq2 f px, yq dx dy
“ ‰

R 2
ij
“ py ´ gpxqq2 f py|xqfX pxq dy dx
R2
¨ 1q
˛
ż ż hkkkkkkkkkkkkikkkkkkkkkkkkj
2
˝ py ´ gpxqq f py|xq dy ‚fX pxq dx
˚ ‹

R R

(ver observación posterior) lo que implica (*) que el mínimo de 1) se obtiene


cuando gpxq “ ErY |X “ xs, que es la definición de curva de regresión
mínimo-cuadrática de Y sobre X.

Observación 4.11 (del (*) anterior).


ż
mı́n E pZ ´ aq2 ñ gpaq “ ErpZ ´ aq2 s “ pz ´ aq2 fZ pzq dz
“ ‰
a R

ż
1
g paq “ ´2 pz ´ aqfZ pzq dz “ 0
żR
ñ 0 “ pz ´ aqfZ pzq dz
ż R ż
“ zfZ pzq dz ´ a fZ pzq dz
R R
“ ErZs ´ a “ 0
ñ a “ ErZs
104 Capítulo 4. Variables aleatorias multidimensionales

Análogamente tenemos:

gpyq “ ErX|Y “ ys

la curva de regresión mínimo-cuadrática de X sobre Y .

Definición 4.22 (Razones de correlación). Sean X e Y dos variables alea-


torias no negativas para las que existen sus varianzas y además varrXs ą 0
y varrY s ą 0. Se definen las relaciones de correlación de Y sobre X y
las de X sobre Y mediante:

varrErY |Xss p˚q ErvarpY |Xqs


ηY2 |X “ “ 1´
varrY s varpY q

ErvarpX|Y qs
2
ηX|Y “1´
varpY q

(*): varpY q “ varrEpY |Xqs ` ErvarpY |Xqs.


Los errores en las curvas serán Y ´ ErY |Xs y X ´ ErX|Y s respectivamente
para Y y X.

Teorema 4.5. Dadas dos variables aleatorias, X e Y :

ˆ ˙
ErvarpY |Xqs
varpY ´ ErY |Xsq “ varpY q 1 ´
varpY q
ˆ ˙
ErvarpX|Y qs
varpX ´ ErX|Y s “ varpXq 1 ´
varpY q

Demostración.

„ 2
“0
varpY ´ ErY |Xsq “ ErpY ´ ErY |Xsq s ´ E Y ´ ErY Xs
2
loooooooooomoooooooooon
ErY s´pErErY |Xssq2
looooooomooooooon
pErY s´ErXsq2

“ E pY ´ ErY s ` ErY s ´ ErY Xsq2


“ ‰

“ ErpY ´ ErY s2 s ` E pErY s ´ ErY |Xsq2 `


“ ‰

` 2ErpY ´ ErY sqpErY s ´ ErY |Xsqs


4.3. Esperanza y varianza condicionadas. Regresión y correlación 105

Y ahora hacemos:
ż ż
E rpY ´ ErY sqpErY s ´ ErY |Xsqs “ py ´ ErXsqpErY s ´ ErY |X “ xsqf px, yq dx dy
R R
ż ˆ ż ˙
“ ´ pErY |X “ xsq´ErY sq py ´ ErY sq f pY |Xq dy f pxq dx
R R
loooooooooooooooooomoooooooooooooooooon
ż ż
yf py|xq ´ ErY sf py|xq dy
R R
loooooooooooooooooooomoooooooooooooooooooon
“ErY |X“xs´ErY s
ż
“´ pErY |X “ xs ´ ErY sq2 f pxq dx
R
“ ´E pErY |Xs ´ ErY sq2
“ ‰

Continuando:

varpY ´ ErY |Xsq “ E pY ´ ErY sq2 s ´ ErpErY s ´ ErY |Xsq2


“ ‰

“ varpY q ´ varpErY |Xsq


varpErY |Xsq
ˆ ˙
“ varpY q “ 1 ´
varpY q

Teorema 4.6. Sean X e Y variables aleatorias con varianza estrictamente


positiva que cumplen:
0 ď ηY2 |X , ηX|Y
2
ď1
Entonces
varpErY |Xsq
ˆ ˙
varpY ´ ErY |Xsq ě 0 ô varpY q 1 ´ ě0
varpY q
´ ¯
ô varpY q 1 ´ ηY2 |X ě 0
ô 0 ď ηY2 |X ď 1

Observación 4.12.

a) Si ηY2 |X “ 1 ñ varpY ´ ErY |Xsq “ 0 ñ Y “ ErY |Xs, lo que im-


plica que la probabilidad se concentra en la curva de regresión hpxq “
ErY |X “ xs

b) Si ηY2 |X “ 0 ñ ηY2 |X “ varpErY |Xsq


varpY q “ 0 ñ varpErY |Xsq “ 0 ñ
“ 2

E pErY |Xs ´ ErY sq ñ ErY |X “ xs “ ErXs ñ @x P Cx gpXq “
ErY |X “ xs “ ErY s, por ser recta, coincidente con la recta de regre-
sión.
106 Capítulo 4. Variables aleatorias multidimensionales

c) Error de la recta. varpY qp1 ´ ρ2 q ě varpY qp1 ´ ηY2 |X q ” error


curva ô ρ2 ď ηY2 |X , ρ2 ď ηX|Y 2
$

’ ρ2 “ 1 ñ ηY2 |X “ 1 ô la prob. se concentra en una



’ recta que será tanto la recta
&
de regresión como la curva
ρď ηY2 |X ”

’ de regresión
% ηY |X “ 0 ñ “0
2 ρ2



’ ô tanto la recta como la curva
de regresión es hpxq “ ErY s

4.4. Distribuciones notables (n-dimensionales)


4.4.1. Distribución multinomial
Sean k ` 1 experimentos de Bernoulli y A1 , . . . , Ak , Ak`1 los aciertos de
dichos
řk`1 experimentos, donde denotamos Pi :“ P pAi q i “ 1, . . . , k ` 1 con
i“1 Pi “ 1. Consideramos el espacio muestral řk`1
Ω “ tA1 , . . . , Ak`1 u y el
espacio probabilístico pΩ , PpΩ q, P q con i“1 xi “ n, siendo xi el número
n n

Ai de aciertos que hay en la n-tupla de Ωn . P es la medida de probabilidad


xk`1
tal que P pωq “ px1 1 , . . . , pk`1 , ω P Ωn . Así, consideramos la variable aleatoria
X tal que

pΩn , A “ PpΩn q, P q Ñ pRk , BpRk qq


X “ pX1 , . . . , Xk q :
ω ÞÑ Xpωq “ px1 pωq, . . . , xk pωqq

con xi el número Ai de aciertos que hay en la n´tupla de Ωn .

PX pX1 “ x1 , . . . , Xk “ xk q “ P ptω P Ωn | Xi pωq “ xi , i “ 1, . . . , kuq “


ˆ ˙
n xk`1
“ px1 , . . . , pk`1 con x1 ` ¨ ¨ ¨ ` xk`1 “ n
x1 , . . . , xk`1 1
Si x1 ` . . . ` xk`1 ą n ñ P “ 0
El soporte de la variable aleatoria X es RX “ tX “ px1 , . . . , xk q | ki“1 xi ď
ř
n, xi P N, i “ 1, ¨ ¨ ¨ ku. Decimos entonces que X sigue una distribución
multinomial de parámetros n, p1 , . . . , pk y lo denotamos por

X “ px1 , . . . , xk q :“ M pn; p1 , . . . , pk q

Observación 4.13. Se tiene la igualdad


k`1
ÿ ÿ n! xk`1
ai “ ax1 1 . . . ak`1 ai P R, n P N
i“1 x1 `...`xk`1
x
“n 1
! ¨ x 2 ! ¨ . . . ¨ x k`1 !

a la que se conoce cómo fórmula de Leibniz.


4.4. Distribuciones notables (n-dimensionales) 107

Veamos si PX es función de probabilidad.

ÿ ÿ n! xk`1
P ppX1 “ x1 , . . . , Xk “ xk q “ px1 1 . . . pk`1 “
xPCX x1 ,...,xk x1 ! ¨ x2 ! ¨ . . . ¨ xk`1 !
˜ ¸n
k`1
ÿ
“ pi “ 1n “ 1
i“1

Veamos ahora algunas de sus principales características.

Función característica

ÿ n! xk`1
ϕX pt1 , . . . , tk q “ eipt1 x1 `...`tk xk q px1 . . . pk`1
x1 ,...,xk PCk
x1 ! ¨ x2 ! ¨ . . . ¨ xk`1 ! 1
ÿ n! xk`1
“ pp1 ¨ eit1 qx1 . . . ppk ¨ eit1 qxk ¨ pk`1
x ! ¨ x2 ! ¨ . . . ¨ xk`1 !
x1 ,...,xk PCx 1
˘n
“ p1 e 1 ` p2 eit2 ` . . . ` pk eitk ` pk`1
` it

En particular, para cada Xj se tiene

ϕXj ptj q “ ϕX p0, . . . , 0, tj , 0, . . . , 0q “ pp1 ` . . . ` pj´1 ` pj eitj ` pj`1 ` . . . ` pk`1 q


¨ ˛n
˚ k`1
ÿ ‹
itj ‹ itj n
“ ˚
˝ p` ` pj e ‚ “ p1 ´ pj ` pj e q
`“1,`‰j
p“1´pj q

“ pqj ` pj eitj qn

La ϕXj se corresponde con una binomial Xj :“ Bpn, pj q ñ Erxj s “ npj @j “


1, . . . , k. El vector de medidas de la variable aleatoria k-dimensional M pn, p1 , . . . , pk q
es de la forma

ErXs “ pn p1 , . . . , n pk q “ µ

Como varpxj q “ n pj p1´pj q (elementos de la diagonal principal de la matriz


de varianza-covarianza). Calculamos las covarianzas:

covpXi , Xj q “ ErXi Xj s ´ ErXi s ¨ ErXj s


108 Capítulo 4. Variables aleatorias multidimensionales

1
ˆ 2 ˙
B ϕx pt1 , . . . , t1 q
ErXi Xj s “ ¨ p0q
i2 Bti Btj
„ ¯
B ´ ` it1 itj itk
˘n´1 itj
“ ´ n p1 e ` . . . ` pj e ` . . . ` pk e ` pk`1 ipj e p0q
Bti
´ ˘n´2 2 ¯
´npn ´ 1q p1 eit1 ` . . . ` pj eitj ` . . . ` pk`1 i pj eitj pi eiti p0q
`

“ npn ´ 1qpj pi
ñ covpXi , Xj q “ npn ´ 1qpj ps ´ npj nps
“ n2 pj ps ´ n2 pj ps
“ ´npj ps

La matriz queda entonces:


¨ ˛
np1 p1 ´ p1 q ´np1 p2 ... ´np1 pk
ÿ ˚ ´np1 p2 np2 p1 ´ p2 q . . . ´np2 pk
˚ ‹

“˚ .
.. .. .. .. ‹
. . .
˚ ‹
˝ ‚
´np1 pk ´np2 pk . . . npk p1 ´ pk q

X “ pX1 , . . . , Xk q “ ϕX pt1 , . . . , tk q “ pp1 eit1 ` . . . ` pk eitk ` pk`1 qn1


loooooooooomoooooooooon
M “pn1 ,p1 ,...,pk q

Y “ pY1 , . . . , Yk q “ ϕY pt1 , . . . , tk q “ pp1 eit1 ` . . . ` pk eitk ` pk`1 qn2


looooooooomooooooooon
M “pn2 ,p1 ,...,pk q

˘n1 `n2
ϕX`Y pt1 , . . . , tk q “ p1 eit1 ` . . . ` pk eitk ` pk`1
`

ñ X ` Y “ M pn1 ` n2 , p1 , . . . , pk q

Luego M es reproductiva respecto del parámetro n.

4.4.2. Distribución normal bidimensional


La varialble aleatoria bidimensional pX, Y q sigue una distribución normal
bidimensional si su función de densidad es de la forma
„´ ¯2 
1 1 x´µX x´µX y´µY y´µY
´ ´2ρ `p q2
2p1´ρ2 q σX σX σY σY
fX,Y “ a e
2πσX σY 1 ´ ρ2
con
´8 ă x, y ă `8 σX , σY ą 0
´1 ď ρ ď 1 ´8 ă µX , µY ă `8
Veamos ahora los elementos más importantes,
4.4. Distribuciones notables (n-dimensionales) 109

Marginales
ˆ ´ ¯2 ˙
1
y´µY
´ 12
ż
σY
fY pyq “ fX,Y px, yq dx “ ? e
R 2πσY
lo que muestra que la marginal Y es una normal Y :“ N pµY , σY q. Análoga-
mente se llega a que la marginal X es una normal X :“ N pµX , σX q

Condicionales
´ ´ ¯¯2
σ
fX,Y px, yq 1 ´ 12 x´ µX ´ρpy´µY q σX
fX|Y “y px|yq “ “? a e 2σX Y
fY pyq 2πσX 1 ´ ρ2
´ a ¯
Luego X|Y :“ N µX ` ρpy ´ µY q σσXY
, σX 1 ´ ρ2

Curvas de regresión:
σX
gpyq “ ErX|Y “ ys “ µX ` ρpy ´ µY q
σY

Función característca
” ı 1 2 2 2
ϕX,Y pt1 , t2 q “ E eipt1 X`t2 Y q “ eit1 µX `t2 uµY ´ 2 pt1 σX `2ρt1 `σX σY `t2 σY q

A partir de aquí calculamos la covarianza:


1 B 2 ϕX,Y pt1 , t2 q
ˆ ˙
ErXY s “ 2 p0q “ ρσX σY ` µX µY
i Bt1 Bt2
ñ covpX, Y q “ ρσX σY ` µX µY ´ µx µY “ ρσX σY

Coeficiente de correlación
covpX, Y q ρσX σY
ρX,Y “ a “ “ρ
varpXq varpY q σX σY

Matriz de varianzas-covarianzas
˜ ¸
ÿ 2
σX ρσX σY
“ µ “ pµX , µY q
ρσX σY σY2

Observación 4.14. Sea pX, Y q variable aleatoria bidimensional tales que


X e Y son incorreladas (esto es, ρX,Y “ 0), entonces
„´ ¯2 ´ ¯2 
1
x´µX y´µ
´ 21 σX
` σ Y
Y
fX,Y px, yq “ ¨e “ fY pyq ¨ fX pxq
2πσX σY
lo que implica que fX pxq y fY pyq son independientes.
Capítulo 5

Convergencias estocásticas

5.1. Convergencia de variables aleatorias


En este tema se persigue introducir el concepto de sucesión de variables
aleatorias y extender a él la idea de convergencia, que ya se conoce en el caso
de sucesiones de números. En relación con esos dos conceptos, se comentarán
después ciertos resultados estadísticos de importancia fundamental, tales
como algunas leyes de grandes números así como el problema central del
límite.
Definición 5.1 (Convergencia casi seguro). Sea tXn unPN una sucesión de
variables aleatorias. Se dice que tXn unPN converge casi seguramente hacia
la variable aleatoria X : pΩ, A, P q Ñ pR, BpRqq si
´! )¯
P ω P Ω | lı́m Xn pωq “ Xpωq “ 1
nÑ8

o equivalentemente
´! )¯
P ω P Ω | lı́m Xn pωq ‰ Xpωq “ 0
nÑ8
c.s.
y lo denotamos por Xn ÝÝÑ X.
Observación 5.1.

a) A “ tω P Ω | lı́mnÑ8 Xn pωq “ Xpωqu P A

Demostración.
1
ω P A ðñ @k P N D m P N, @n ě m |Xn pωq ´ Xpωq| ă
k
1
č8 ď 8 č 8 " *
ðñ ω P ω P Ω | |Xn pωq ´ Xpωq| ă PA
k
k“1 m“1 n“1 loooooooooooooooooooomoooooooooooooooooooon
p|Xn ´X|q´1 p´8, k1 qPA

111
112 Capítulo 5. Convergencias estocásticas

c.s. c.s.
b) Unicidad del límite: Si Xn ÝÝÑ X y Xn ÝÝÑ Y entonces X “ Y , leído
c.s.
X es “igual casi seguro” a Y , esto es, el conjunto de puntos donde X
e Y son distintos tiene probabilidad cero.

Demostración. Veamos primero la implicación a la derecha,


! )
tω P Ω | Xpωq ‰ Y pωqu “ ω P Ω | lı́m Xn pωq “ Xpωq y Xpωq ‰ Y pωq Y
n
Ytω P Ω | lı́m Xn pωq ‰ Xpωq y Xpωq ‰ Y pωqu
n

luego, como
tω P Ω | Xpωq ‰ Y pωqu
está estrictamente contenido en la unión
´! )¯
P ptω P Ω | Xpωq ‰ Y pωquq ď P ω P Ω | lı́m Xn pωq ‰ Y pωq `
n
´! )¯
`P ω P Ω | lı́m Xn pωq ‰ Xpωq “ 0 ` 0 “ 0
n

recíprocamente,

! ) ! )
ω P Ω | lı́m Xn pωq ‰ Y pωq “ ω P Ω | lı́m Xn pωq “ Xpωq y lı́m Xn pωq ‰ Y pωq Y
n n n
Ytω P Ω | lı́m Xn pωq ‰ Xpωq y lı́m Xn pωq ‰ Y pωqu
n n

luego, como
tω P Ω | lı́m Xn pωq ‰ Y pωqu
n

está estrictamente contenido en la unión


´! )¯ ´! )¯
P ω P Ω | lı́m Xn pωq ‰ Y pωq ď P ω P Ω | lı́m Xn pωq ‰ Xpωq `
n n
` P ptω P Ω | Xpωq ‰ Xpωquq “ 0 ` 0 “ 0

c.s.
c) Xn ÝÝÑ X si y sólo si
˜ ¸
8
ď
@ε ą 0 lı́m P tω P Ω | |Xm pωq ´ Xpωq| ě εu “0
nÑ8
m“n

de forma equivalente1
˜ ¸
č8
@ε ą 0 lı́m P tω P Ω | |Xn pωq ´ Xpωq| ă εu “1
nÑ8
n
1
Ésta se trata de una caracterización muy importante que se usa en la práctica.
5.1. Convergencia de variables aleatorias 113

c.s. c.s.
d) Si Xn ÝÝÑ X y g : R Ñ R continua, entonces gpXn q ÝÝÑ gpXq.
Además,

c.s. c.s.
+
Xn ÝÝÑ X Xn ` Yn ÝÝÑ X ` Y
c.s. ùñ c.s.
Yn ÝÝÑ Y Xn ¨ Yn ÝÝÑ X ¨ Y
Definición 5.2 (Convergencia en probabilidad). Sea tXn unPN una sucesión
de variables aleatorias y X : pΩ, A, P q Ñ pR, BpRqq. Se dice que la sucesión
tAn unPN X converge en probabilidad a la variable aleatoria X si y sólo si:
@ε ą 0 lı́m P ptω P Ω | |Xn pωq ´ Xpωq| ě εuq “ 0
nÑ8
o lo que es lo mismo
@ε ą 0 lı́m P ptω P Ω | |Xn pωq ´ Xpωq| ă εuq “ 1
nÑ8
P.
Lo denotamos por Xn ÝÑ X.
Observación 5.2.

P. P.
a) Si Xn ÝÑ X, entonces Xn ÝÑ Y ðñ X “ Y .
c.s.

Demostración. ñq En primer lugar tenemos


P ptXpωq ‰ Y pωq | qu “
˜ *¸ ÿ
1 1
ď8 " 8 ˆ" *˙
P ω P Ω | |Xpωq ´ Y pωq| ě ď P ω P Ω | |Xpωq ´ Y pωq| ě
k“1
k k“1
k
Además dado que
|Xpωq ´ Y pωq| ď |Xpωq ´ Xn pωq| ` |Xn pωq ´ Y pωq| ñ
1 1
" * " *
ω Ω | |Xpωq ´ Y pωq| ě
P Ă ω Ω | |Xpωq ´ Xn pωq| ě
P Y
k 2k
1
" *
ω P Ω | |Xn pωq ´ Y pωq| ě
2k
Entonces
1 1
ˆ" *˙ ˆ" *˙
P P Ω | |Xpωq ´ Y pωq| ě
ω “ lı́m P ω P Ω | |Xpωq ´ Y pωq| ě
k nÑ8 k
1
ˆ" *˙
ď lı́m P ω P Ω | |Xpωq ´ Xn pωq| ě
nÑ8 2k
1
ˆ" *˙
` lı́m P ω P Ω | |Xn pωq ´ Y pωq| ě “0`0“0
nÑ8 2k
1
ÿ8 ˆ" *˙
ñ P ω P Ω | |Xpωq ´ Y pωq| ě “0
k“1
k
ñ P ptω P Ω | Xpωq ‰ Y pωquq ñ X “ Y
c.s.
114 Capítulo 5. Convergencias estocásticas

Recíprocamente,

@ε ą 0 lı́m P ptω P Ω | |Xn pωq ´ Y pωq| ě εuq


´!nÑ8 ε )¯
ď lı́m P ω P Ω | |Xn pωq ´ Xpωq| ě
nÑ8 2
´! ε )¯
` lı́m P ω P Ω | |Xpωq ´ Y pωq| ě
nÑ8 2

c.s. P.
b) Si Xn ÝÝÑ X ñ Xn ÝÑ X

Demostración.
8
ď
tω P Ω | |Xn pωq ´ Xpωq| ě εu Ă tω P Ω | |Xm pωq ´ Xpωq| ě εu
m“n
8
ˆď
lı́m P ptω P Ω | |Xn pωq ´ Xpωqu ě ε|q ď lı́m P tω P Ω tal que
nÑ8 nÑ8
m“n
˙
|Xn pωq ´ Xpωq| ě εu

c) Condición suficiente para la convergencia en probabilidad. Sea


tXn unPN una sucesión de variables aletorias con ErXn s ÑnÑ8 a y
P.
V arrXn s ÑnÑ8 0, entonces Xn ÝÑ X; siendo X la variable aleatoria
definida por P pX “ aq “ 1 (degenerada en a)

Demostración. Por la desigualdad de Tchebychev,


” ı
E pXn ´ aq2 E Xn2 ´ 2 aXn ` a2
“ ‰
@ε ą 0 P pt|Xn ´ a| ě ε|uq ď “
ε2 ε2
varpXn q ` ErXn s ´ 2 aErXn s ` a2
2
“ ,
ε2
y por lo tanto, cuando llegamos al límite,
varpXn q ` ErXn s2 ´ 2 aErXn s ` a2
@ε ą 0 lı́m P pt|Xn ´ a| ě εuq ď lı́m
n n ε2
0 ` a ´ 2a ` a
2 2 2
“ “ 0.
ε2

P. c.s.
d) Si Xn ÝÑ X ùñ
­ Xn ÝÝÑ X.
5.1. Convergencia de variables aleatorias 115

Demostración. Con un contraejemplo. Sea tXn unPN de una sucesión


de variables aleatorias independientes tal que P pXn “ 0q “ 1 ´ n1 y
P pXn “ ˘1q “ 2n 1
, entonces:

1 1 1
ˆ ˙ ˆ ˙ ˆ ˙
ErXn s “ 0 1 ´ `1 ´1 “ 0,
n 2n 2n
1 1 1 1
ˆ ˙ ˆ ˙ ˆ ˙
varpXn q “ ErXn s ´ ErXn s “ 0
2 2 2
1´ `1 2
` p´1q 2
“ ,
n 2n 2n n
y, llegando al límite,
P.
varpXn q ÝÝÝÑ 0 y si aplicamos (c) Xn ÝÑ X X | P pX “ 0q “ 1
nÑ8

Ahora, por otro lado


8
ˆč
c.s.
Xn ÝÝÑ X X | P pX “ 0q “ 1 ðñ @ε ą 0 lı́m P tω P Ω tal que
nÑ8
m“n
˙
|Xm pωq ´ Xpωq| ă εu “ 1
˜ ¸ ˜ ¸
8
č 8
č
1“P tω P Ω | |Xm pωq| ă εu “P tω P Ω | Xm pωq “ 0u
m“n m“n
˜ ¸
2n
č
ă tω P Ω | Xm pωq “ 0u
m“n
las variables aleatorias son independientes
2n
1 1
ź ˆ ˙ ˆ ˙
“ P pXn “ 0q “ 1 ´ ¨¨¨ 1 ´
m“n n 2n
n´1

2n
pero resulta que
˜ ¸
1
č8
c.s.
lı́m P tω P Ω | Xm pωq ă εu ă ùñ Xn ÝÝ ­ÑX
nÑ8
m“n 2

Definición 5.3 (Convergencia en media “ cuadrática). Sea tXn unPN una su-
cesión de variables aleatorias con E Xn2 ă 8 @n y X : pΩ, A, P q Ñ

pR, BpR2 qq una variables aleatoria con ErX 2 s ă 8. Se dice que tXn unPN
converge en media cuadrática a X si se verifica que
” ı
lı́m E pXn ´ Xq2 “ 0
n

Observación 5.3.

m.c. m.c.
a) Xn ÝÝÝÑ X ñ pXn ÝÝÝÑ Y ô X “ Y q.
c.s.
116 Capítulo 5. Convergencias estocásticas

m.c. P.
b) Xn ÝÝÝÑ X ñ Xn ÝÑ X.

Demostración. Por la desigualdad de Tchebychev,

ErpXn ´ Xq2 s
@ε ą 0 P ptω P Ω | |Xn pωq ´ Xpωq| ě εuq ď ÝÝÝÑ 0
ε2 nÑ8

P.
y de esta manera Xn ÝÑ X.

c.s. m.c.
c) Xn ÝÝÑ X ùñ
­ Xn ÝÝÝÑ X.

Demostración. Mediante contraejemplo. Sea pΩ, A, P q un espacio de


probabilidad donde Ω “ p0, 1q, A es BpRq restringida a p0, 1q y P pa, bq “
b ´ a. Sea tXn unPN de manera que
#
0 ω P 0, 1 ´ n1
` ˘
Xn pωq “
1 resto

entonces
´ ¯
c.s.
P tωΩ | lı́m Xn pωq “ 0u “ P pp0, 1qq “ 1 ùñ Xn ÝÝÑ X
P
nÑ8
ErpXn ´ Xq s “ 0 P tω P Ω | ω P 0, 1 ´ n1 u
2 2
` ` ˘ ˘

` n2 P tω P Ω | ω P 1 ´ n1 , 1 u
` ` ˘ ˘

1
“ n2 ¨ “ n ÝÝÝÑ 8 ùñ no converge en media cuadrática.
n nÑ8

d) Además se tiene que,


m.c. m.c.
+
Xn ÝÝÝÑ X Xn ` Yn ÝÝÝÑ X ` Y
m.c. ùñ m.c.
Yn ÝÝÝÑ Y Xn ¨ Yn ÝÝÝÑ X ¨ Y

Definición 5.4 (Convergencia en ley). Sea tXn unPN una sucesión de va-
riables aleatorias. Se dice que tXn unPN converge en ley o distribución
hacia la variable aleatoria X definida en pΩ, A, P q si y sólo si

lı́m FXn pxq “ FX pxq para todo punto x de continuidad de FX


n

L.
Lo denotaremos por Xn ÝÑ X

Observación 5.4.
5.1. Convergencia de variables aleatorias 117

a) Xn y X pueden ser de distinta naturaleza (una puede ser continua y


las otras discretas o viceversa).

b) En los puntos de discontinuidad de FX pxq, la sucesión tFn pxqu puede


tender a FX pxq, a otro límite o, incluso, no existir su límite.
L.
c) Si Xn ÝÑ X, entonces X es único casi seguro (ver igualdad casi
seguro)
L. L.
d) Si Xn ÝÑ X y g : R Ñ R continua, entonces gpXn q ÝÑ gpXq.
Además: ,
L. L.
Xn ÝÑ X . Xn ` Yn ÝÑ X ` Y
ùñ
L. L.
Y ÝÑ Y - X ¨ Y ÝÑ X ¨ Y
n n n

e) Sea tϕn unPN la sucesión de funciones características asociadas a tXn unPN .


Si definimos
ϕptq :“ lı́m ϕXn ptq
n
Entonces si ϕ es continua en t “ 0 existe una variable aleatoria X tal
L.
que Xn ÝÑ X y ϕ es la función característica de X.
P. L.
Teorema 5.1. Si Xn ÝÑ X, entonces Xn ÝÑ X.

Demostración. Sea FX es la función de distribución de X y tomamos x de


tal forma que x sea un punto de continuidad de FX ,

FXn pxq “ P ptω P Ω | Xn pωq ď xuq “ P ptω P Ω | Xn pωq ď x, Xpωq ď x ` δuq


` P ptω P Ω | Xn pωq ď x, Xpωq ą x ` δuq
ď P ptω P Ω | Xpωq ď x ` δuq ` P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq
“ FX px ` δq ` P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq

Ahora, por otro lado,

FX px ´ δq “ P ptω P Ω | Xpωq ď x ´ δuq “ P ptω P Ω | Xpωq ď x ´ δ, Xn pωq ď xuq


` P ptω P Ω | Xpωq ď x ´ δ, Xn pωq ą xuq
ď P ptω P Ω | Xn pωq ď xuq ` P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq
“ FXn pxq ` P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq

y por lo tanto

Fx px ´ δq ´ P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq ď


ď FXn pxq ď FX px ` δq ` P ptω P Ω | |Xn pωq ´ Xpωq| ą δuq
P.
ùñ Xn ÝÑ X de manera que, tomando límites
FX px ´ δq ´ 0 ď lı́m inf FXn pxq ď lı́m sup FXn pxq ď FX px ` δq.
nÑ8 n
118 Capítulo 5. Convergencias estocásticas

Si se hace tender δ a cero y tenendo presente que x era un punto de conti-


L.
nuidad de FX se tiene que D lı́m FXn pxq “ FX pxq ùñ Xn ÝÑ X.

Teorema 5.2. Sea tXn unPN una sucesión de variables aleatorias tal que
L.
Xn ÝÑ X con X|P pX “ cq “ 1 (X es degenrada en el punto c), entonces
P.
Xn ÝÑ X

Demostración.
$
&FX pxq “ 0 xăc
#
0

xăc
FX pxq “ lı́m FXn pxq “ FX pxq “ 1 xąc
1 xěc n ’
FX tiene un salto x “ c
%

@ε ą0 lı́m P ptω P Ω | |Xn pωq ´ c| ě εuq “ lı́m P ptω P Ω | Xn pωq ď c ´ εuq


n nÑ8
` lı́m P ptω P Ω | Xn pωq ě ε ` cuq
nÑ8
“ lı́m FXn pc ´ εq ` 1 ´ lı́m P ptω P Ω | Xn pωq ă c ` εuq
nÑ8 n
ď lı́m FXn pc ´ εq ` 1 ´ lı́m P ptω P Ω | Xn pωq ď c ` ε{2uq
nÑ8 nÑ8
´ ε¯
“ lı́m FXn pc ´ εq ` 1 ´ lı́m FXn c ` “0`1´1“0
n nÑ8 2
P.
y, por lo tanto, Xn ÝÑ X | P pX “ cq “ 1.

Ejemplo 5.1. Sean tXn unPN variables aleatorias idénticamente distribui-


das, y la variable aleatoria bidimensional pX, Xn q, de la que sabemos que

1
P pX “ 0, Xn “ 1q “ P pX “ 1, Xn “ 0q “ .
2
L. P.
comprobar si Xn ÝÑ X y Xn ÝÑ P .
$
&x ă 0 0


L.
X FXn pxq “ 0 ď x ă 1 1{2 ÝÝÝÑ FX pxq ùñ Xn ÝÑ X
’ nÑ8
Xn 0 1 P pXn “ kq %X ě 1

1
0 0 1{2 1{2
$
&0
’ xă0
1 1{2 0 1{2
FX pxq “ 1{2 0 ď x ă 1

1 xě1
%

Ahora, si ε ą 1{2 P p|Xn ´ X| ą 1{2q “ P p|Xn ´ X| “ 1q “ P pXn “


P.
0, X “ 1q ` P pXn “ 1, X “ 0q “ 1{2 ` 1{2 “ 1. Y de esta manera Xn Ý­ Ñ X.
5.2. Leyes de los grandes números 119

5.2. Leyes de los grandes números


Las leyes de los grandes números es un término genérico para una
colección de teoremas relativos a una sucesión tAn unPN X de variables alea-
torias y establecen bajo qué condiciones la sucesión
" řn *
i“1 Xi ´ An
Bn nPN

converge en probabilidad o casi seguro. Los teoremas se clasifican en leyes


débiles o leyes fuertes según que la convergencia sea en probabilidad o casi
seguro.

5.2.1. Leyes débiles de los grandes números


Definición 5.5 (Ley débil de los grandes números). Una sucesión de va-
riables aleatorias tXn unPN se dice que obedece la ley débil de los grandes
números (L.D.G.N) si existe una sucesión de constantes tBn u Ò 8, Bn ą 0
y sucesión de números reales tAn u tales que
n
Sn ´ An P. ÿ
ÝÑ 0 Sn “ Xi
Bn i“1

Teorema 5.3 (L.D.G.N. de Tchebychev). Sea tXn unPN una sucesión de


variables aleatorias independientes (no necesariamente idénticamente dis-
tribuidas) con varpXř n q ď M ă 8 @n. Entonces Xn verifica la L.D.G.N.
con Bn “ n y An “ ni“1 ErXi s, es decir

Sn ´ ErSn s P.
ÝÑ 0
n
Demostración.
´ ¯
@ε ą 0 P Sn ´En rSn s ě ε “ P p|Sn ´ ErSn s| ě n εq

´ nε ¯ σ2
“ P |Sn ´ ErSn s| ě σ ď 2 2
σ n ε
varpSn q varpX
ř
i q n M M
“ “ i 2 2 ď 2 2 “
n 2 ε2 n ε n ε nε
y, haciendo el límite,
´ˇ ˇ ¯ M
@ε ą 0 lı́m P ˇ Sn ´En rSn s ˇ ě ε ď lı́m “0
ˇ ˇ
n n nε
Sn ´ ErSn s P.
ùñ ÝÑ 0.
n
120 Capítulo 5. Convergencias estocásticas

řn
Corolario 5.1. Sea X n “ 1
n i“1 Xi .
Si junto a las hipótesis anteriores
tenemos además ErXn s “ µ @n, entonces:
n
1ÿ P. P. P.
Xn ´ ErXi s ÝÑ 0 ñ X n ´ µ ÝÑ 0 ñ X n ÝÑ µ
n i“1

Teorema 5.4 (L.D.G.N.


` 1 řde Markov). Sea tXn unPN de variables aleatorias
n
con ErXn s ă 8 y var n i“1 Xi “ X ÝÝÝÑ 0 de manera que
˘
s
nÑ8

Sn ´ E rSn s P.
ÝÑ 0.
n
Demostración.
´ˇ ˇ ¯ varpS q 1 s
ˇ Sn ´ErSn s ˇ n
@ε ą 0 P ˇ n ˇěε ď 2 ε2
“ 2 ¨ X,
n ε
dado que n12 varpSn q “ var n1 Xi . Por otro lado
ř
´ˇ ˇ ¯ 1
@ε ą 0 lı́m P ˇ Sn ´varpS ns ˇ
ε ď 2 lı́m Xs “0
ˇ
n ˇ ě
n ε n
Sn ´ ErSn s P.
ùñ “X
sÝ Ñ0
n

Ejemplo 5.2. Tenemos una sucesión tXn u, Xn “ N p0, 1q @n y además


sabemos que
#
ρ si j “ i ` 1 ó j “ i ´ 1
covpXi , Xj q “
0 resto
En primer lugar calculamos
˜ ¸ 1
n
ÿ n hkkkkkkkkj
ÿ ÿ
varpSn q “ var Xi “ varpXi q ` 2 covpXi , Xj q
i“1 i“1 iăj
n´1
ÿ
“n`2 covpXi , Xi ` 1q “ n ` 2 pn ´ 1q ρ,
i“1
1 1 1
ˆ ˙
varpXq “ var Sn “ 2 varpSn q “ 2 pn ` 2 pn ´ 1q ρq ÝÝÝÑ 0
n n n nÑ1
Sn ´ ErSn s P. Sn P.
ÝÑ 0 ùñ ÝÑ 0
n n
Teorema 5.5 (L.D.G.N. de Khintchine). Sea tXn unPN una sucesión de
variables aleatorias independientes idénticamente distribuidas con ErXn s “
P.
µ ă 8. Entonces Snn ÝÑ µ, o lo que es lo mismo
n
1ÿ P.
Xi “ X
sÝѵ
n i“1
5.2. Leyes de los grandes números 121

Demostración.
`t˘ n
ź `t˘ ` ` ˘˘n
ϕ Sn ptq “ ϕSn n “ ϕXi n “ ϕXi nt
n
i“1

Y además, como lı́mtÑ0 Optq


t “ 0, entonces2
ϕX1 ptq “ ϕX1 p0q ` ϕ1X1 p0q ¨ t ` Optq “ 1 ` itµ ` Optq
de manera que nos queda
ˆ ˆ ˙˙
t t
ϕ Sn ptq “ 1 ` iµ ` O
n n n
»˜ n fi itµ`nOpt{nq n
¸ n
itµ`nOpt{nq
1
“ – 1` n
fl
itµ`nOpt{nq
´ ¯
Opt{nq
lı́mnÑ8 itµ` n
lı́m ϕ Sn ptq “ e “ eitµ ” ϕX ptq X|P pX “ µq “ 1
nÑ8 n
y así
Sn P.
ÝÑ µ.
n

Teorema 5.6 (L.D.G.N. de Gnedenko). Sea tXn unPN una sucesión


řn de va-
riables aleatorias. Entonces Xn cumple la L.D.G.N con An “ i“1 ErXi s y
Bn “ n si y sólo si
pX n ´ An q2
„ 
lı́m E “0
n 1 ` pXn ´ An q2
Ejemplo 5.3. Sean tXn u variables aleatorias independientes Bp1, pq ” Xn .
P.
Entonces, ¿es verdad que XsÝÑ p?
Nosotros sabemos que ErXn s “ p ă 8, luego por el Teorema de Khint-
chine (5.5) concluimos que
ř
Sn P. Xi P.
ÝÑ p ô ÝÑ p.
n n

5.2.2. Leyes fuertes de los grandes números


Definición 5.6 (Ley fuerte de los grandes números). Se dice que la sucesión
tXn unPN obedece la ley fuerte de los grandes números (L.F.G.N) si
existe tBn u Ò 8, Bn ą 0 y sucesión de números reales tAn u si y sólo si:
Sn ´ An c.s.
ÝÝÑ 0
Bn
2
el resto de Taylor del polinomio tiene un comportamiento asintótico como el de la
función f ptq “ t, es decir, está en el orden de Optq; véase la notación de Landau
122 Capítulo 5. Convergencias estocásticas

Teorema 5.7 (Condición suficiente de Kolmogorov). Sea tXn unPN una


sucesión de variables aleatorias independientes con ErXn s “ µn @n y
varpXn q “ σn2 , ambas finitas, entonces:
Sn ´ ErSn s c.s.
ÝÝÑ 0
n
Teorema 5.8 (Khintchine). Sea tXn unPN una sucesión de variables aleato-
rias independientes idénticamente distribuidas con ErXn s “ µ ă 8, enton-
ces:
Sn c.s.
ÝÝÑ µ
n
Ejemplo 5.4. Sea tXn u variables aleatorias independientes con distribucio-
nes binomiales
#
1 pi nº de obs. entre X1 , . . . , Xn iguales a 1
Xi “ Bp1, pi q “ y sea fn “
0 1 ´ pi n
c.s.
Y nos preguntamos ahora si fn ´ ni“1 pi ÝÝÑ 0. Bien,
ř

#
n
1 Xi “ 1 1 1ÿ
Ti “ ErTi s “ p, varpTi q “ p p1 ´ pq ď fn “ Ti
0 Xi “ 0 4 n i“1
varpTk q 1 ÿ 1
ÿ8 8
ď ă8
k“1
k 2 4 k“1
k 2

y por la condición suficiente de Kolmogorov (5.7)


Sn ´ ErSn s c.s. Sn 1 c.s.
ÝÝÑ 0 ðñ ´ ErSn s ÝÝÑ 0
n n n
si y sólo si
n
1ÿ c.s.
fn ´ pi ÝÝÑ 0
n i“1

5.3. El teorema central del límite


Hasta ahora, con la ayuda de las leyes fuertes y débiles de los grandes nú-
meros hemos visto que las sucesiones convergían hacia 0. Nos preguntamos,
¿es posible que éstas tiendan a otra variable aleatoria? El teorema central
del límite arroja algo de luz en este asunto.
Teorema 5.9 (Teorema central del límite o de Lévy-Lindeberg). Sea tXn unPN
una sucesión de v.a. independientes idénticamente distribuidas con ErXn s “
µ y varpXn q “ σ 2 , ambas finitas, entonces
řn
Xi ´ E r ni“1 Xi s L.
ř
i“1
ÝÑ N p0, 1q
var p ni“1 Xi q
a ř
5.3. El teorema central del límite 123

y también expresado como


řn n ˆ ˙
X ´ nµ L.
ÿ Xi ´ µ L.
? i
i“1
ÝÑ N p0, 1q ? ÝÑ N p0, 1q
n σ2 i“1
σ n
` 1 řn ˘ ?
n i“1 Xi ´ µ L. n pX
sn ´ µq L.
n ? ÝÑ N p0, 1q ÝÑ N p0, 1q
σ n σ

Demostración.
n
ź n
ź ´ ¯
φř´ Xi?´µ ¯ ptq “ φ Xi?´µ ptq “ φXi ´µ t
?
σ n
(5.1)
σ n σ n
i“1 i“1

Pero por otro lado, tenemos que como ErXi ´ µs “ 0 y varpXi ´ µq “


2q
varpXi q “ σ 2 , y lı́mtÑ0 Opt
t2
“ 0, de manera que

1 2
φXi ´µ ptq “ φXi ´µ p0q ` φ1Xi ´µ p0q ¨ t ` φXi ´µ p0qs¨ t2 ` Opt2 q
2!
loooooooooooooon
i2 ErpXi ´µq2

1 22 2 t2
“1`0` ¨ t i σ ` Opt2 q “ 1 ´ ¨ σ 2 ` Opt2 q
2 2
lo que implica que, volviendo a la ecuación (5.1),
´ ´ ¯¯n ˆ t2
ˆ´ ¯2 ˙˙n
φř Xi?´µ ptq “ φXi ´µ σ?n
´ ¯ t
“ 1´ 2 ¨σ `O 2 t
?
σ n 2σ n σ n
˜ ˜ˆ ˙2 ¸¸n
t2 t
“ 1´ `O ?
2n σ n

y de esta manera se tiene que

t2 t2
´ ´ ¯ ¯
»¨ 1˙ fi O ´ 2n n
σ2 n
˛ ˆ
O t2 t2
´ 2n
1 σ2 n
lı́m φřn ´ Xi?´µ ¯ ptq “ lı́m — ˝1 `
—˚ ‹ ffi
ffi
n n – 1¯ ‚ fl
n“1 σ n ´
t2 t2
O ´ 2n
σ2 n

t2 2
´ ´ ¯ ¯
lı́mn O t
´ 2n t2
“e σ2 n “ e´ 2 “ φX ptq

Al tener esta función característica, X ” N p0, 1q.


řn
Ejemplo 5.5. Sea X ” Bpn, pq tal que X “ i“1 Xi , Xi ” Bp1, pq.

X ´ E r ni“1 Xi s L.
ř
X ´ np L.
ÝÑ N p0, 1q & ÝÑ N p0, 1q.
var p Xi q
a ř a
n p p1 ´ pq
124 Capítulo 5. Convergencias estocásticas

5.4. Corrección por continuidad


El problema viene cuando tratamos de aproximar distribuciones discretas
por continuas. Lo que ocurre es que al integrar la función de masa da igual
integrar en un intervalo, digamos, ra, bs o pa, bq, el resultado será el mismo.
Pero en el caso de la discreta, si a ó b tienen probabilidad mayor que 0 la
cosa cambia. De ahí que se trate de corregir en la mayor medida posible ese
error.

Definición 5.7 (Corrección por continuidad). Sean X1 , . . . , Xn variables


aleatorias
řn discretas independientes e idénticamente distribuidas y Xn “
X
i“1 i . El Teorema Central del Límite (5.9) decía que aunque X sea una
variable aleatoria discreta su función de distribución se puede aproximar
por la de la distribución normal, que es una distribución continua. Con el
nombre de corrección por continuidad se recoge un procedimiento para me-
jorar la calidad de la aproximación que se obtiene cuanto se aproxima una
probabilidad basada en una distribución discreta por una basada en una
distribución continua.
Supondremos, por sencillez, que los posibles valores de la variable alea-
toria X son los enteros.

Ejemplo 5.6. Sea PX pX “ xq la función de probabilidad de la variable


aleatoria X y sea gpxq la función de densidad de la variable aleatoria normal
con la que se quiere aproximar la distribución de la variable aleatoria X. Es
decir, se trata de mejorar la aproximación
b
ÿ żb
PX pa ď X ď bq “ PX pX “ xq « gpxq dx.
x“a a

Obsérvense los inconvenientes que inicialmente se plantean con esta


aproximación:

a) ż8 ,
PX pX ě aq « gpxq dx/
/
.
ża8 PX pX ě aq ‰ PX pX ą aq
/
PX pX ą aq « gpxq dx/
-
a

b) PX pX “ xq ‰ 0, y, sin embargo, cuando se calcula con gpxq será uno


por ser g 1 pxq la función de densidad de una variable aleatoria continua.
–¿Qué te parece desto, Sancho? – Dijo Don Quijote –
Bien podrán los encantadores quitarme la ventura,
pero el esfuerzo y el ánimo, será imposible.

Segunda parte del Ingenioso Caballero


Don Quijote de la Mancha
Miguel de Cervantes

–Buena está – dijo Sancho –; fírmela vuestra merced.


–No es menester firmarla – dijo Don Quijote–,
sino solamente poner mi rúbrica.

Primera parte del Ingenioso Caballero


Don Quijote de la Mancha
Miguel de Cervantes

También podría gustarte