Está en la página 1de 126

Doble Grado Matemáticas–Física Universidad Complutense

Apuntes de Probabilidad
impartido por Leandro Pardo Llorente

13 de febrero de 2013
Tengo el pe muy pequeño.

Bueno, pues aquí de nuevo con la intención de pasar apuntes a LATEX. Vamos a ver qué
tal funciona esto.
Los apuntes del curso 2012–2013 en un principio son copiados de los apuntes de Adolfo
a mano. Y si alguien se ofrece a enviarme los ejercicios pasados a LATEX los incluiré sin
problemas. También agradecer a los de informática por su gran colaboración (gran parte
del principio es suya). También dar las gracias a Mario L. por su colaboración con los
errores e ideas.
Cualquier recomendación/crítica/ayuda será bien recibida.

3 de octubre de 2012
Manuel

ii
Índice general

1 Introducción al cálculo de probabilidades 1


1.1 Experimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Límites de sucesiones de conjuntos . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Álgebras y σ-álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Generación de diversas estructuras . . . . . . . . . . . . . . . . . . 5
1.3.3 Álgebras y σ-álgebras particulares . . . . . . . . . . . . . . . . . . . 6
1.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Probabilidad 11
2.1 Definición axiomática de probabilidad . . . . . . . . . . . . . . . . . . . . . 11
2.2 Espacio probabilístico discreto. Análisis combinatorio . . . . . . . . . . . . 15
2.2.1 Breve repaso de combinatoria . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Probabilidad condicionada e independencia de sucesos . . . . . . . . . . . 18
2.3.1 Teorema de la Probabilidad Total . . . . . . . . . . . . . . . . . . . 19
2.3.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.3 Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Funciones de distribución en R . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.1 Concepto de función de distribución en R . . . . . . . . . . . . . . 22
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Variables aleatorias unidimensionales 31


3.1 Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Concepto de variable aleatoria. Propiedades . . . . . . . . . . . . . 31
3.1.2 Probabilidad inducida por una variable aleatoria . . . . . . . . . . 34
3.1.3 Transformaciones de variables aleatorias . . . . . . . . . . . . . . . 36
3.2 Características de las variables aleatorias estadísticas . . . . . . . . . . . . 39
3.2.1 Esperanza matemática de una variable aleatoria unidimensional . 40
3.3 Medidas de dispersión de una variable aleatoria . . . . . . . . . . . . . . . 43
3.3.1 La desigualdad de Tchebysheff y sus aplicaciones . . . . . . . . . . 45
3.3.2 Función generatriz de momento y función característica . . . . . . 46
3.4 Distribuciones discretas notables . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.1 Distribución de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2 Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 49

iii
Índice g e n e r a l

3.4.3 Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 50


3.4.4 Distribución geométrica o de Pascal . . . . . . . . . . . . . . . . . . 52
3.4.5 Distribución binomial negativa . . . . . . . . . . . . . . . . . . . . . 53
3.4.6 Distribución hipergeométrica . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Variables aleatorias continuas notables . . . . . . . . . . . . . . . . . . . . . 56
3.5.1 Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5.2 Distribución normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.3 Distribución gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5.4 Distribución beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.6 Tablas Binomial, Poisson y Normal . . . . . . . . . . . . . . . . . . . . . . . 63
3.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4 Variables aleatorias multidimensionales 73


4.1 Función de distribución en R2 . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.1 Concepto de variable bidimensional. Propiedades . . . . . . . . . . 76
4.1.2 Probabilidad inducida por una variable aleatoria . . . . . . . . . . 77
4.2 Distribuciones marginales y condicionadas . . . . . . . . . . . . . . . . . . 79
4.2.1 Distribuciones marginales . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.2 Distribuciones condicionadas . . . . . . . . . . . . . . . . . . . . . . 80
4.3 Transformadas de variables aleatorias . . . . . . . . . . . . . . . . . . . . . 83
4.3.1 Momentos de una variable aleatoria bidimensional . . . . . . . . . 86
4.3.2 Función característica . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4 Regresión y correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4.1 Rectas de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4.2 Curvas de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5 Distribuciones bidimensionales notables . . . . . . . . . . . . . . . . . . . . 95
4.5.1 Normal bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5 Convergencias de variables aleatorias 103


5.1 Tipos de convergencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Leyes de los grandes números . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.2.1 Leyes débiles de los grandes números . . . . . . . . . . . . . . . . . 108
5.2.2 Leyes fuertes de los grandes números . . . . . . . . . . . . . . . . . 111
5.3 Teorema Central del Límite . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.3.1 Corrección por continuidad . . . . . . . . . . . . . . . . . . . . . . . 113
5.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Historial 119

iv
1 Introducción al cálculo de probabilidades

1.1 Experimento aleatorio


Definición 1.1 (Experimento aleatorio). Se denomina así a aquel experimento del que 2/10/2012

a) se conocen previamente los posibles resultados,


b) es imposible conocer el resultado antes de su realización, y
c) si se realiza dicho experimento repetidas veces en las mismas condiciones se pueden
presentar distintos resultados.

Ejemplos.

‚ Lanzamiento de un dado,
‚ consumo de agua diario en una ciudad o
‚ tiempo que tarda un alumno desde su casa a la facultad.

Definición 1.2 (Espacio muestral). Se denomina espacio muestral al conjunto de todos


los posibles resultados asociados a un experimento (lo denotaremos por Ω).

Ejemplos.

‚ Lanzamiento de una moneda al aire. El espacio muestral es cara (C) o cruz (X), por
lo que Ω “ tC, Xu.
‚ Lanzamiento de dos monedas al aire. Si las monedas son distinguibles se tiene que el
espacio muestral es Ω “ tCC, CX, XC, XXu. Pero si las monedas son indistinguibles
Ω “ tCC, CX, XXu.

Observación. Varios tipos de espacio muestral:

a) Espacio muestral finito (Ω esta formado por un número finito de elementos).


b) Espacio muestral infinito numerable. Ejemplo: lanzar una moneda al aire hasta
obtener por primera vez una cara.
c) Espacio muestral continuo. Ejemplo: tiempo de vida de una bombilla, lanzamiento
de una partícula sobre un plano.

1.2 Límites de sucesiones de conjuntos


Definición 1.3 (Sucesión de conjuntos). Sea Ω espacio muestral y ℘pΩq las partes de Ω
(conjunto de todos los subconjuntos de Ω, esto es, ℘pAq “ tH | H ⊂ Au). Se denomina

1
1 Intro du c c i ó n a l c á l c u l o d e p ro b a b i l i da d e s

sucesión de conjuntos a toda aplicación de N en ℘pΩq. Lo representaremos mediante


tAn unPN ⊂ ℘pΩq pAn ⊂ Ωq.

Definición 1.4 (Límite inferior y superior). Sea tAn unPN una sucesión de subconjuntos
de un espacio muestral Ω. Se define el límite superior e inferior de tAn u mediante
∞ ˆ [
\ ∞ ˙
lim An ” lim sup An “ Am (1.1)
n nÑ∞ n“1 m“n
∞ ˆ \
[ ∞ ˙
lim An ” lim inf An “ Am (1.2)
n nÑ∞
n“1 m“n

Observación. Sea txn unPN con xn P R, entonces

lim sup xn “ infpsup xk q & lim inf xn “ suppinf xk q


nÑ∞ n nÑ∞ n
kěn kěn
` ‰ ` ‰
Ejemplo. Sea tAn unPN , A2n´1 “ ´ n1 , 1 y A2n “ ´1, n1 . Entonces

\ ∞
[
An “ t0u & “ p´1, 1s
m“n m“n
∞ ˆ ∞ ˙
[ \
y, por lo tanto lim inf An “ Am “ t0u
nÑ∞
n“1 m“n
\∞ ˆ [
∞ ˙
lim sup An “ Am “ p´1, 1s
nÑ∞ n“1 m“n

Proposición 1.5. Sea tAn unPN una sucesión de subconjuntos de Ω. Entonces se tiene que

a) lim supn An “ tω P Ω | ω pertenece a infinitos An u, y, por otro lado,


b) lim infn An “ tω P Ω | ω pertenece a todos los An excepto a un número finitou.

Demostración.
T `S ∞ ˘ S
a) ω P lim supn An ðñ ω P ∞ n“1 m“n Am ðñ @n P N ω P ∞ m“n Am ðñ
@n P N D m ě n, ω P Am ðñ ω pertenece a infinitos An .
S `T ∞ ˘ T
b) ω P lim infn An ðñ ω P ∞ n“1 m“n Am ðñ D m, ω P ∞ m“n Am ðñ
D m, ω P Am @m ě n ðñ ω pertenece a todos los An salvo quizá a un número
finito.

Proposición 1.6.
lim inf An ⊂ lim sup An . (1.3)
n n

Demostración. ω P lim infn An ùñ ω pertenece a todos menos a un número finito


ùñ ω pertenece a infinitos An ùñ ω P lim supn An .

2
1.3 Ál g e b r a s y σ-á l g e b r a s

Definición 1.7 (Sucesiones de subconjuntos convergente). Sea tAn unPN una sucesión de
subconjuntos de Ω. Se dice que tAn u es convergente si y sólo si

lim inf An “ lim sup An ” lim An . (1.4)


n n n

(
Ejemplo. Sea tAn unPN , An “ x P R | x ă n1 . Entonces lim supnÑ∞ An “ p´∞, 0q y
lim infnÑ∞ An “ p´∞, 0q. Por lo tanto la sucesión converge y

lim An “ p´∞, 0q.


nÑ∞

Definición 1.8 (Sucesiones monótonas). Una sucesión tAn unPN de subconjuntos de Ω es


monótona creciente (o decreciente) si y sólo si A1 ⊂ A2 ⊂ A3 . . . (ó A1 ⊃ A2 ⊃ A3 . . .). Las
denotaremos por tAn unPN Ò (ó tAn unPN Ó).

Proposición 1.9. Sea tAn unPN una sucesión monótona de subconjuntos de Ω, entonces:
S∞
a) tAn unPN Ò siempre es convergente y se tiene que limnPN An “ n“1 An ,
T∞
b) tAn unPN Ó siempre es convergente y se tiene que limnPN An “ n“1 An .

Demostración.
∞ T `S ∞ ˘ S∞
a) Como An ⊂ An`1 para todo n entonces lim sup
˘ n ASn∞“ n“1 m“n Am “ m“1 Am .
S ∞ `T ∞
Y por otra parte lim infn An “ n“1 m“n Am “ n“1 An .
T∞
b) Como An ⊃ An`1 `para todo˘ n entonces lim supn An “ m“1 Am . Y por otro lado
S T∞ T∞
lim infn An “ ∞n“1 m“n Am “ n“1 An .

1.3 Álgebras y σ-álgebras


Definición 1.10 (Álgebra). Una familia no vacía, A, de subconjuntos de Ω es un álgebra
si se verifica

a) @A P A, AA P A, y
Sn
b) @A1 , . . . , An P A, i“1 Ai P A.

A B A B A B A B

Ω Ω Ω Ω
A A A A A
A∩B “ AKB A ∪ B “ pA ∩ B q A “ Ā “ Ω K A A K B “ A ∩ BA

Figura 1.1: Diagramas de Venn representando operaciones básicas con conjuntos.

3
1 Intro du c c i ó n a l c á l c u l o d e p ro b a b i l i da d e s

Definición 1.11 (σ-álgebra). Una familia no vacía, A, de subconjuntos de Ω es un


σ-álgebra si se verifica

a) @A P A, AA P A, y
S∞
b’) @A1 , . . . , An , . . . P A, i“1 Ai P A (unión numerable).

Observación. Todo σ-álgebra es una álgebra. Por un lado la propiedad (a) es la misma y
por otro lado (b’) implica (b) sin más que considerar An`1 “ An`2 “ . . . “ A1 ya que se
S Sn
tendría ∞ n“1 An “ i“1 Ai P A.

1.3.1 Propiedades

Corolario 1.12 (Propiedades).

a) Sea A un álgebra. Entonces ∅, Ω P A.


(a) (b)
Demostración. Sea A P A ùñ AA P A ùñ A ∪ AA “ Ω P A y por lo tanto
ΩA “ ∅ P A.
Tn
b) Si A1 , . . . , An P A entonces i“1 Ai P A.
Tn Sn
Demostración. i“1 Ai “ p i“1 AAi qA P A porque tanto los complementarios como
las uniones pertenecen.
c) A1 , A2 P A, A un álgebra, con A2 ⊂ A1 ùñ A1 K A2 P A.
(b)
Demostración. A1 K A2 “ A1 ∩ AA2 ùñ A1 ∩ AA2 P A.
T∞
d) Sean A1 , . . . , An , . . . P A, A un σ-álgebra, entonces n“1 An P A.
T∞ S∞
Demostración. Igual que antes i“1 Ai “ p i“1 AAi qA P A.
e) Sea A un σ-álgebra, tAn unPN An P A, entonces lim inf An , lim sup An P A.
nÑ∞ nÑ∞

f) La intersección de una familia de σ-álgebras (álgebras) es una σ-álgebra (álgebra)


T
Demostración. tAi uiPI , Ai es un σ-álgebra @i P I ùñ A “ iPI Ai es σ-álgebra.
1. Si A P A ùñ A P Ai @i P I ùñ AA P Ai @i P I ùñ AA P A.
2. Sean A1 , . . . , An , . . . P A ùñ A1 , . . . , An , . . . P Ai @i P I de manera que
S∞ S∞
n“1 An P Ai @i P I ùñ n“1 An P A.

Proposición 1.13. Una clase de subconjuntos1 de Ω es un σ-álgebra si es álgebra y es


cerrada respecto del límite de sucesiones monótonas.
1 Salvo error, una clase de subconjuntos de A es un subconjunto de partes de A, es decir, C ⊂ ℘pAq.

4
1.3 Ál g e b r a s y σ-á l g e b r a s

1.3.2 Generación de diversas estructuras


Definición 1.14 (σ-álgebra engendrada). Sea Ω ‰ ∅ y C una clase de subconjuntos de Ω.
Se denomina σ-álgebra (mínima álgebra) engendrada por la clase C, lo denotaremos σpCq, a
la intersección de todas las σ-álgebras (álgebras) de Ω que contienen a C. Que siempre
existe, dado que ℘pΩq contiene a C, y es σ-álgebra.

Veamos ahora cómo se construye esta mínima álgebra.

Proposición 1.15. Sea C una clase no vacía de subconjuntos de Ω. Se consideran las


Tn
clases C1 “ tA | A P C ó AA P Cu ∪ t∅u ∪ tΩu y C2 “ tB | B “ i“1 Ai Ai P C1 u.
Entonces la mínima álgebra que contiene a la clase C es
n
[ ˇ (
σpCq “ D “ Di ˇ Di P C2 y Di ∩ D j “ ∅ . (1.5)
i“1

Ejemplo. Ω “ N, C “ tt1u, t1, 2uu.


(
C1 “ t1u, t1, 2u, t1u, t1, 2u, ∅, N ,
(
C2 “ t1u, t1, 2u, t1u, t1, 2u, ∅, N, t2u ,
(
entonces σpCq “ t1u, t1, 2u, t1u, t1, 2u, ∅, N, t2u, t2u

En general no existe un procedimiento constructivo para hacer esto.

Proposición 1.16.

a) Sea f : Ω1 Ñ Ω2 una aplicación y sea C una álgebra (σ-álgebra) de Ω2 . Entonces


(
f ´1 pCq “ A ⊂ Ω1 | A “ f ´1 pBq, BPC es una álgebra (σ-álgebra). (1.6)

b) Sea f : Ω1 Ñ Ω2 una aplicación y sea C una clase de subconjuntos de Ω2 , entonces

σp f ´1 pCqq “ f ´1 pσpCqq. (1.7)

Demostración. Veamos únicamente la demostración de (a) en dos partes. Sea A P f ´1 pCq,


entonces A “ f ´1 pBq para algún B P C por lo que BA P C y por lo tanto se tiene que
f ´1 pBA q “ f ´1 pBqA “ AA ùñ AA P f ´1 pCq.
Por otro lado, vamos a ver que unión también está. Sean A1 , . . . , An P f ´1 pCq, entonces
S
Ai “ f ´1 pBi q con Bi P C i “ 1, . . . , n, lo que implica que nj“1 Bj P C y entonces
ˆ n ˙ n n n
[ [ [ [
f ´1
Bj “ f ´1 pBj q “ A j P C ùñ A j P f ´1 pCq.
j“1 j“1 j“1 j“1

5
1 Intro du c c i ó n a l c á l c u l o d e p ro b a b i l i da d e s

1.3.3 Álgebras y σ-álgebras particulares


Definición 1.17 (σ-álgebra de Borel).

a) Si Ω es finito o numerable, la σ-álgebra que generalmente se utilizará es ℘pΩq.


b) Si Ω está dotado de una topología (por ejemplo R ó Rn ), entonces se suele utilizar el
σ-álgebra engendrado por la topología, esto es, por la familia de conjuntos abiertos.
El σ-álgebra así construido se denominará σ-álgebra de Borel y a los elementos
conjuntos de Borel o borelianos. Se denotará como BpRq.

Ejemplo.

a) σ-álgebra de Borel sobre R.


Sea C “ tAn | A es un abierto en Ru. La σ-álgebra de Borel sobre R es la mínima
σ-álgebra generada por la clase de C. Se puede comprobar fácilmente que contiene
a los intervalos de la forma
1. pa, bq P BpRq,
T ` ˘
2. pa, bs “ ∞ 1
n“1 a, b ` n P BpRq,

3. ra, bq P BpRq,
4. ra, bs P BpRq,
5. tau “ ra, as P BpRq,
S∞
6. Q P BpRq por ser numerable ( n“1 qn P BpRq),
7. I “ R K Q “ QA P BpRq.
Aunque hay que tener en cuenta que hay conjuntos en R que no pertenecen a BpRq.
b) Se puede comprobar que BpRq se puede también engendrar mediante
i) la clase de todos los subconjuntos cerrados de R,
ii) la clase de todos los intervalos de la forma p´∞, bs, y
iii) la clase de todos los intervalos de la forma pa, bs.

Definición 1.18 (Rectángulo). Dados los espacios pΩ1 , A1 q y pΩ2 , A2 q se denomina


rectángulo de Ω1 ˆ Ω2 a los conjuntos de la forma A1 ˆ A2 , donde A1 P A1 , A2 P A2 .

Definición 1.19 (σ-álgebra producto). Se denomina σ-álgebra producto a la σ-álgebra


engendrada por la clase de los rectángulos en Ω1 ˆ Ω2 .

6
1.4 E j e rc i c i o s

1.4 Ejercicios

Hoja 0

1.- (1.a) Supongamos un alfabeto de n letras. Determinar cuántas iniciales


diferentes se pueden formar con dos letras.
(1.b) Determinar cuántas letras deberı́a tener el alfabeto para que un millón
de personas puedan ser identificadas mediante tres iniciales.

2.- Determinar cuántos números de tres cifras pueden tenerse si se emplean


sólo cifras impares. Calcular cuántos de estos números son menores que 500.

3.- Se eligen cinco bolas entre diez disponibles, siendo ordenadas en cinco cajas.
Determinar de cuántas maneras distintas pueden colocarse.

4.- Calcular en cuántos subconjuntos de tres elementos de cinco posibles aparece


un elemento especı́fico.

5.- Se dispone de dos mesas para tres y seis personas. Calcular de cuántas
formas pueden distribuirse nueve invitados.
Pn ¡n¢
6.- Demostrar la identidad 2n = i=0 i .

7.- Calcular de cuántas formas pueden ordenarse las letras de la palabra ’catarata’.

8.- Calcular cuántas señales diferentes, cada una de seis banderas colocadas
en una lı́nea vertical, pueden formarse con cuatro banderas rojas idénticas y dos
banderas azules idénticas.

9.- Si se dispone de cuatro grupos de individuos (tres americanos, cuatro france-


ses, cuatro daneses y dos italianos), calcular de cuántas formas posibles pueden
sentarse en una fila de sillas cuando aquellos de igual nacionalidad se sientan
correlativamente.

10.- Calcular cómo pueden distribuirse nueve juguetes entre cuatro niños cuando
el menor de éstos recibe tres juguetes y cada uno de los restantes recibe dos
juguetes.

7
1 Intro du c c i ó n a l c á l c u l o d e p ro b a b i l i da d e s

11.- Con las vocales ’a, e, i, o, u’ y las consonantes ’b, c, d, f’, calcular el
número de palabras de nueve letras distintas que pueden formarse. Calcular
este número cuando no hay vocales juntas.

12.- Se rellena un test de doce items, donde las respuestas son ’verdadero’
y ’falso’. Se ha decidido contestar a seis items de forma aleatoria. Determinar
el número de formas en que puede hacerse.

13.- Calcular cuántos números naturales de cuatro cifras hay con todas las
cifras diferentes.

14.- Calcular cuántos números de tres cifras pueden formarse con los dı́gitos
’1, 3, 5, 7 y 9’. Calcular cuánto suman todos ellos.

15.- Supongamos el conjunto de dı́gitos {1, 2, 3, 4, 5, 6}.


(15.a) Calcular en cuántas ordenaciones de los elementos del conjunto aparecen
el ’1’ y el ’2’ seguidos.

(15.b) Calcular en cuántas ordenaciones de los elementos del conjunto aparecen


el ’1’ y el ’2’ ordenados.
16.- (16.a) Calcular la cantidad de números de tres cifras que son capicúas.
(16.b) Análogo en el caso de números de cinco cifras.

17.- Determinar cuántas soluciones tiene la ecuación x + y + z = 8 con x,


y, z enteros mayores que cero. Generalizar el resultado para x1 + ... + xk = n.

18.- Para transmitir señales desde una isla a la costa, se dispone de 6 luces
blancas y 6 luces rojas colocadas en el vértice de un hexágono. En cada vértice
no puede haber encendida más que una luz (blanca o roja) y el número mı́nimo
de luces encendidas es tres. Determinar cuántas señales se pueden realizar.

8
1.4 E j e rc i c i o s

Hoja 1 – Introducción al
Cálculo de Probabilidades

1.- Dados el conjunto B ⊂ Ω y las sucesiones {An : n ≥ 1} ⊂ P(Ω) y {Bn : n ≥


1} ⊂ P(Ω), se pide
(1.a) Demostar la igualdad lim sup An = ∩∞ ∞
k=1 ∪n=k An .

(1.b) Si An ↓, demostrar que existe limn→∞ An y que limn→∞ An = ∩∞


n=1 An .

(1.c) Demostrar que lim sup An = lim sup A2n ∪ lim sup A2n−1 y lim inf An =
lim inf A2n ∩ lim inf A2n−1 .
(1.d) Demostrar que lim sup(B − An ) = B − lim inf An y lim inf(B − An ) =
B − lim sup An .
c c
(1.e) Demostrar que (lim sup An ) = lim inf Acn y (lim inf An ) = lim sup Acn .
(1.f ) Demostrar que lim sup(An ∪ Bn ) = lim sup An ∪ lim sup Bn y lim inf(An ∩
Bn ) = lim inf An ∩ lim inf Bn .
2.- Determinar los lı́mites inferiores y superiores de {An : n ≥ 1} cuando:
h i ¡ ¤
(2.a) A2n−1 = QI ∩ n1 , 2n+2
5n
y A2n = (IR − Q I ) ∩ − n2 , 7n+3
9n .
³ i ³ ´ h ´
n−1 2n−1 3n 2n2 +1
(2.b) A3n−2 = 5n+3 , n , A3n−1 = 5n+1 , 3n+2
n y A 3n = 1, n+2 .
© ± ª
(2.c) An = x ∈ IR n1 ≤ x ≤ 3 − 1
n .

3.- Supongamos Ω = IR2 . Calcular los conjuntos limn→∞ En , limn→∞ Enc ,


limn→∞ Fn , limn→∞ Fnc y limn→∞ (En ∩ Fnc ), donde
½ ¾
2 2 2 1
En = (x, y) ∈ IR : x + y < 1 + ,
n
½ ¾
n
Fn = (x, y) ∈ IR2 : x2 + y 2 ≤ .
n+1

4.- Calcular limn→∞ An en los siguientes casos:

9
1 Intro du c c i ó n a l c á l c u l o d e p ro b a b i l i da d e s

(4.a) An = {(x, y) ∈ IR2 : 1


n ≤ x2 + y 2 ≤ 4 − n1 }.

(4.b) An = {(x, y) ∈ IR2 : 0 ≤ x2 + y 2 ≤ 1


n }.

5.- Estudiar la convergencia de la sucesión {An : n ≥ 1} ⊂ P(Ω) en los siguientes


casos:
¡ ¤ ¡ ¤
(5.a) An = − n1 , 1 si n es par, y −1, n1 si n es impar.
¡ ¤ £ ¢
(5.b) An = 0, 1 − n1 si n es impar, y n1 , 1 si n es par.

10
2 Probabilidad

2.1 Definición axiomática de probabilidad


Definición 2.1 (Medida de probabilidad). Dado el espacio pΩ, Aq, una función de con-
juntos P : A Ñ r0, 1s es una medida de probabilidad si se verifica que

a) PpΩq “ 1, que
b) dados A1 , . . . , An , . . . P A disjuntos dos a dos y con n “ 1, . . . , ∞, se verifica que
ˆ ∞ ˙ ∞
[
P An “ ∑ PpAn q, (σ-aditividad)
n“1 n“1

[
(nótese que la definición es válida si A es álgebra si se impone que An P A),
n“1
c) y PpAq ě 0 @A P A.

Definición 2.2 (Espacio de probabilidad). La terna pΩ, A, Pq se denomina espacio de


probabilidad.

Proposición 2.3. Propiedades de la función de probabilidad.

a) Pp∅q “ 0.
´[ ∞ ¯ ∞
Demostración. Pp∅q “ P
n“1
∅ “ ∑ Pp∅q ðñ Pp∅q “ 0.
n“1
´[ n ¯ n
b) Sean A1 , . . . , An P A pAi ∩ A j “ ∅ @i ‰ jq, entonces P
i“1
Ai “ ∑ PpAi q.
i“1
Demostración.
#
Aj 1ďjďn
Sea Bj “
∅ năj
entonces, de esta manera,
ˆn ˙ ˆˆ n ˙ ˆ ∞ ˙˙ ˆ∞ ˙
[ [ [ [
P Ai “ P Ai ∪ ∅ “P Bj
i“1 i“1 i“n`1 j“1
∞ n ∞ n
“ ∑ PpBj q “ ∑ PpBj q ` ∑ PpBj q “ ∑ PpA j q
j“1 j“1 j“n`1 j“1
looooomooooon
0

11
2 Proba b i l i da d

c) Sean A1 , A2 P A con A1 ⊂ A2 ùñ PpA1 q ď PpA2 q y PpA2 K A1 q “ PpA2 q ´ PpA1 q.


Demostración. A1 ⊂ A2 ùñ A2 “ A1 ∪ pA2 K A1 q ùñ PpA2 q “ PpA1 ∪ pA2 K A1 qq
que, por ser disjuntos, es igual a PpA1 q ` PpA2 K A1 q. Y, consecuentemente, llegamos
a que PpA2 q ě PpA1 q y PpA2 K A1 q “ PpA2 q ´ PpA1 q.
d) Si A P A, entonces PpAA q “ 1 ´ PpAq.
Demostración. AA “ Ω K A ùñ PpAA q “ PpΩ K Aq “ PpΩq ´ PpAq “ 1 ´ PpAq.
e) Sean A1 , A2 P A, entonces PpA1 ∪ A2 q “ PpA1 q ` PpA2 q ´ PpA1 ∩ A2 q.
Demostración. A1 ∪ A2 “ A1 ∪ pA2 K pA1 ∩ A2 qq y por lo tanto PpA1 ∪ A2 q “ PpA1 q `
PpA2 K pA1 ∩ A2 qq “ PpA1 q ` PpA2 q ´ PpA1 ∩ A2 q.
´[ n ¯ n
f) Sean A1 , . . . , An P A, entonces se tiene que P Ai ď ∑ PpAi q.
i“1
i“1
Demostración. (Inducción) Para n “ 2 es cierto aplicando (e). Supóngase ahora cierto
para n ´ 1, entonces
ˆ n ˙ ˆˆn´1 ˙ ˙ ˆn´1 ˙
[ [ [
P Ai “P Ai ∪ An ďP Ai ` PpAn q
i“1 i“1 i“1
n´1 n
ď ∑ PpAi q ` PpAn q “ ∑ PpAi q.
i“1 i“1

g) Sean A1 , . . . , An P A, entonces:
ˆ n ˙ n
[
P Ai “ ∑ PpAi q ´ ∑ PpAi ∩ A j q ` ∑ PpAi ∩ A j ∩ Ak q ` ¨ ¨ ¨
i“1 i“1 iăj iăjăk ˆ ˙
n
\
n`1
` p´1q P Ai
i“1

Demostración. (Inducción) Para n “ 2 es cierto aplicando (e). Supóngase ahora cierto


para n ´ 1, entonces nos queda
ˆ n ˙ ˆn´1 ˙ ˆn´1 ˙ ˆn´1 ˙
[ [ [ [
P Ai “P Ai ∪ A n “P Ai ` PpAn q ´ P Ai ∩ A n
i“1 i“1 i“1 i“1
que, si lo expandimos, queda igual a

ˆ n ˙ n´1 n´1 n´1


[
P Ai “ ∑ PpAi q ´ ∑ pAi ∩ A j q ` ∑ PpAi ∩ A j ∩ Ak q ` ¨ ¨ ¨
i“1 i“1 iăj iăjăk
ˆn´1 ˙ „n´1
\
` p´1q P n
Ai ` PpAn q ´ ∑ PpAi ∩ An q ´ ¨ ¨ ¨
i“1 i“1

12
2.1 D e f i n i c i ó n a x i o m át i c a d e p ro b a b i l i da d

n´1 ˆ n ˙
\
´ ∑ PpAi ∩ A j ∩ An q ` ¨ ¨ ¨ ` p´1q n
P pAi ∩ A j q
iăj i“1
n n ˆ n ˙
\
“ ∑ PpAi q ´ ∑ PpAi ∩ A j q ` ¨ ¨ ¨ ` p´1q n`1
P Ai
i“1 iăj i“1

Teorema 2.4. Sea pΩ, A, Pq un espacio de probabilidad.

a) Si tAn unPN Ò con An P A @n ùñ limnÑ∞ PpAn q “ PplimnÑ∞ An q “ PpAq. (Y si


A fuese álgebra habría que imponer que A P A)
b) Si tAn unPN Ó con An P A @n ùñ limnÑ∞ PpAn q “ PplimnÑ∞ An q “ PpAq. (Y si
A fuese álgebra habría que imponer que A P A)

Demostración.

a) Sea tBn unPN de manera que B1 “ A1 , y @n ě 2 Bn “ An K An´1 . Entonces se tiene


que Bi P A @i “ 1, 2, . . . , n, que para todo i ‰ j Bi ∩ Bj “ ∅ y que
n
[ ∞
[
An “ Bi ÝÝÝÑ A “ Bn ,
nÑ∞
i“1 n“1
y de esta manera:
ˆ ∞ ˙ ˆ ∞ ˙
[ [
PpAq “ Pp lim An q “ P An “P Bn
nÑ∞
n“1 n“1
∞ n ˆ n ˙
[
“ ∑ PpBn q “ nÑ∞
lim ∑ PpBi q “ lim P
nÑ∞
Bi “ lim PpAn q.
nÑ∞
n“1 i“1 i“1

b) Sea tBn unPN tal que B1 “ A1 K A2 , y @n ě 1 Bn “ A1 K An`1 . Donde se tiene que


tBn unPN Ò y limnÑ∞ Bn “ A1 K limnÑ∞ An`1 “ A1 K A. Entonces

Pp lim Bn q “ lim PpBn q “ lim PpA1 K An`1 q “ lim PpA1 q ´ PpAn`1 q


nÑ∞ nÑ∞ nÑ∞ nÑ∞
“ PpA1 q ´ lim PpAn`1 q “ PpA1 K lim An`1 q
nÑ∞ nÑ∞
“ PpA1 q ´ Pp lim An`1 q “ PpA1 q ´ PpAq,
nÑ∞
y, por lo tanto obtenemos finalmente que
Pp lim An q “ lim PpAn q “ PpAq.
nÑ∞ nÑ∞

Observaciones (Lema de Borell–Cantelli).

a) Sea tAn unPN Ó, entonces si limnÑ∞ An “ ∅ esto implica que limnÑ∞ PpAn q “ 0.
Demostración. limnÑ∞ PpAn q “ PplimnÑ∞ An q “ Pp∅q “ 0.

13
2 Proba b i l i da d

´[ ∞ ¯ ∞
b) Sea tAn unPN con An P A @n, entonces P
n“1
An ď ∑ PpAn q.
n“1
Sn
Demostración. Sea tBn unPN definido como Bn “ i“1 Ai @n ě 1. Con lo que
S S∞
tBn unPN Ò y ∞n“1 Bn “ n“1 An . De esta manera
ˆ ∞ ˙ ˆ ∞ ˙ ˆ n ˙
[ [ [
P An “P Bn “ Pp lim Bn q “ lim PpBn q “ lim P Ai
nÑ∞ nÑ∞ nÑ∞
n“1 n“1 i“1
n ∞
ď lim
nÑ∞
∑ PpAi q “ ∑ PpAn q.
i“1 n“1

´\ ∞ ¯ ∞
c) Sea tAn unPN con An P A @n, entonces P
n“1
An ě 1 ´ ∑ PpAAn q.
n“1
Demostración.
ˆ∞ ˙ ˆˆ ∞ ˙A ˙
\ \
P An “ PpAq “ 1 ´ PpA q “ 1 ´ P
A
An
n“1 n“1
ˆ ∞ ˙ ∞
[
“ 1´P AAn ě 1´ ∑ PpAAn q.
n“1 n“1

d) Lema de Borel–Cantelli. Sean pΩ, A, Pq un espacio de probabilidad, tAn unPN con



An P A @n y ∑ PpAn q ă ∞, entonces
n“1
Pplim sup An q “ 0. (2.1)
nÑ∞

Demostración. Como ∑∞ n“1 PpAn q ă ∞,Sse desprende que para todo ε ą 0 existe un
nε P N, ∑n“nε PpAn q ă ε. Sea Bn “ ∞

m“n Am , con lo que tBn uÓ. Ahora con todo
esto:
ˆ∞ˆ ∞ ˙˙ ˆ∞ ˙
\ \ \ ` ˘
Pplim sup An q “ P An “P Bn “ P lim Bn “ lim PpBn q
nÑ∞ nÑ∞ nÑ∞
n“1 m“n n“1
ˆ ∞ ˙ ∞
[
“ lim P
nÑ∞
Am ď lim
nÑ∞
∑ PpAm q ă ε @ε ą 0.
m“n m“n

Y como Pplim supnÑ∞ An q ě 0 ùñ Pplim supnÑ∞ An q “ 0.

Proposición 2.5. Se considera el espacio de probabilidad pΩ, A, Pq. Dada una sucesión
tAn unPN con An P A @n se tiene que
` ˘ ` ˘
Pplim inf An q ď lim inf PpAm q ď lim sup PpAm q ď Pplim sup An q.
nÑ∞ nÑ∞ měn nÑ∞ měn nÑ∞

14
2.2 E s pac i o p ro b a bi l í s t i c o d i s c r e t o. A ná l i s i s c o m b i nat o r i o

Demostración. Procedamos a las dos desigualdades que hay que demostrar por separado
(la del medio es trivial).
(Primera desigualdad)
ˆ ∞ ˆ ∞ ˙˙ ˆ ˆ ∞ ˙˙ ˆ ∞ ˙
[ \ \ \
Pplim inf An q “ P Am “ P lim Am “ lim P Am ,
nÑ∞ nÑ∞ nÑ∞
n“1 m“n m“n m“n
T∞ T∞
y como m“n Am ⊂ Am @m ě n, entonces se tiene que Pp m“n Am q ď PpAm q @m ě n
y por lo tanto
ˆ ∞ ˙ ˆ ∞ ˆ ∞ ˙˙ ˆ ˙
\ [ \
P Am ď inf PpAm q ùñ P Am “ lim inf An ď lim inf PpAm q .
měn nÑ∞ nÑ∞ měn
m“n n“1 m“n

(Segunda desigualdad) Completamente análoga a la primera.


ˆ∞ˆ ∞ ˙˙ ˆ ˆ ∞ ˙˙ ˆ ∞ ˙
` ˘ \ [ [ [
P lim sup An “ P Am “ P lim Am “ lim P Am ,
nÑ∞ nÑ∞ nÑ∞
n“1 m“n m“n m“n
S∞ S∞
y como m“n Am ⊃ Am @m ě n, entonces se tiene que Pp m“n Am q ě PpAm q @m ě n
ˆ ∞ ˙ ˆ ∞ ˆ ∞ ˙˙
[ \ [ ` ˘
P Am ě sup PpAm q ùñ P Am “ lim sup An ě lim sup PpAm q .
měn nÑ∞ nÑ∞ měn
m“n n“1 m“n

Corolario 2.6. Dado el espacio de probabilidad pΩ, A, Pq y la sucesión tAn unPN con
An P A, si existe el limnÑ∞ An “ A, entonces

lim PpAn q “ PpAq.


nÑ∞

Demostración. A “ lim An “ lim inf An “ lim sup An y por lo tanto se dan las igualdades
nÑ∞ nÑ∞ nÑ∞
en la proposición anterior.

2.2 Espacio probabilístico discreto. Análisis combinatorio


a) Ω finito o numerable, Ω “ tai | i P Iu, A ” ℘pΩq un σ-álgebra. Entonces se cumple
que 0 ď Pptai uq “ pi ď 1 @i P I de manera que

∑ Pi “ 1,
iPI

y la función P : A Ñ r0, 1s
A ÞÑ PpAq “ ∑ Pptai uq “ ∑ Pi
ai PA ai PA

es una medida de probabilidad.

15
2 Proba b i l i da d

b) Sea Ω “ ta1 , . . . , an u, entonces


1
Ppta1 uq “ . . . “ Pptan uq ùñ Pptai uq “ @i “ 1, . . . , n.
n
Ahora sea A “ tai1 , ai2 , . . . , aij u con aij P Ω. Entonces

CardpAq
PpAq “ ∑ Pptaij uq “ n
. (2.2)
aij PA

también expresada como número de casos favorables dividido por casos posibles,
conocida como Regla de Laplace.

2.2.1 Breve repaso de combinatoria


Principio fundamental del conteo

Sean A1 , ..., Ar conjuntos tales que CardpAi q “ ni i “ 1, . . . , r, entonces

CardpA1 ˆ A2 ˆ ¨ ¨ ¨ ˆ Ar q “ n1 ¨ n2 ¨ ¨ ¨ nr .

Ejemplo (Clasificación múltiple). Se quiere clasificar a un colectivo de personas según su


sexo, su estado civil y su profesión. Si se consideran 10 profesiones básicas. ¿Cuántas
clases tendremos?

Solución. Como hay solamente 2 posibilidades para el sexo, hombre o mujer, y suponemos
también solo 2 para el estado civil: casado o soltero. De esta manera tenemos en total
2 ¨ 2 ¨ 10 “ 40 clases diferentes. đ

Ejemplo (Colocación de bolas en urnas). ¿De cuántas formas se pueden colocar r bolas
distintas en n urnas?

Solución. Ai “ turnas a las que puede ir la bola iu, CardpAi q “ n. Las distintas formas
n ¨ n ¨ ¨ ¨ n “ nr .
son loooooooooon đ
r

Ejemplo. En una sala hay r personas. ¿Cuántas configuraciones de cumpleaños se pueden


dar?

Solución. Ai “ tdías en los que la persona i puede cumplir añosu, CardpAi q “ 366. Por
lo tanto, el total de configuraciones es 366r . đ

Ejemplo. En un ascensor de un edificio de 5 plantas se montan 10 personas. Configura-


ciones posibles para bajada de las personas.

Solución. Ai “ tposibilidades de bajada para la i-ésima personau, CardpAi q “ 5. En total


hay 510 configuraciones. đ

16
2.2 E s pac i o p ro b a bi l í s t i c o d i s c r e t o. A ná l i s i s c o m b i nat o r i o

Variaciones

‚ Si se toman k elementos de un conjunto de n elementos, teniendo en cuenta el


orden de los elementos, tendremos variaciones.

Vn,k “ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq.

Ejemplo. Supongamos que un club consta de 25 miembros y que se han de elegir


de la lista de miembros un presidente y un secretario. El presidente y el secretario
no pueden ser la misma persona.
Solución. V25,2 “ 25 ¨ 24. đ
‚ Si se toman k elementos de un conjunto de n elemntos importando el orden de los
elementos y admitiendo la posibilidad de elementos repetidos tendremos variaciones
con repetición.
RVn,k “ nk .
Ejemplo. Considérese un experimento que consiste en anotar la fecha de cumpleaños
para cada una de las 20 personas seleccionadas al azar. ¿Cuántas configuraciones
posibles hay?
Solución. RV366,20 “ 36620 . đ

Permutaciones

Si en el caso de las variaciones sin repetición se toma k “ n se obtienen las distintas


ordenaciones de los n elementos y se conocen con el nombre de permutaciones.

Pn “ Vn,n “ n ¨ pn ´ 1q ¨ ¨ ¨ 2 ¨ 1 “ n!.

Combinaciones

Las combinaciones de n elementos tomadas de k en k son todos los grupos de k elementos


sacados de entre los n, de modo que dos grupos son distintos si tienen algún elemento
distinto. El orden es irrelevante.
ˆ ˙
Vn,k n
Cn,k “ “ .
k! k

El número de variaciones de n elementos tomados de k en k es Vn,k . Estas Vn,k variaciones


se pueden formar de la forma siguiente: se selecciona una combinación particular de k
elementos, cada permutación distinta de esos k elementos producirá una variación. Puesto
que hay k! permutaciones de esos k elementos, esta combinación particular producirá k!
variaciones:
Vn,k “ Cn,k ¨ k!.

17
2 Proba b i l i da d

Ejemplo. Sea Ω “ ta, b, c, du. Entonces


ˆ ˙
4 4!
C4,3 “ “ “ 4.
3 p4 ´ 3q! 3!

Estas combinaciones son: ta, b, cu, ta, b, du, ta, c, du, tb, c, du. Y podemos observar que

ta, b, cu “ ta, c, bu “ tb, a, cu “ tb, c, au “ tc, a, bu “ tc, b, au,

y, sin embargo, como ternas (esto es, importando el orden)

pa, b, cq ‰ pa, c, bq ‰ pb, a, cq ‰ pb, c, aq ‰ pc, a, bq ‰ pc, b, aq.

Permutaciones con repetición


Las permutaciones con repetición de n elementos uno de los cuales se repite n1 veces,
otro n2 veces, ..., y otro nk veces. Supongamos que se van a dividir n elementos en grupos
distintos de manera que el j-ésimo grupo pj “ 1, . . . , kq contenga n j elementos y que se
cumple n1 ` n2 ` ¨ ¨ ¨ ` nk “ n. Se trata de determinar el número de formas distintas en
las que se pueden distribuir los n elementos en los k grupos.
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
n n ´ n1 n ´ n1 ´ n2 n ´ n1 ´ ¨ ¨ ¨ ´ nk´2 n ´ n1 ´ ¨ ¨ ¨ ´ nk´1
¨ ¨ ¨¨¨ ¨ “
n1 n2 n3 nk´1 nk
n! n´
p n1 q! pn ´ n1 ´(¨ (
¨¨´(n q! pn ´(n( 1´ (¨ ( (n q!
¨¨´
(( ((
k´2 k´1
“ ¨ ¨¨¨ ((( ¨ ( “
n1 ! p
n´n1 q! n2 ! p(
n´(n(1 ´ n2 q! nk´1 ! pn ´ n( ´ ¨( (n q! nk ! pn ´ n(
¨¨´ 1´(¨ (
¨¨´ nk q!
 ( ( ( ( ((
1 ( k´1
ˆ ˙
( ( ( (
n! n
“ “
n1 ! ¨ ¨ ¨ n k ! n1 , n2 , . . . , n k

2.3 Probabilidad condicionada e independencia de sucesos


Definición 2.7 (Probabilidad condicionada). Sea pΩ, A, Pq un espacio de probabilidad y
sea A P A con PpAq ą 0. Se denomina probabilidad de B condicionada por A a la expresión

PpB ∩ Aq
PpB | Aq ” @B P A. (2.3)
PpAq

Proposición 2.8. Al espacio pA, AA , PA q, con PA pBq ” PpB | Aq y AA “ tB P ℘pΩq | B “


A ∩ C, C P Au se lo denomina espacio de probabilidad condicionado. Veamos que PA es
una medida de probabilidad.

Demostración. Por una parte:

PpA ∩ Aq
PA pAq “ PpA | Aq “ “ 1.
PpAq

18
2.3 Pro b a b i l i da d c o n d i c i o na da e i n d e p e n d e n c i a d e s u c e s o s

Y, por otro lado, dados B1 , . . . , Bn , . . . P AA con Bi ∩ Bj “ ∅ @i ‰ j,


ˆ∞ ˙ S S
[ Ppp ∞ n“1 Bn q ∩ Aq Pp ∞ n“1 pBn ∩ Aqq
PA Bn “ “
n“1
PpAq PpAq
∑∞
n“1 PpBn ∩ Aq

PpBn ∩ Aq ∞
“ “ ∑ “ ∑ PA pBn q.
PpAq n“1
PpAq n“1

Observaciones.
a) La probabilidad condicionada a veces es útil para calcular la probabilidad de la
intersección de dos sucesos:
PpA ∩ Bq
PpB | Aq “ ùñ PpA ∩ Bq “ PpAq ¨ PpB | Aq.
PpAq

b) El resultado de (a) se puede generalizar para n sucesos. Sea pΩ, A, Pq un espacio


de probabilidad y sean A1 , . . . , An P A con PpA1 ∩ ¨ ¨ ¨ ∩ An´1 q ą 0. Entonces

PpA1 ∩ ¨ ¨ ¨ ∩ An q “ PpA1 q ¨ PpA2 | A1 q ¨ PpA3 | A1 ∩ A2 q ¨ ¨ ¨ PpAn | A1 ∩ ¨ ¨ ¨ ∩ An´1 q.

Demostración. Lo hacemos por inducción. Para n “ 2 es cierto por (a). Ahora


Tn´1
supongamos que es cierto para n ´ 1 y veamos para n. Sea B “ i“1 Ai PpBq ą 0,
con esto:

PpA1 ∩ ¨ ¨ ¨ ∩ An q “ PpB ∩ An q “ PpBq ¨ PpAn | Bq


“ PpAi ∩ ¨ ¨ ¨ ∩ An´1 q ¨ PpAn | A1 ∩ ¨ ¨ ¨ ∩ An´1 q
“ PpA1 q ¨ PpA2 | A1 q ¨ ¨ ¨ PpAn | A1 ∩ ¨ ¨ ¨ ∩ An´1 q

Ejemplo. En una población con 50000 personas hay 10000 que trabajan por cuenta propia
y 20000 que trabajan por cuenta ajena. A una hora determinada se abre una ventanilla en
una de las secciones del ayuntamiento. Calcular la probabilidad de que las dos primeras
personas trabajen por cuenta propia y la tercera lo haga por cuenta ajena.

Solución. A1 ” primera persona trabaja por cuenta propia, A2 ” segunda persona trabaja
por cuenta propia, A3 ” tercera persona trabaja por cuenta ajena. Entonces
10000 9999 20000
PpA1 ∩ A2 ∩ A3 q “ PpA1 q ¨ PpA2 | A1 q ¨ PpA3 | A1 ∩ A2 q “ ¨ ¨ . đ
50000 49999 49998

2.3.1 Teorema de la Probabilidad Total


Teorema 2.9 (de la probabilidad total). Se considera un espacio de probabilidad pΩ, A, Pq
y sea B P A. Dada una partición tAi uiPI de Ω, se verifica

PpBq “ ∑ PpAi q ¨ PpB | Ai q. (2.4)


iPI
PpAi qą0

19
2 Proba b i l i da d

S S
Demostración. Como B “ B ∩ Ω “ B ∩ p iPI Ai q “ iPI pB ∩ Ai q, entonces
´[ ¯ PpB ∩ Ai q
PpBq “ P pB ∩ Ai q “ ∑ PpB ∩ Ai q “ ∑ ¨ PpAi q “ ∑ PpAi q ¨ PpB | Ai q
iPI iPI iPI
PpAi q iPI
PpAi qą0 PpAi qą0

Ejemplo. Una compañía financiera para la venta de automóviles a plazos opera en tres
grandes regiones de un país: A, B y C. El 50 % de las operaciones las realiza en la región
A, el 40 % en B y el 10 % en C. Se ha estimado por larga experiencia el tanto por ciento
de los clientes que no efectúan el pago de las letras en cada una de las regiones. Para A
es el 1 %, para B el 2 % y para C el 8 %. Determinar el tanto por ciento de los clientes de
la compañía que pagan las letras de la operación.

Solución. A ” clientes de la región A, B ” clientes de la región B, C ” clientes de la


región C, L ” clientes que pagan las letras. Entonces

PpAq “ 0.5, PpLA | Aq “ 0.01, PpL | Aq “ 0.99,


PpBq “ 0.4, PpLA | Bq “ 0.02, PpL | Bq “ 0.98,
PpCq “ 0.1, PpLA | Cq “ 0.08, PpL | Cq “ 0.92,
PpLq “ PpL | Aq ¨ PpAq ` PpL | Bq ¨ PpBq ` PpL | Cq ¨ PpCq “ 0.979. đ

2.3.2 Teorema de Bayes


Teorema 2.10 (de Bayes). Se considera un espacio de probabilidad pΩ, A, Pq y una
partición tAi uiPI Ai P A. Entonces, dado B P A se verifica que

PpB | A j q ¨ PpA j q
PpA j | Bq “ . (2.5)
∑ PpB | Ai q ¨ PpAi q
iPI

Demostración.
PpA j ∩ Bq PpB | A j q ¨ PpA j q PpB | A j q ¨ PpA j q
PpA j | Bq “ “ “ .
PpBq PpBq ∑ PpB | Ai q ¨ PpAi q
iPI
PpAi qą0

Definición 2.11 (Probabilidad a priori, a posteriori y verosimilitud). Bajo las condiciones


del teorema anterior PpA j | Bq se denomina probabilidad a posteriori, PpB | A j q verosimilitud
y PpA j q probabilidad a priori.

2.3.3 Independencia de sucesos


Ejemplo. Consideramos el experimento aleatorio lanzar dos dados al aire. De esta manera
Ω “ tp1, 1q, . . . , p6, 6qu, A ” el primer dado es un número par, PpAq “ 18 1
36 “ 2 , B ” el

20
2.3 Pro b a b i l i da d c o n d i c i o na da e i n d e p e n d e n c i a d e s u c e s o s

12
segundo dado es un 5 ó un 6, PpBq “ 36 “ 13 . Entonces PpA ∩ Bq “ 6
36 “ 1
6 y por lo tanto:
PpA ∩ Bq 1 3 1
PpA | Bq “ “ ¨ “ “ PpAq.
PpBq 6 1 2
Y esto ocurre dado que A y B son sucesos independientes.
Definición 2.12 (Independencia de sucesos). Sea el espacio de probabilidad pΩ, A, Pq,
A, B P A. Se dice que A y B son dos sucesos independientes si se verifica
PpA ∩ Bq “ PpAq ¨ PpBq. (2.6)
Observaciones.
a) Este concepto sigue siendo válido cuando PpAq o PpBq son cero. De hecho, PpAq “
0 ùñ A es independiente de B, @B P A con PpBq ą 0.
Demostración. PpA ∩ Bq ď PpAq “ 0 ùñ PpA ∩ Bq “ 0 “ PpAq ¨ PpBq.
b) PpAq ą 0 ùñ A es independiente de ∅, Ω.
Demostración. PpA ∩ ∅q “ Pp∅q “ 0 “ PpAq ¨ Pp∅q. En cuanto a Ω, se tiene que
PpA ∩ Ωq “ PpAq “ 1 ¨ PpAq “ PpAq ¨ PpΩq.
c) A y B son independientes ðñ PpA | Bq “ PpAq.
PpA∩ Bq
Demostración. ( ùñ ) PpA | Bq “ PpBq “ PpAq.
PpA∩ Bq
( ñù ) PpA | Bq “ PpBq “ PpAq ùñ PpA ∩ Bq “ PpAq ¨ PpBq.
d) A y B son independientes ùñ A y BA , AA y B, AA y BA son independientes.
Demostración. Basta probarlo en un caso, el resto se obtiene renombrando los con-
juntos. Vamos a probar que si A y B son independientes, entonces A y BA son
independientes:
PpA ∩ BA q “ PpA K Bq “ PpA K pA ∩ Bqq
“ PpAq ´ PpA ∩ Bq “ PpAq ´ PpAq ¨ PpBq
“ PpAq ¨ p1 ´ PpBqq “ PpAq ¨ PpBA q

La idea de independencia de j sucesos Ai , A2 , ..., A j exige que cualquier conociemiento


que se tenga sobre dos de ellos no aporte información sobre el j-ésimo.
Corolario 2.13. Dado el espacio pΩ, A, Pq y los sucesos A1 , A2 , A3 P A. Se dice que son
independientes si
PpA1 ∩ A2 q “ PpA1 q ¨ PpA2 q,
PpA2 ∩ A3 q “ PpA2 q ¨ PpA3 q,
PpA3 ∩ A1 q “ PpA3 q ¨ PpA1 q,
PpA1 ∩ A2 ∩ A3 q “ PpA1 q ¨ PpA2 q ¨ PpA3 q.

21
2 Proba b i l i da d

Corolario 2.14. Se considera el espacio de probabilidad pΩ, A, Pq y la familia de sucesos


tAi uiPI Ai P A. De manera general, los sucesos Ai son independientes si se verifica:
´\ ¯
P Ai “ ∏ PpAi q @F ⊂ I. (2.7)
iPF iPF

2.4 Funciones de distribución en R


En esta sección trabajaremos con el espacio de probabilidad pR, BpRq, Pq, donde R son
los reales, BpRq la σ-álgebra de Borel y P una medida de probabilidad.

2.4.1 Concepto de función de distribución en R


Definición 2.15 (Función de distribución). Sea pR, BpRq, Pq un espacio de probabilidad.
Se denomina función de distribución asociada a P a la función definida por

FP : R Ñ r0, 1s
x ÞÑ FP pxq “ Ppp´∞, xsq.

Proposición 2.16. Propiedades de la función de distribución. Sea FP una función de


distribución, esto implica que

a) FP es monótona creciente.
Demostración. x1 , x2 P R de manera que x1 ă x2 , entonces se tiene la desigualdad
FP px1 q “ Ppp´∞, x1 sq ď Ppp´∞, x1 sq ` Pppx1 , x2 sq “ Ppp´∞, x2 sq “ FP px2 q.
b) FP p`∞q “ limxÒ∞ FP pxq “ 1.
Demostración.

FP p`∞q “ lim FP pxq “ lim FP pnq “ lim Ppp´∞, nsq


xÒ∞ nÒ∞ nÒ∞
ˆ∞ ˙
` ˘ [
“ P limp´∞, ns “ P p´∞, ns “ PpRq “ 1.
nÒ∞
n“1

FP p´∞q “ limxÓ∞ FP pxq “ 0.


Demostración.

FP p´∞q “ lim FP pxq “ lim FP pnq “ lim Ppp´∞, nsq


xÓ´∞ nÓ´∞ nÓ´∞
ˆ∞ ˙
` ˘ \
“ P limp´∞, ´ns “ P p´∞, ´ns “ Pp∅q “ 0.
nÒ∞
n“1

22
2 .4 Fu n c i o n e s d e d i s t r i b u c i ó n e n R

c) FP es continua a la derecha, es decir,

lim FP px ` hq “ FP pxq @x P R.
hÑ0`

Demostración. Dada una sucesión monótona decreciente tan unPN Ó0 se verifica:


` ˘
lim FP px ` an q “ lim Ppp´∞, x ` an sq “ P lim p´∞, x ` an s
nÑ∞ nÑ∞ nÑ∞
ˆ∞ ˙
\
“P p´∞, x ` an s “ Ppp´∞, xsq “ FP pxq.
n“1

Definición 2.17. Una función F : R Ñ r0, 1s es una función de distribución si verifica que
a) F es monótona creciente,
b) Fp`∞q “ limxÒ∞ Fpxq “ 1 & Fp´∞q “ limxÓ´∞ Fpxq “ 0, y
c) F es continua por la derecha.
Teorema 2.18. Dada F : R Ñ r0, 1s verificando los puntos (a), (b) y (c) de la definición
anterior, D! P definida sobre pR, BpRqq de tal forma que FP “ F.
Proposición 2.19. Sea pR, BpRq, Pq un espacio de probabilidad y sea FP la función de
distribución asociada a P. Entonces:
a) Pppa, bsq “ FP pbq ´ FP paq,
b) Ppb´ q “ Ppp´∞, bqq, y
c) Pptbuq “ FP pbq ´ FP pb´ q, que es igual a 0 cuando FP es continua.
Demostración.
a) Como pa, bs “ p´∞, bs ∩ pa, `∞q “ p´∞, bs ∩ p´∞, asA , entonces

Pppa, bsq “ Ppp´∞, bsq ´ Ppp´∞, asq “ FP pbq ´ FP paq.

b) Ppp´∞, bqq “ Pplimp´∞, b ` n1 sq “ lim Ppp´∞, b ` n1 sq “ lim FP pb ´ n1 q “ FP pb´ q.


nÒ∞ nÒ∞ nÑ∞

c) Pptauq “ Ppp´∞, asq ´ Ppp´∞, aqq “ FP paq ´ FP pa´ q.


Observaciones.
a) F es continua en b si y sólo si Pptbuq “ 0.
Demostración. ( ùñ ) F es continua en b ùñ Pptbuq “ Fpbq ´ Fpb´ q “ 0.
( ñù ) Sea tAn unPN Ó0 ùñ tpx ´ an , x ` an sunPN Ó ùñ limnÑ∞ px ´ an , x ` an s “
T∞
n“1 px ´ an , x ` an s “ txu. Entonces
ˆ∞ ˙
\ ` ˘
0 “ Pptxuq “ P px ´ an , x ` an s “ P lim px ´ an , x ` an s
nÑ∞
n“1

23
2 Proba b i l i da d

“ lim Pppx ´ an , x ` an sq “ lim pFP px ` an q ´ FP px ´ an qq


nÑ∞ nÑ∞
“ FP pxq ´ lim pFP px ´ an q “ 0,
nÑ∞

y por lo tanto FP es continua en x.


b) Pppa, bqq “ Pppa, bsq ´ Ppbq “ FP pbq ´ FP paq ´ FP pbq ` FP pb´ q “ FP pb´ q ´ FP paq,
Ppra, bsq “ Pppa, bsq ` Ppaq “ FP pbq ´ FP paq ´ FP paq ` FP pa´ q “ FP pbq ´ FP pa´ q,
Pppa, `∞qq “ 1 ´ Ppp´∞, asq “ 1 ´ FP paq, y también
Ppra, `∞q “ 1 ´ Ppp´∞, aqq “ 1 ´ FP pa´ q.
23/10/2012
c) El conjunto de discontinuidades de una función de distribución es finito o numera-
ble.
Demostración. Sea D “ tx P R | FP es discontinua en xu. Entonces FP es discontinua
en x ðñ Pptxuq ą 0 (todos los puntos de discontinuidad tienen probabilidad
positiva).
1
(
Definimos para cada n el conjunto Dn “ x P D | n`1 ă Pptxuq ă n1 , veamos que
Dn tiene como mucho n discontinuidades. Supongamos que Dn “ tx1 , x2 , . . . , xn`1 u,
con xi ordenados en orden creciente. Entonces
ˆn`1 ˙ n`1 n`1
[ 1
FP pxn`1 q “ Ppp´∞, xn`1 sq “ P p´∞, xi s “ ∑ Pptxi uq ą ∑ “ 1,
i“1 i“1 i“1
n`1

lo que es absurdo. Por lo tanto tenemos comprobado que CardpDn q ď n @n.


S
Ahora, por otro lado D “ ∞n“1 Dn , y, de esta manera, S
si x P D entonces Pptxuq ą 0
1
y por lo tanto D m P N, n`1 ă Pptxuq ď n1 ùñ x P ∞ n“1 Dn y del mismo modo
S∞
x P n“1 Dn ùñ Pptxuq ą 0 ùñ x P D. Por lo tanto podemos concluir que
ˆ ∞ ˙
[
CardpDq “ Card Dn .
n“1

24
2.5 E j e rc i c i o s

2.5 Ejercicios

Hoja 2 – Probabilidad

1.- Sean Ω un espacio muestral y A ⊂ P(Ω) una σ-álgebra. Para A ∈ A fijado,


se define

AA = {B ⊂ Ω : B = A ∩ C con C ∈ A}.

Demostrar que AA ⊂ P(A) es σ-álgebra.

2.- Sea {An : n ≥ 1} ⊂ A una sucesión monótona decreciente, donde A ⊂ P(Ω)


es σ-álgebra. Demostrar que existe limn→∞ P (An ) y que limn→∞ P (An ) =
P (limn→∞ An ).

3.- Sea {An : n ≥ 1} ⊂ A una sucesión convergente, donde A ⊂ P(Ω)


es σ-álgebra. Demostrar que existe limn→∞ P (An ) y que limn→∞ P (An ) =
P (limn→∞ An ).

4.- Sean A1 ⊂ P(Ω1 ) y A2 ⊂ P(Ω2 ) dos σ-álgebras, y sea E ∈ A1 ⊗ A2 .


Demostrar que Eω1 ∈ A2 , para cada ω1 ∈ Ω1 , y que E ω2 ∈ A1 , para cada
ω2 ∈ Ω2 .

5.- Sean A ⊂ P(Ω) una σ-álgebra y {An : n ≥ 1} ⊂ A una sucesión. De-


mostrar las siguientes desigualdades:

(5.a) P (lim inf An ) ≤ lim inf P (An ).


(5.b) lim sup P (An ) ≤ P (lim sup An ).

Además, resolver el ejercicio 3 desde (5.a) y (5.b).

6.- Sean (Ω, A) un espacio probabilizable y {Pn : n ≥ 1} una sucesión de


medidas de probabilidad sobre (Ω, A). Se define P : A −→ [0, 1] por

X
P (A) = an Pn (A),
n=1
P∞
donde an ≥ 0 y n=1 an = 1. Demostrar que P es una medida de probabilidad
sobre (Ω, A).

25
2 Proba b i l i da d

7.- Sea (Ω, A) el espacio probabilizable con Ω = {0, 1, 2, ...} y A = P(Ω).


Demostrar que las funciones de conjunto P dadas en (7.a) y (7.b) son medidas
de probabilidad sobre (Ω, A) y determinar las probabilidades de los conjuntos
de (7.c).
P
(7.a) P (A) = x∈A e−λ λx /x!, siendo λ > 0.
P
(7.b) P (A) = x∈A p(1 − p)x , siendo p ∈ (0, 1).
(7.c) A = {x > 2}, B = {x < 3}, C = {3 < x < 6}, A ∩ B, A ∪ B, B ∩ C,
A ∩ C c y B ∩ C c.
8.- Sean INp y INi los conjuntos de números naturales pares e impares, respec-
tivamente. Se define la familia de subconjuntos

C = {A ∪ INi : A ⊂ INp }.

Estudiar si C ⊂ P(IN) tiene estructura de álgebra.

9.- Demostrar que C = {A ⊂ IN : A finito o Ac finito} tiene estructura de


álgebra, pero no es una σ-álgebra de P(IN).

10.- Sean Ω = {0, 1, 2, ...} y C = {A ⊂ Ω : 2n ∈ A si y sólo si 2n + 1 ∈ A}.


Demostrar que C ⊂ P(Ω) es σ-álgebra.

11.- Sean Ω un conjunto no-numerable y C = {A ⊂ Ω : A o Ac es numerable}.


Estudiar si C ⊂ P(Ω) es σ-álgebra.

12.- De los 30 temas de un examen, un alumno conoce 18 temas. Se proponen


dos tipos de examen:
1. Se eligen 3 temas al azar y el alumno debe contestar 2.
2. Se eligen 5 temas al azar y el alumno debe contestar 3.
Determinar el tipo de examen más favorable al alumno.

13.- Calcular la probabilidad de que, al tirar una moneda n veces, obtengamos


la k-ésima cara en la n-ésima tirada.

14.- Se tiene un manojo de N llaves donde sólo una de ellas abre una puerta.
Suponiendo que cada llave probada es retirada del manojo, determinar la proba-
bilidad de que la puerta se abra en el k-ésimo intento. (Nota: todas las llaves
deben ser probadas, por lo que es necesario hacer N intentos.) Determinar la
probabilidad de este suceso cuando las llaves no se retiran del manojo.

15.- En una urna se introducen n bolas, cada una de ellas de color blanco
o negro con igual probabilidad. Se extraen k bolas con reemplazamiento desde

26
2.5 E j e rc i c i o s

la urna. Determinar la probabilidad de que la urna sólo contenga bolas blancas


si las k bolas extraı́das han sido blancas.

16.- Se consideran N + 1 urnas idénticas numeradas desde 0 hasta N , con-


teniendo N bolas. En concreto, la i-ésima urna contiene i bolas negras y N − i
bolas blancas, para 0 ≤ i ≤ N . Se escoge una urna al azar y se extraen n bolas
una-a-una con reemplazamiento. Si las n bolas extraı́das resultan ser negras,
determinar la probabilidad de que, al extraer la (n + 1)-ésima bola, ésta sea de
color negro.

17.- De una urna con a bolas blancas y b bolas negras se extraen k bolas
al azar. ¿Cuál es la probabilidad de que entre las k bolas haya exáctamente r
bolas blancas?

18.- Se lanzan 2 dados n veces. ¿Cuál es la probabilidad de obtener al menos


un 6 doble?

19.- Una urna contiene 5 bolas rojas, 3 verdes, 2 amarillas y 4 blancas. Se


extraen 8 bolas al azar. Calcular la probabilidad de que:
(19.a) Exactamente sean 2 rojas, 2 verdes, 1 amarilla y 3 blancas.
(19.b) Estén todas las bolas blancas.
(19.c) Haya, al menos, una bola roja.
20.- Con una moneda se juega a cara o cruz. Se suspenden los lanzamientos
cuando por primera vez la diferencia entre el número de caras y el número de
cruces es, en valor absoluto, igual a 3. Calcular la probabilidad de que los lan-
zamientos se suspendan en la sexta tirada o antes.

21.- Los jugadores A, B y C participan en el siguiente juego: se lanza un dado


y A gana si sale 1 ó 3; B gana si sale 4 ó 5; C gana si sale 6; y si sale 2 se vuelve
a lanzar el dado. Calcular la probabilidad de que gane A, de que gane C y de
que gane B.

22.- Una urna contiene 5 bolas negras y 4 blancas, otra urna contiene 4 bo-
las negras y 5 blancas. Supongamos que se trasladan 2 bolas de la primera a la
segunda urna y, a continuación se extrae una bola de la segunda urna. ¿Cuál
es la probabilidad de que la bola extraı́da sea blanca?

23.- Se sabe que al lanzar cinco monedas aperecieron al menos dos caras. ¿Cuál
es la probabildad de que el número de caras exacto fuese tres?

24.- Disponemos de una moneda y dos dados A y B. A tiene 4 caras rojas


y 2 blancas, y B tiene 2 caras rojas y 4 blancas. Se lanza una moneda, si sale
cara se lanza repetidas veces el dado A y si sale cruz se hace lo mismo con el
dado B.

27
2 Proba b i l i da d

(24.a) Calcular la probabilidad de que en el primer lanzamiento la cara obser-


vada sea roja.

(24.b) Sabiendo que en los dos primeros lanzamientos hemos observado dos
caras rojas, ¿cuál es la probabilidad de que el dado lanzado sea el A?
25.- Se lanzan dos monedas, si el resultado es CC se extraen dos bolas de una
urna U1 que contiene 3 bolas rojas, 2 blancas y 4 negras. Si el resultado es CX
se extraen de U2 que contiene 2 rojas, 1 blanca y 5 negras, y si sale XX o XC
las bolas se extraen de U3 que contiene 6 rojas, 4 blancas y 6 negras. Si las dos
bolas extraı́das resultaron ser una blanca y otra roja, ¿cuál es la probabilidad
de que sean de U1 ? ¿y de U2 ?

26.- Determinada baterı́a antiaérea disparaba sobre un avión. Para derribar


el aparato bastaba con alcanzar ambos reactores o la cabina del piloto. Sean
p1 la probabilidad de alcanzar el primer reactor, p2 la probabilidad de alcanzar
el segundo y p3 la probabilidad de dar en la cabina del piloto. Se supone que
estos tres puntos sensibles eran tocados uno independientemente del otro. De-
terminar la probabilidad de que dicho avión hubiese sido derribado.

27.- El volumen diario de producción de 3 plantas diferentes de una fábrica


es de 500 unidades en la primera, 1000 en la segunda y 2000 en la tercera. Sa-
biendo que el porcentaje de unidades defectuosas producidas en cada planta es
del 1%, 0.8% y 2% respectivamente, determinar la probabilidad de que
(27.a) Extraı́da una unidad al azar resulte ser no defectuosa.

(27.b) Habiendo sido extraı́da una unidad defectuosa, haya sido producida en
la primera planta.

28.- Se supone que n bolas se colocan al azar en n cajas numeradas. Calcular


las probabilidades de que:
(28.a) La caja 1 esté vacı́a.
(28.b) Alguna caja esté vacı́a.

(28.c) La caja 1 sea la única vacı́a.

(28.d) Hay una única caja vacı́a.


29.- En un colegio electoral de 42 electores, 15 han votado la lista A y el resto la
B. Se seleccionan 10 electores, calcúlese la probabilidad de que, como máximo,
tres de ellos hayan votado la lista A.

30.- De una baraja española (40 cartas) repartida en su totalidad entre 4 ju-
gadores, hallar la probabilidad de que haya como mı́nimo un jugador cuya mano
sean cartas todas del mismo palo.

28
2.5 E j e rc i c i o s

31.- Se tiene una moneda y una urna. Se lanza la moneda al aire. Si sale
cara, se introduce una bola negra en la urna; si sale cruz, la bola introducida
es de color blanco. El proceso se repite 10 veces. A continuación, se extrae una
bola de la urna, se mira su color y se devuelve a la urna. El procedimiento se
repite 10 veces. Finalizado éste se ha observado que las 10 bolas extraı́das eran
de color blanco. ¿Cuál es la probabilidad de que la urna contenga sólo bolas
blancas?

32.- Dos de las cuatro válvulas de un aparato, que funcionan independien-


temente, han fallado. Calcular la probabilidad de que hayan sido la 1 y la 2, si
la probabilidad de que falle la válvula i es i/10.

29
3 Variables aleatorias unidimensionales

3.1 Variables aleatorias


3.1.1 Concepto de variable aleatoria. Propiedades
Definición 3.1 (Variable aleatoria). Sea pΩ, Aq un espacio medible o probabilizable y 23/10/2012
BpRq la σ-álgebra de Borel sobre R. Una aplicación X : Ω Ñ R1 se denomina variable
aleatoria si verifica que

@B P BpRq X ´1 pBq “ tω P Ω | Xpωq P Bu P A. (3.1)

Teorema 3.2 (Caracterización de una variable aleatoria). Se considera el espacio probabi-


lizable pΩ, Aq y la clase C2 de subconjuntos de BpRq con σpC2 q “ BpRq, entonces X es
una variable aleatoria si y sólo si X ´1 pAq P A @A P C2 .

Demostración. ( ùñ ) Si X una variable aleatoria, entonces X ´1 pAq P A @A P BpRq. En


particular se verifica para cualquier B P C2 .
( ñù ) Por el apartado (b) de la Proposición 1.16 (Ecuación 1.6) tenemos que

X ´1 pC2 q ⊂ A ùñ σpX ´1 pC2 qq ⊂ A ùñ X ´1 pσpC2 qq ⊂ A.

Ejemplo (1). Ω “ tC, Fu, A “ t∅, Ω, tCu, tFuu.

X: Ω Ñ R #
1 ω“C
ω ÞÑ Xpωq “
0 ω“F
C2 “ tp´∞, asu, σpC2 q “ BpRq. Entonces
$ ,
’ ∅/
&a ă 0
’ /
.
X pp´∞, asq “ 0 ď a ă 1
´1
F PA

’ /
/
%a ě 1 Ω-

Ejemplo (2). Consideramos Ω “ ta, b, c, du, A ” álgebra engendrada por la clase C2 “


tta, bu, tcu, tduu. $
X: Ω Ñ R &0
’ ω“aób
Þ Xpωq “ 1
ωÑ ω“c

%
2 ω“d
1 Aclarar que todas las variables aleatorias son de la forma X : Ω Ñ R, aunque se expresen de otra forma.

31
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Veamos si A “ t∅, Ω, ta, bu, tcu, tc, du, ta, b, cu, ta, b, du, tduu es álgebra sobre Ω.
$

’ ră0 ∅


&0 ď r ă 1 ta, bu
X ´1 pp´∞, rsq “

’ 1 ď r ă 2 ta, b, cu


%
rě2 Ω

Nota. Para ser variable aleatoria, la aplicación dada depende del álgebra en consideración.
Así en el último ejemplo si tomamos A “ t∅, Ω, ta, bu, tc, duu podemos observar que X
ya no es variable aleatoria ya que ta, b, cu R A.
Teorema 3.3. Sea X : pR, BpRqq Ñ pR, BpRqq continua, entonces X es variable aleatoria.

Demostración. C “ tA | A es abierto en Ru lo que implica que σpCq “ BpRq. Ahora, dado


A P C tenemos que X ´1 pAq es un abierto de R y por lo tanto X ´1 pAq P BpRq.

Teorema 3.4. Sean X : pΩ, Aq Ñ pR, BpRq e Y : pR, BpRqq Ñ pR, BpRqq dos variables
aleatorias, entonces Y ˝ X es una variable aleatoria.
X Y
pΩ, Aq pR, BpRqq pR, BpRqq (3.2)

Y˝X

Demostración. @A P BpRq ùñ Y ´1 pAq P BpRq y por lo tanto

pY ˝ Xq´1 pAq “ X ´1 pY ´1 pAqq P A.

Observación. Sea pΩ, Aq, X : Ω Ñ R con X una variable aleatoria. Entonces X 2 , ´X,
senpXq, |X|, ... son también variable aleatoria.
30/10/2012 Teorema 3.5. Sean X1 , ..., Xn , ... variables aleatorias, entonces estas funciones son también
variables aleatorias:
a) maxtX1 , X2 u,
Demostración.

maxtX1 , X2 u´1 p´∞, bs “ tω P Ω | maxtX1 , X2 upωq ď bu


“ tω P Ω | X1 pωq ď b y X2 pωq ď bu
“ tω P Ω | X1 pωq ď bu ∩ tω P Ω | X2 pωq ď bu
X1´1 p´∞, bs ∩ loooooooooooooooon
“ loooooooooooooon X2´1 pp´∞, bsq P A @b.
PA PA

b) mintX1 , X2 u,
Demostración. pmintX1 , X2 uqpωq “ mintX1 pωq, X2 pωqu “ ´ maxt´X1 pωq, ´X2 pωqu
lo que implica que mintX1 , X2 u “ ´ maxt´X1 , ´X2 u.

32
3.1 Va r i a b l e s a l e at o r i a s

c) suptXn u,
nPN
Demostración. psup Xn pωqq “ suppXn pωqq
nPN nPN

psup Xn q´1 p´∞, bs “ tω P Ω | psup Xn qpωq ď bu “ tω P Ω | Xn pωq ď b @n P Nu


nPN n

\ ∞
\
“ tω P Ω | Xn pωq ď bu “ Xn´1 p´∞, bs P A.
loooooooooooooon
n“1 n“1
PA

d) inf tXn u,
nPN
Demostración. p inf Xn qpωq “ inf Xn pωq ùñ inf Xn “ ´ supp´Xn q.
nPN nPN nPN nPN
e) lim sup Xn ,
nÑ∞
Demostración. plim sup Xn qpωq “ infpsup Xr pωqq P A
nÑ∞ n rěn
f) lim inf Xn ,
nÑ∞
Demostración. plim inf Xn qpωq “ suppinf Xr pωqq P A
nÑ∞ n rěn
g) y si existe el límite, el lim Xn .
n
Demostración. Por (e) y (f).

Teorema 3.6. Sean X1 , X2 : pΩ, A, Pq Ñ pR, BpRqq dos variables aleatorias. Entonces
X1 ` X2 y X1 ¨ X2 son variables aleatorias.

Demostración. A “ tω P Ω | X1 pωq ă X2 pωq ` c, c P Ru, y como Q es un conjunto den-


so en R

D r P Q, X1 pωq ă r ă X2 pωq ` c ðñ X1 pωq ă r & X2 pωq ą r ´ c


[
ωP rtω P Ω | X1 pωq ă ru ∩ tω P Ω | X2 pωq ą r ´ cus ùñ A P A
rPQ

y entonces

pX1 ` X2 q´1 p´∞, cq “ tω P Ω | X1 pωq ` X2 pωq ă cu


“ tω P Ω | X1 pωq ă c ´ X2 pωqu P A

y por lo tanto X1 ` X2 es una variable aleatoria. Y una vez probado para la suma, la
multiplicación viene implícita:

1 1
X1 ¨ X2 “ rX1 ` X2 s2 ´ rX1 ´ X2 s2 .
4 4

33
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

3.1.2 Probabilidad inducida por una variable aleatoria


Teorema 3.7 (Probabilidad inducida). Sea pΩ, A, Pq un espacio de probabilidad y una
variable aleatoria X : Ω Ñ R. Entonces la variable aleatoria X induce en BpRq una
medida de probabilidad definida mediante

PX pBq “ PpX ´1 pBqq @B P BpRq. (3.3)

Esta medida de probabilidad se denomina distribución de la variable aleatoria X.

Demostración. X ´1 pBq P A por ser X variable aleatoria y B P BpRq. En consecuencia


PX pBq “ PpX ´1 pBqq está bien definida. Ahora

‚ PX pRq “ PpX ´1 pRqq “ PpΩq “ 1, y


‚ dados A1 , . . . , An , . . . P BpRq Ai ∩ A j “ ∅ i ‰ j se tiene que
ˆ ∞ ˙ ˆ ˆ ∞ ˙˙ ˆ ∞ ˙
[ [ [
PX An “P X ´1
An “P pX ´1
pAn qq
n“1 n“1 n“1
∞ ∞
“ ∑ PpX´1 pAn qq “ ∑ PX pAn q.
n“1 i“1

Ejemplo. Supongamos que en una urna hay 4 bolas blancas y 3 negras. Se sacan al azar
3 bolas sin reemplazamiento y definimos la variable aleatoria X ” nº de bolas blancas
obtenidas
X 0 1 2 3
PX pX “ kq ˚ ˚ ˚ ˚

Se pide hallar la función de distribución asociada a la variable aleatoria PX , que será:


`4˘` 3
˘
k 3´k
PX pX “ kq “ `7˘
3

Observación. La función de distribución asociada a PX se denotará mediante

FX pxq “ PX pp´∞, xsq “ PpX ´1 p´∞, xsq “ Pptω P Ω | Xpωq ď xuq.

05/11/2012 Definición 3.8 (Variable discreta y función de probabilidad). Dada la variable aleatoria
X se dice que es de tipo discreto si su función de la distribución FX toma únicamente una
cantidad finita o numerable de valores distintos.
Además si los valores en los que toma los valores distintos son x1 , x2 , ..., xn , ... la
función definida mediante PpX “ xn q “ PX ptxn uq “ FX pxn q ´ FX pxn´ q se denomina función
de probabilidad de la variable aleatoria X.

34
3.1 Va r i a b l e s a l e at o r i a s

Ejemplo.

1
1.5 PpX “ 0q “ FX p0q ´ FX p0´ q “
4
1 1 1 1
PpX “ 1q “ FX p1q ´ FX p1´ q “ ´ “
0.5 2 4 4
1
PpX “ 2q “ FX p2q ´ FX p2 q “
´
2
´1 1 2 3

Figura 3.1: Representación gráfica X 0 1 2


PX pX “ kq 1{4 1{4 1{2

Observación. Dado un conjunto numerable D “ txk ukPD˚ ⊂N y una función


#
0 xRD
Pptxuq “
Ppxq xPD

verificando que ∑ Ppxk q “ 1 se tiene que


xk PD
$
& ∑ Ppxq @B P BpRq y B ∩ D ‰ ∅
@B P BpRq PX pBq “ xPB∩ D
%
0 B∩D “ ∅

y la medida de probabilidad PX asocidada a una variable aleatoria X que toma los valores
txk u con probabilidades Pptxk uq. Además la función de distribución viene dada por

FX pxq “ Ppp´∞, xsq “ ∑ Pptyuq, y P p´∞, xs ∩ D.


y

Definición 3.9 (Variable absolutamente continua y función de densidad). Se dice que


la variable aleatoria X es de tipo absolutamente continuo (X es una variable aleatoria
continua) si existe una función no negativa f X , a la que se denomina función de densidad,
que admite a lo sumo un número finito de discontinuidades sobre cada intervalo finito
( f X es integrable Riemann) que cumple
Z
f X pxq dx “ 1, (3.4)
R

y, con esto, para cada x definimos la función de distribución de X como

Zx
FX pxq “ f X ptq dt. (3.5)
´∞

Observaciones.

35
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Rb Ra Rb
a) Ppa ă X ď bq “ FX pbq ´ FX paq “ ´∞ f X ptq dt ´ ´∞ f X ptq dt a f X ptq dt y además
Ppa ă X ď bq “ Ppa ă X ă bq “ Ppa ď X ď bq.
Z
B P BpRq PX pBq “ f X ptq dt.
B

b) Dada f X ptq y su asociada FX ptq, se tiene que FX1 pxq “ f X pxq.

Definición 3.10 (Variable mixta). Una variable aleatoria X se dice que es de tipo mixto si
su función de distribución se puede expresar de la forma

FX pxq “ a ¨ Fd pxq ` p1 ´ aq ¨ Fc pxq. (3.6)

Ejemplo. Supongamos una variable aleatoria con la siguiente función de distribución


#
0 xă0
FX pxq “
1 ´ pe´λx x ě 0 p P p0, 1q λ ą 0

Ahora definimos:
#
1´ p 0 xă0
Fd pxq “
1 xě0
#
´1 1 2 3 4
0 xă0
Fc pxq “
Figura 3.2: Representación gráfica 1´e ´λx xě0

y entonces nos queda FX pxq “ p1 ´ pq ¨ Fd pxq ` p ¨ Fc pxq.

3.1.3 Transformaciones de variables aleatorias


Imaginemos que tenemos X, su función de distribución FX , y otra variable aleatoria
Y “ gpXq, ¿cómo podemos calcular Fy ?
Ejemplo. X es discreta e Y es discreta.

X 2 3 4 5 6 7 8 9 10 11 12
PpX “ kq 1{36 2{36 3{36 4{36 5{36 6{36 5{36 4{36 3{36 2{36 1{36

X ” suma en el lanzamiento de dos dados. Entonces


$
&5
’ x“7óx“1
Y “ Gpxq “ ´3 x “ 3 ó x “ 12

%
0 resto

36
3.1 Va r i a b l e s a l e at o r i a s

06/11/2012 En general se tienen composiciones de la forma

X g
pΩ, Aq pR, BpRqq pR, BpRqq

Y“gpXq

Teorema 3.11. Sea pΩ, A, Pq un espacio de probabilidad y X una variable aleatoria


discreta. Dada una función g : R Ñ R se tiene que Y “ gpXq es también una variable
discreta y su función de probabilidad viene dada por

PpY “ yq “ PY ptyuq “ ∑ PX ptxuq @y P RY . (3.7)


xPg´1 pyq

RY (soporte) son los puntos de probabilidad mayor que 0 y g´1 pyq “ tx P R | gpxq “ yu.

Demostración.

PpY “ yq “ Pptω P Ω | Ypωq “ yuq “ Pptω P Ω | gpXqpωq “ yuq


“ Pptω P Ω | Xpωq P tx : gpxq “ yuuq
“ PX ptx P R | gpxq “ yuq “ ∑ PX ptxuq
xPg´1 pyq

Observación. Supongamos X continua.

a) Y “ gpXq puede ser discreta.


Ejemplo. Sea X una variable aleatoria con soporte R y se considera la variable
aleatoria Y “ gpXq definida mediante
#
´1 xă0
Y“
1 xě0

Demostración.

PY ptyuq “ PpY “ yq “ Pptω P Ω | Ypωq “ yuq “ Pptω P Ω | gpXqpωq “ yuq


“ Pptω P Ω | Xpωq P tx : gpxq “ yuuq “ PX ptx P R | gpxq “ yuq
Z
“ f X pxq dx M “ tx P R | gpxq “ yu
M

b) Y “ gpXq puede ser continua.


Demostración. Por el teorema 3.12.

37
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Teorema 3.12. Sea X una variable aleatoria con función de densidad f X pxq y soporte en
el intervalo ra, bs. Sea g : R Ñ R estrictamente creciente y continua en ra, bs. Entonces
Y “ gpXq es variable aleatoria continua con función de distribución

FY pyq “ FX pg´1 pyqq @y P RY , (3.8)

y su función de densidad es
$

& 1
¨ f X pg´1 pyqq y P rgpaq, gpbqs
f Y pyq “ g 1 pg´1 pyqq
(3.9)

%0 resto.

Demostración. Al ser estrictamente creciente es biyectiva y tanto la imagen como la


contraimagen por g de un intervalo será un intervalo. Luego si R X “ ra, bs se tendrá que
RY “ rgpaq, gpbqs. Ahora dado y P RY tenemos que

FY pyq “ PpY ď yq “ PpgpXq ď yq “ PpX ď g´1 pyqq “ FX pg´1 pyqq


y ya podemos calcular su función de densidad
∂ ∂ 1
f Y pyq “ FY pyq “ FX pg´1 pyqq “ f X pg´1 pyqq ¨ 1 ´1 .
∂y ∂y g pg pyqq

Por lo tanto si cogemos y ă gpaq entonces g´1 pyq ă a y esto implica que FY pyq “
FX pg´1 pyqq “ 0 ùñ f Y pyq “ 0. Y, del mismo modo, al coger un y ą gpbq se tiene que
g´1 pyq ą b ùñ FY pyq “ FX pg´1 pyqq “ 0 ùñ f Y pyq “ 0. De manera que, efectivamente,
ésa es la función de densidad y RY “ rgpaq, gpbqs.

Observaciones.
a) En las condiciones del teorema anterior, si g es estrictamente decreciente, la función
de distribución viene dada por

FY pyq “ 1 ´ FX pg´1 pyqq @y P RY y la de densidad por


# 1
f pg´1 pyqq y P rgpbq, gpaqs
g1 pg´1 pyqq X
f Y pyq “
0 resto

b) En el teorema anterior se puede sustituir el intervalo ra, bs por un intervalo abierto


o incluso acotado.
1 1
Ejemplo (Ejercicio 10). X, de manera que su función de densidad es f X pxq “ ¨ ,
π 1 ` x2
con x P R. Es conocida como distribución de Cauchy (que se caracteriza por no tener
esperanza matemática). Sea Y “ 3X ` 1, entonces tenemos que las funciones asociadas a
Y son
´ y ´ 1¯ ´y ´ 1¯
FY pyq “ PpY ď yq “ Pp3X ` 1 ď yq “ P X ď “ FX
3 3

38
3.2 C a r ac t e r í s t i c a s d e l a s va r i a b l e s a l e at o r i a s e s ta d í s t i c a s

´y ´ 1¯ ´1¯ 1 1
f Y pyq “ f X ¨ “ ¨ ` ˘ yPR
3 3 3π 1 ` y´1 2
3

Teorema 3.13. Sea X una variable aleatoria continua con función de densidad f X pxq y
sea g : R Ñ R continua y g1 pxq ‰ 0 salvo en un número finito de puntos. Supongamos
que para cada número real y
a) existen exactamente npyq puntos x1 pyq, x2 pyq, ..., xn pyq tales que gpxk pyqq “ y,
g1 pxk pyqq ‰ 0 k “ 1, . . . , npyq, o bien
b) no existe ningún punto x P R X tal que gpxq “ y y g1 pxq ‰ 0. En este caso npyq “ 0
entonces Y es una variable aleatoria continua cuya función de densidad es de la forma
$
’ npyq

&
hpyq “ k“1
∑ f pxk pyqq ¨ g1 pxk pyqq´1 si npyq ą 0
(3.10)


%0 si npyq “ 0

Ejemplo. Sea X una distribución de Cauchy, igual que en el ejemplo anterior, y en este
? ?
caso Y “ X 2 . Entonces dado y P R D x1 pyq “ y, D x2 pyq “ ´ y de tal forma que

gpx1 pyqq “ y & gpx2 pyqq “ y

de esta manera podemos calcular


# ?
g1 px1 pyqq “ 2 y
g pxq “ 2x “
1
?
g1 px2 pyqq “ ´2 y
con lo que obtenemos la función de densidad
$
& ? 1 ? 1 ?
¨ f X p yq ` ? ¨ f X p´ yq y ą 0
f Y pyq “ 2 y 2 y
%
0 yď0
? ?
y entonces, como f X p´ yq “ f X p yq “ π1 1`y
1
, nos queda
$ $

& ? 2 1 1 ’
& ?1 1
¨ ¨ yą0 ¨ yą0
f Y pyq “ 2 y π 1 ` y “ π y 1`y

%0 ’
%0
yď0 yď0

3.2 Características de las variables aleatorias estadísticas


Dada X, sabemos calcular PX y FX asociadas,
PX nos preguntamos ahora si es posible tener información rele-
X vante sobre X mediante unos cuantos valores numéricos. Es
FX decir, cómo caracterizarla.

39
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

3.2.1 Esperanza matemática de una variable aleatoria unidimensional


Definición 3.14 (Esperanza matemática). Sea X una variable aleatoria discreta cuya
función de masa es PX . Se denomina esperanza matemática de X a la expresión

ErXs “ ∑ x ¨ PpX “ xq. (3.11)


xPR X

Observaciones.
i) Si R X “ tx1 , . . . , xn u, entonces ErXs siempre existe.
ii) Si R X “ tx1 , . . . , xn , . . .u entonces

ErXs “ ∑ xn ¨ PX pX “ xn q.
n“1

Se dice que la esperanza de la variable aleatoria X existe cuando la serie es absolu-


tamente convergente, es decir

∑ |xn | ¨ PX pX “ xn q ă ∞.
n“1
(
Ejercicio 3.1. Supongamos que R X “ p´1qn´1 n | n P N y que
6
PpX “ p´1qn´1 ¨ nq “ n “ 1, 2, . . .
π 2 n2
Como vimos en análisis, las series alternadas pueden ser convergentes pero no absoluta-
mente convergentes (distintas reordenaciones de la serie pueden dar valores diferentes
para la suma), como es el caso:
∞ ∞
6 6 p´1qn´1
ErXs “ ∑ p´1qn´1 ¨ n ¨ π2 n2 “
π2 ∑ n
n“1 n“1

que, obviamente, no es absolutamente convergente.


08/11/2012 Definición 3.15 (Esperanza matemática de una variable aleatoria). Sea X una variable
aleatoria continua con función de densidad f X . La esperanza ErXs de la variable aleatoria
X viene dada por la integral
Z
ErXs “ x ¨ f X pxq dx si ésta es absolutamente convergente. (3.12)
RX

Definición 3.16. Sea X una variable aleatoria cuya función de distribución es del tipo
mixto. Entonces se denomina ErXs a la expresión
Z
dFpxq
ErXs “ ∑ x ¨ PpX “ xq ` AA

dx
dx, (3.13)
xPA

donde A es el conjunto de puntos en los que la función de distribución tiene un salto.

40
3.2 C a r ac t e r í s t i c a s d e l a s va r i a b l e s a l e at o r i a s e s ta d í s t i c a s

Proposición 3.17. Sea X una variable aleatoria con función de distribución FX y sea
g : R Ñ R. La esperanza de Y “ gpXq viene dada por
ErYs “ ∑ gpxq ¨ PX pX “ xq (X discreta) (3.14)
xPR X
Z
ErYs “ gpxq ¨ f X pxq dx (X continua) (3.15)
RX

Demostración.
ErYs “ ∑ y ¨ PY pY “ yq “ ∑ y¨ ∑ PX pX “ xq
yPRY yPRY xPg´1 pyq

“ ∑ ∑ gpxq ¨ PX pX “ xq “ ∑ gpxq ¨ PX pX “ xq.


yPRY xPR X , xPR X
y“gpxq

Análogo para el caso continuo, aunque la demostración para dicho caso requiere que sea
estrictamente creciente y continua.

Observaciones.
a) Se dice que X es degenerada en k si PpX “ kq “ 1 o, lo que es lo mismo, si la
esperanza es ErXs “ k ¨ PpX “ xq “ k.
b) Si a ď x ď b @x, entonces a ď ErXs ď b.
Demostración. Si @i “ 1, 2, . . . a ď xi ď b, entonces se tiene que a ¨ PpX “ xi q ď
xi ¨ PpX “ xi q ď b ¨ PpX “ xi q @i “ 1, 2, . . . y por lo tanto
∞ ∞ ∞
a ∑ PpX “ xi q ď ∑ xi ¨ PpX “ xi q ď b ∑ PpX “ xi q ùñ a ď ErXs ď b.
i“1 i“1 i“1

c) X una variable aleatoria y g y h dos funciones de R en R, entonces la esperanza


Era ¨ gpXq ` b ¨ hpXqs “ a ErgpXqs ` b ErhpXqs.
Demostración.
Z
` ˘
Era ¨ gpXq ` b ¨ hpXqs “ a ¨ gpxq ` b ¨ hpxq ¨ f X pxq dx
Z Z
“a gpxq ¨ f X pxq dx ` b hpxq ¨ f X pxq dx “ a ErgpXqs ` b ErhpXqs

Definición 3.18 (Momento respecto del origen). Se denomina momento de orden k respecto
del origen (o centrado en el origen) a la esperanza de la variable aleatoria gpXq “ X k
$


& ∑ xk ¨ PpX “ xq si X es discreta
“ ‰ xPR X
αk “ E X k “ Z (3.16)

% x k ¨ f X pxq dx
’ si X es continua
RX

Como caso particular, con k “ 1 se tiene que α1 “ ErXs.

41
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Definición 3.19 (Mediana). Dada una variable aleatoria X la mediana de X se define como
el valor Md que verifica

1
FX pMd q “ PX pX ď Md q “ “ PpX ą Md q. (3.17)
2

Observación.
1

‚ Si X es continua siempre se puede encon-


trar un valor Md que sea la mediana de
Md
X.
1.5
1 ‚ Si X es discreta no se puede asegurar que
0.5 exista o que sea único. En el ejemplo de
la izquierda, cualquier valor del intervalo
´1 1 2 3 p1, 2q nos vale como mediana.

Figura 3.3: Representación de la moda en


distribución continua y discreta

Para evitar esto último, se escoge como mediana el primer valor de la variable aleatoria
(en orden creciente) que satisface que FX pMd q ě 1{2.
Ejemplo. Nº de caras obtenidas al lanzar dos monedas al aire. Calcular la esperanza
y la mediana. Tenemos que PpX “ 0q “ 14 , PpX “ 1q “ 12 , PpX “ 2q “ 41 , así que
calculamos
$

’0 si x ă 0


&1{4 si 0 ď x ă 1
FX pxq “ PpX ď xq “

’3{4 si 1 ď x ă 2


%
1 si x ě 2
y con esto
1 1 1
ErXs “ 0 ¨ `1¨ `2¨ “ 1 & Md “ 1.
4 2 4

12/11/2012 Definición 3.20. Dada una variable aleatoria X la mediana Md es el valor que verifica
FX pMd´ q ď 1{2 y FX pMd q ě 1{2. (Al menos hay probabilidad 1{2 tanto en p´∞, Md q como
en rMd , ∞q).

Proposición 3.21. Si X es una variable aleatoria con distribución simétrica respecto del
valor c, entonces existe ErXs y su valor es igual a c.

42
3 .3 M e d i da s d e d i s p e r s i ó n d e u na va r i a b l e a l e at o r i a

Demostración. X continua. Vamos a demostrarlo primero en el supuesto de c “ 0 por lo


que Ppxq “ Pp´xq.
Z Z∞ Z0
ErXs “ x ¨ f X pxq dx “ x ¨ f X pxq dx ` x ¨ f X pxq dx
R 0 ´∞
Z∞ Z∞
“ x ¨ f X pxq dx ´ x ¨ f X pxq dx “ 0
0 0

Supongamos ahora c ‰ 0. Se considera la variable Y “ X ´ c y por lo tanto, aplicando la


misma idea, ErYs “ ErX ´ cs “ 0 ùñ ErXs ´ Ercs “ 0 ùñ ErXs “ c.

Proposición 3.22. Si X es una variable aleatoria con distribución simétrica respecto de c,


entonces la mediana es c.

Demostración.
Zc
FX pcq “ PpX ď cq “ f pxq dx y“x´c
Z0 ´∞ Z0 Zc Z∞
“ f py ` cq dy “ f pc ´ yq dy “ f pyq ¨ p´1q dy “ f pyq dy
´∞ ´∞ ´∞ c
1
“ PpX ě cq “ 1 ´ FX pc´ q ě 1 ´ FX pcq ùñ FX pcq ě
2
y por otro lado
1
FX pc´ q ď FX pcq “ 1 ´ FX pc´ q ùñ FX pc´ q ď
2
Definición 3.23 (Moda). Se denomida moda (Mo ) de una variable aleatoria X al valor de
la variable que hace máxima la función probabilidad en caso de ser X discreta y el valor
que hace máxima la función de densidad en caso de ser X continua.
Ejemplo.
#
1 x P p0, 1q
1 X ” Vp0, 1q f X pxq “
0 resto
En este caso todos los valores entre p0, 1q son Mo .
0 1

Figura 3.4: Representación gráfica


Y otro ejemplo, X, cuya función de densidad es f pxq “ e´x x P p0, ∞q, no tiene moda.
Pero si fuese x P r0, ∞s sí que tiene moda Mo “ 0.

3.3 Medidas de dispersión de una variable aleatoria


Hasta ahora habíamos estudiado las “medidas de concentración”, ahora vamos a ver los
conceptos que nos indican la dispersión de una variable aleatoria.

43
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

“ ‰
Definición 3.24 (Varianza). Sea X una variable aleatoria, con E X 2 ă ∞. Se denomina
varianza de la variable aleatoria X a la expresión
“ ‰
σ2 “ VarrXs “ E pX ´ ErXsq2 . (3.18)

a 3.25 (Desviación típica). Se denomina desviación típica de la variable aleatoria


Definición
X a σ “ VarrXs.

Proposición 3.26 (Propiedades).

a) VarrXs “ 0 ðñ D c P R, PX pX “ cq “ 1.
Demostración.
“ 2‰ ( ñù ) Por hipótesis ErXs “ c ¨ PX pX “ cq “ c y de esta manera
E X “ c ¨ PX pX “ cq “ c2 . Ahora, por la propia definición de varianza VarrXs “
2
“ ‰
E X 2 ´ ErXs2 “ c2 ´ c2 “ 0.
( ùñ ) Y por otra parte

0“ ∑ px ´ ErXsq2 ¨ PX pX “ cq ùñ x “ ErXs,
xPR X

por lo que la variable aleatoria X toma un único valor, c.


b) Si a, b P R se tiene que VarraX ` bs “ a2 ¨ VarrXs.
Demostración.
“ ‰ “ ‰
VarraX ` bs “ E ppaX ` bq ´ EraX ` bsq2 “ E paX ` b ´ a ErXs ´ bq2
“ ‰
“ a2 E pX ´ ErXsq2 “ a2 VarrXs.
“ ‰
c) VarrXs “ E X 2 ´ pErXsq2 .
Demostración.
“ ‰ “ ‰
VarrXs “ E pX ´ ErXsq2 “ E X 2 ` ErXs2 ´ 2X ¨ ErXs
“ ‰ “ “ ‰‰
“ E X 2 ` E E X 2 ´ 2 ErX ¨ ErXss
“ ‰ “ ‰
“ E X 2 ` ErXs2 ´ 2 ErXs ErXs “ E X 2 ´ ErXs2 .

Definición 3.27 (Momento de orden k respecto de la media). Se denomina momento


de orden k respecto de la media µ “ ErXs “ α1 a la esperanza de la variable aleatoria
gpXq “ pX ´ ErXsqk :
$


& ∑ px ´ ErXsqk ¨ PX pX “ xq X discreta
“ ‰ xPR X
µk “ E pX ´ ErXsqk “ Z (3.19)

’ k
% px ´ ErXsq ¨ f X pxq dx X continua
RX

Y, como caso particular, si k “ 2, entonces µ2 “ σ2 “ VarrXs.

44
3 .3 M e d i da s d e d i s p e r s i ó n d e u na va r i a b l e a l e at o r i a

Proposición 3.28. Los momentos de orden k respecto de la media, µk , y los momentos


respecto del origen, αk , verifican:
n ˆ ˙
n
αn “ ErX n s “ ∑ ¨ µn´k ¨ µk (3.20)
k“0
k
n ˆ ˙
“ n‰ n
µn “ E pX ´ ErXsq “ ∑ p´1q n´k
¨ ¨ µn´k ¨ αk (3.21)
k“0
k

Demostración.
„ n ˆ ˙ 
“ ‰ n
αn “ ErX s “ E ppX ´ µq ` µqn “ E
n
∑ k ¨ px ´ µq ¨ µ
k n´k

k“0
n ˆ ˙
n “ ‰
“∑ ¨ µn´k ¨ E px ´ µqk
k“0
k
y por otro lado
„ n ˆ ˙  n ˆ ˙
n´k n n´k n
“ ‰
µn “ Erpx ´ µq s “ E ∑ p´1q
n k n´k
x µ “ ∑ p´1q µn´k E x k
k“0
k k“0
k

3.3.1 La desigualdad de Tchebysheff y sus aplicaciones


Teorema 3.29 (Desigualdad de Markov). Se considera una variable aleatoria X que va 13/11/2012
de pΩ, A, Pq Ñ pR, BpRqq y una función2 g : pR, BpRq, PX q Ñ pR, BpRq, PX q no negativa.
Entonces se verifica
ErgpXqs
PpgpXq ě kq “ Ptω P Ω | gpXpωqq ą ku ď k ą 0. (3.22)
k
Demostración. Caso continuo (el discreto es análogo):
Z Z Z
` ˘
ErgpXqs “ gpxq ¨ f X pxq dx ě gpxq ¨ f X pxq ě k f X pxq dx “ k ¨ P gpxq ě k
RX
x | gpxqěk x | gpxqěk

Teorema 3.30 (Desigualdad de Tchebysheff). Sea X una variable aleatoria con ErXs ă ∞
y VarrXs ă ∞. Entonces
1
@ε ą 0 Pp| X ´ ErXs| ě σ ¨ εq ď . (3.23)
ε2
Demostración.
“ ‰
E pX ´ ErXsq2
2 2 2 σ2 1
Pp| X ´ ErXs| ě σ ¨ εq “ PppX ´ ErXsq ě σ ε q ď 2 2
“ 2 2
“ 2
(3.22) σ ε σ ε ε
Dado k ą 0, la masa de probabilidad situada fuera del intervalo pµ ´ k σ, µ ` k σq es
menor que 1{k2 .
2 Para recordar algo que ya dijimos, en realidad es g : R Ñ R.

45
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Ejercicio 3.2. El dueño de un bar estima que durante el fin de semana los clientes piden
por término medio 300 bocadillos variados, con una desviación típica de 20 bocadillos.
¿Qué probabilidad hay de que los clientes le pidan en un fin de semana por lo menos
330?
´ 30 ¯
Solución. PpX ě 330q “ PpX ´ 300 ě 30q “ P X ´ 300 ě ¨ 20
20
´ 30 ¯ 1 4
ď P |X ´ 300| ě ¨ 20 ď 30 2 “ . đ
20 p 20 q 9

¿Cuántos panecillos debe comprar el dueño para el fin de semana y así poder satisfacer
a los clientes con una probabilidad de por lo menos 0.75? Se deja como ejercicio.

3.3.2 Función generatriz de momento y función característica


Definición 3.31 (Función generatriz de momentos). Dada una variable aleatoria X se
denomina función generatriz de momentos de la variable aleatoria X a la función
$


& ∑ esx ¨ PpX “ xq X discreta
“ ‰ xPR X
@s P R MX psq “ E esX “ Z (3.24)

’ sx
% e ¨ f X pxq dx X continua.
RX

6
Ejemplo. Sea X variable aleatoria, R X “ N y PpX “ nq “ π 2 n2
. Entonces
∞ ∞ ∞
6 6 esn
MX psq “ ∑ esn ¨ PpX “ nq “ ∑ esn ¨
π 2 n2
“ 2
π ∑ n2
.
n“1 n“1 n“1

esn e
Ahora, si s ą 0 la serie diverge. Y si s ă 0, entonces 2 ď 2 converge, y por lo tanto el
n n
dominio de MX es p´∞, 0s.
Ejercicio 3.3. Calcular MX de la distribución cuya función de densidad es
#
1 ´ 2x
2 ¨e si x ą 0
f X pxq “
0 resto

Observación. Si X ” MX psq, y tenemos que Y “ aX ` b, la función generatriz de momentos


de Y, MY psq, es de la forma
“ ‰ “ ‰ “ ‰
MY psq “ E esY “ E es paX`bq “ E epasqX ¨ esb “ esb ¨ MX pasq.

Teorema 3.32. Sea X una variable aleatoria con función generatriz de momentos MX psq.
Si D MX psq @s P p´s0 , s0 q entonces existen las derivadas de cualquier orden de MX psq en
s “ 0 y se verifica que
´ dk ¯ “ ‰
“ E Xk
pkq
MX p0q “ k
M X p0q k “ 1, 2, . . . (3.25)
ds

46
3 .3 M e d i da s d e d i s p e r s i ó n d e u na va r i a b l e a l e at o r i a

Demostración. Se tiene que


$

’ ∑ esx ¨ PpX “ xq
&xPR
X
MX psq “ Z son absolutamente convergentes para s P p´s0 , s0 q


% esx ¨ f X pxq dx
RX

y además g1 psq “ esx ¨ PpX “ xq y g2 psq “ esx ¨ f X pxq son indefinidamente derivables (de
clase C ∞ ). Como @s P p´s0 , s0 q

d´ ¯ d sx
M1X psq “ ∑
ds xPRX
esx ¨ PpX “ xq “ ∑
ds
pe ¨ PpX “ xqq “ ∑ x ¨ esx ¨ PpX “ xq
xPR X xPR X

esto implica que M1X p0q “ ∑ xPRX x ¨ PpX “ xq “ ErXs. En segundo lugar, de manera
“ ‰
análoga se prueba que MX “ E X k “ αk ,
pkq

M2X p0q 2
MX psq “ MX p0q ` M1X p0q ¨ s ` ¨s `¨¨¨
2!
∞ pkq ∞
MX p0q k α
“ ∑ ¨ s “ 1 ` ∑ k ¨ sk
k“0
k! k“1
k!

pkq
En particular MX p0q “ 1 y MX p0q “ αk .

Observación. Dadas dos variables aleatorias X e Y con funciones generatrices de momen-


tos MX psq y MY psq, si MX psq “ MY psq @s P p´s0 , s0 q, entonces las variables aleatorias X
e Y tienen la misma distribución.

Definición 3.33 (Función característica). Sea X una variable aleatoria. Se denomina


función característica de la variable aleatoria X a la función
$


& ∑ eitx ¨ PpX “ xq X discreta
“ ‰ xPR X
ϕ X ptq “ E eitX “ Z (3.26)

% eitx ¨ f X pxq dx
’ X continua.
RX

Observación (Propiedades). Las propiedades son similares a las de la función generatriz


15/11/2012
de momentos. En particular se tiene que
pkq
“ ‰ ϕ p0q
E Xk “ X k @k.
i
Teorema 3.34. Sea ϕptq la función característica asociada a una variable aleatoria continua.
Entonces Z
1
f pxq “ eitx ϕptq dt. (3.27)
2π R

47
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

` 5 ˘k´1
Ejemplo (Juego del parchís). Se tiene que ErXs “ 1
6 ∑∞
k“0 k ¨ 6 , y conocemos un
método para hallar su derivada:

1 1
sppq “ ∑ pk “
1´ p
, s1 ppq “ ∑ k ¨ pk´1 “ p1 ´ pq2
0ăpă1 k“0 k“1

1 1
entonces hallamos la esperanza, que es ErXs “ 6 ¨ 2 .
p1´ 56 q

Esperanza y centro de gravedad


Un breve inciso sobre ‘corolarios’ o ‘aplicaciones’ (relacionados con la física y con más).
En un sistema discreto, sea mk la masa en un punto xk , de manera que M “ ∑k mk es la
masa total, entonces el centro de gravedad viene dado por la expresión
mk
CG “ ∑ xk .
k
M

De manera análoga, si se trata de un sistema continuo, de longitud L en el que cada


punto x tiene asociada una densidad ρpxq, el centro de gravedad se calcula de la siguiente
manera
ZL
ρpxq
CG “ x¨ dx.
M
0

3.4 Distribuciones discretas notables


15/11/2012
Todas serán de la forma

X x1 ... xk ...
x1 x2 x3
PpX “ xk q p1 ... pk ...
Figura 3.5: Ejemplo de distribución discreta

3.4.1 Distribución de Bernoulli


La distribución tien dos opciones, éxito (p) y fracaso (1 ´ p). Por lo tanto tenemos lo
siguiente: Ω “ tE, Fu, A “ ℘pΩq, PpEq “ p y PpFq “ 1 ´ p.
Y de esta manera, la función X ” Variable de Bernoulli viene definida por:

X : pΩ, A, Pq Ñ pR, BpRqq


E ÞÑ 1
F ÞÑ 0

48
3.4 D i s t r i b u c i o n e s d i s c r e ta s n o ta b l e s

de manera que la probabilidad de fracasar es PX pt0uq “ PpX ´1 p0qq “ PpFq “ 1 ´ p y la


de tener éxito PX pt1uq “ PpX ´1 p1qq “ PpEq “ p.
La distribución aparenta como en la figura
de la derecha, y, de un modo más claro, en
p
esta tabla están los valores que toma

X 0 1 1´ p

PpX “ xk q 1 ´ p p 0 1
Veamos sus características:

La media
µ “ α1 “ ErXs “ 0 ¨ p1 ´ pq ` 1 ¨ p “ p,
la varianza
“ ‰
σ2 “ VarrXs “ E X 2 ´ ErXs2 “ α2 ´ α21 “ 02 p1 ´ pq ` 12 p ´ p2 “ p p1 ´ pq,
la función característica
“ ‰
ϕ X ptq “ E eitX “ e0it ¨ PpX “ 0q ` e1it ¨ PpX “ 1q “ p1 ´ pq ` p eit “ p1 ´ pq ` p eit ,
la función generatriz de momentos (cálculo análogo al de la función característica)
MX psq “ p1 ´ pq ` p es ,
y sus momentos respecto del origen
ϕ1 p0q 1
α1 “ µ1 “ X “ pip ¨ ei0 q “ p ¨ ei0 “ p,
i i
“ 2‰ ϕ2X p0q 1
α2 “ E X “ 2
“ 2 ¨ i2 p ¨ ei0 “ p.
i i

3.4.2 Distribución binomial


La distribución tien dos opciones, éxito (p) y fracaso (1 ´ p). Pero, a diferencia de la
Bernoulli (3.4.1), se hacen n ensayos (todos independientes). La distribución que mide
la probabilidad de tener k éxitos tras hacer esos n ensayos es X ” variable aleatoria con
distribución Binomial, Bpn, pq, que viene definida por:

X : pΩn , A, Pq Ñ pR, BpRqq


ω ÞÑ Xpωq “ número de éxitos en la n-upla ω,

donde Ωn “ tω | ω “ pω1 , . . . , ωn q, ωi “ E ó Fu, y A “ ℘pΩn q. De manera que final-


mente, la función queda
ˆ ˙
n
PpX “ kq “ ¨ pk ¨ qn´k q “ 1 ´ p.
k
Veamos sus características:

49
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

La función de distribución
$
’0

’ ˆ ˙
xă0

& n
FX pxq “

∑ k
¨ pk ¨ qn´k 0ďkďn

’ 0ďxďn

%
1 xěn
su función característica
n n ˆ ˙
“ ‰ n
ϕ X ptq “ E eitx “ ∑ eitk ¨ PpX “ kq “ ∑ eitk ¨ k
¨ pk ¨ qn´k ,
k“0 k“0
nˆ ˙
n
“∑ ¨ peit ¨ pqk ¨ qn´k “ pp eit ` qqn ,
k“0
k
la función generatriz de momentos (análoga a la característica)
MX ptq “ pp et ` qqn ,
la media (usando que p ` q “ 1)
1 1 1
µ “ α1 “ ¨ ϕ X p0q “ n pp ei0 ` qqn´1 p ei0 i “ n ¨ p,
i i
el momento de orden dos
1 1
α2 “ 2 ¨ ϕ2X p0q “ 2 n pn ´ 1q pp ei0 ` qqn´2 p ei0 ¨ i p ei0 i ` ¨ ¨ ¨
i i
1
` 2 n pp ei0 ` qqn´1 ¨ i2 p ei0
i
“ n pn ´ 1q p2 ` n ¨ p,
y, con eso, la varianza
σ2 “ VarrXs “ α2 ´ α21 “ n p p1 ´ pq.

3.4.3 Distribución de Poisson


20/11/2012
Observación. Supongamos que tenemos X ” Bpn, pq, de manera que n Ñ ∞, p Ñ 0,
np Ñ λ. Entonces
ˆ ˙
n n!
PpX “ kq “ ¨ pk ¨ p1 ´ pqn´k “ ¨ pk ¨ p1 ´ pqn´k
k k! pn ´ kq!
nk pk ¨ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq p1 ´ pqn
“ ¨
nk k! p1 ´ pqk
´ ˆ ˙
pnpqk 1¯ k´1 1
“ ¨1¨ 1´ ¨¨¨ 1´ ¨ k
¨p1 ´ pqn
k! n n p1 ´ pq
loooooooooooooooooooooooooooooooooooon loooooooooon
ÝÝ ÝÑ1
nÑ∞
ÝÝÝÑ1
nÑ∞

50
3.4 D i s t r i b u c i o n e s d i s c r e ta s n o ta b l e s

y, viendo a qué converge p1 ´ pqn , recordando que np Ñ λ,


«˜ ¸´1{p ff´pn
1
lim p1 ´ pqn “ lim 1 ` ` 1˘ “ e´λ
nÑ∞ nÑ∞ ´p
pÑ0 pÑ0

llegamos a que

λk ´λ
PpX “ kq ÝÝÝÑ ¨e
npÑλ k!
nÑ∞
pÑ0

Definición 3.35 (Distribución de Poisson). Se dice que X tene una distribución de Poisson
de parámetro λ si su función de probabilidad es de la forma

λk ´λ
PpX “ kq “ ¨e k “ 0, 1, 2, . . .
k!
y se escribe de la forma Ppλq.

Observación. La aproximación como límite de una binomial es (relativamente) buena si


n ą 50, p ă 0.1 y np ă 5.

Comprobemos que, efectivamente, sí es función de probabilidad:


∞ ∞ ∞
λk ´λ λk
∑ PpX “ kq “ ∑ k! ¨ e “ e´λ
∑ k! “ e´λ ¨ eλ “ 1.
k“0 k“0 k“0

Y ahora sus características:

La función de distribución
λk ´λ
FX pxq “ ∑ PpX “ kq “ ∑ k!
¨e
kďx kďx
la media, la esperanza o momento de orden uno respecto del origen
∞ ∞
λk ´λ
α1 “ µ “ ErXs “ ∑ k ¨ PpX “ kq “ ∑ k¨ k!
¨e
k“0 k“0

λk´1
“ λ e´λ ∑ pk ´ 1q! “ λ e´λ ¨ eλ “ λ,
k“1
el momento de orden dos
∞ ∞ `
“ ‰ λk ´λ ˘ λk
α2 “ E X 2 “ ∑ k2 ¨
k!
¨ e “ e´λ ∑ k2 ´ k ` k
k!
k“0 k“1
ˆ∞ k ∞ k
˙
λ λ
“ e´λ ∑ k pk ´ 1q ` ∑ k¨
k“0
k! k“0 k!

51
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

ˆ ∞ ∞ ˙
λk λk
“e ´λ
∑ k pk ´ 1q ` ∑ k!
k! k“1
k ¨
k“2
ˆ ∞ ∞ ˙
λk´2 λk´1
“e ´λ
λ ∑ 2
`λ ∑
k“0
pk ´ 2q! k“0
pk ´ 1q!
` ˘
“ e´λ λ2 eλ ` λ eλ “ λ2 ` λ,
la varianza
“ ‰
VarrXs “ σ2 “ µ2 “ E X 2 ´ ErXs2 “ λ2 ` λ ´ λ2 “ λ,
la función característica
∞ ∞
“ ‰ λk ´λ
ϕ X ptq “ E eitx “ ∑ eitk ¨ PpX “ kq “ ∑ eitk ¨ k!
¨e
k“0 k“0

pλ eit qk it it ´1q
“ e´λ ∑ k!
“ eλ e ¨ e´λ “ eλ pe ,
k“0
y la función generatriz de momentos
s
MX psq “ eλ pe ´1q .

3.4.4 Distribución geométrica o de Pascal


En el caso de la distribución geométrica o de Pascal, volvemos a tener dos opciones: éxito,
PpEq “ p; y fracaso, PpFq “ 1 ´ p “ q. Pero en este caso, la distribución geométrica nos
dice la probabilidad de que aparezca por primera vez un éxito en el lugar k o, dicho de
otro modo, la probabilidad de que tengamos que hacer k intentos para obtener un éxito.

X : pΩn , ℘pΩn q, Pq Ñ pR, BpRqq


ω ÞÑ Xpωq “ k

donde p P p0, 1q y Ω “ tE, Fu, luego PpX “ kq “ p ¨ qk´1 k P N “ 1, 2, . . . . Y como


∞ ∞
1 p
∑ p ¨ qk´1 “ p ∑ qk´1 “ p ¨
1´q
“ “1
p
k“1 k“1

sabemos que es una distribución de probabilidad. Veamos ahora cuáles son sus propie-
dades:

La función característica
∞ ∞
“ ‰ p ∞ ` it ˘k
ϕ X ptq “ E eitX “ ∑ eitk ¨ PpX “ kq “ ∑ eitk ¨ p ¨ qk´1 “ ∑ e ¨q
q k“1
k“1 k“1
p q eit p eit
“ ¨ “
q 1 ´ q eit 1 ´ q eit

52
3.4 D i s t r i b u c i o n e s d i s c r e ta s n o ta b l e s

para calcular la media utilizamos que sppq “ ∑∞ k


k“0 p1 ´ pq “
1
1´q “ 1
p ùñ s1 ppq “

∑∞ y, por lo tanto, ∑∞ 1
k´1 ¨ p´1q “ p˚q ´1 k´1 “
k“0 k ¨ p1 ´ pq p2 k“0 k ¨ p1 ´ pq p2
, de manera que la
media queda
∞ ∞
p 1
∑ k ¨ qk´1 ¨ p “ p ∑ k ¨ qk´1
p˚q
α1 “ ErXs “ “ “ ,
k“1 k“1
p2 p
y como
1
ErXs “
p

“ ‰ p ∞ 2 k p qpq ` 1q p˚˚q q ` 1
E X2 “ ∑ k2 ¨ qk´1 ¨ p “ ∑ k ¨q
q k“1

x“q q
¨
p3

p2
k“1 1´x“p

la varianza queda
“ ‰ p˚˚q q ` 1 1 q
σ2 “ VarrXs “ µ2 “ E X 2 ´ ErXs2 “ ´ 2 “ 2.
p2 p p

3.4.5 Distribución binomial negativa


Esta distribución no es más que una extensión de la geométrica. Nos da la probabilidad de
que, en las mismas condiciones que la geométrica (PpEq “ p, PpFq “ 1 ´ p) necesitemos
n intentos para que en esos n haya k éxitos (y por lo tanto n ´ k fracasos). La función en
cuestión es
X : pΩN , Aq Ñ pR, BpRqq
ω ÞÑ Xpωq “ k

Donde Ω “ tE, Fu y A “ ℘pΩN q. Se dice que una variable aleatoria sigue una distribución
binomial negativa si su función de probabilidad es de la forma
ˆ ˙
n`k´1
PpX “ kq “ Pptω P Ω | Xpωq “ kuq “ ¨ pn ¨ qk k “ 0, 1, 2, . . .
k

Observaciones.

a) Se denomina número combinatorio generalizado α sobre k al valor


ˆ ˙
α α ¨ pα ´ 1q ¨ pα ´ 2q ¨ ¨ ¨ pα ´ k ` 1q
“ α P R, k P Z`
k k!

y, por lo tanto, el número combinatorio`que


˘ conocíamos hasta ahora queda como
un caso particular en que α P Z` ùñ αk “ k! pα´kq!
α
. Y, en caso de que k ą α, con
` ˘
α P Z` , se tiene que αk “ 0.
` ˘ 0.5¨p0.5´1q `2˘ 2¨p2´1q¨p2´2q¨p2´3q
Ejemplo. 0.52 “ 2! “ ´0.125, 4 “ 4! “ 0.

53
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

b) La función f pxq “ p1 ` xqα , @α P R, | x | ă 1 puede expresarse de la forma


∞ ˆ ˙
α
p1 ` xq “ ∑
α
¨ xk .
k“0
k

c) Para todo α P R y para todo k P Z` , se tiene que


ˆ ˙
´α ´α ¨ p´α ´ 1q ¨ ¨ ¨ p´α ´ k ´ 1q p´1q ¨ α ¨ p´1q ¨ pα ` 1q ¨ ¨ ¨
“ “
k k! k!
k
ˆ ˙
p´1q ¨ α ¨ pα ` 1q ¨ ¨ ¨ pα ` k ` 1q k α`k`1
“ “ p´1q ¨
k! k

Efectivamente, se trata de una función de probabilidad:


∞ ∞ ˆ ˙ ∞ ˆ ˙
n`k`1 ´n
∑ PpX “ kq “ ∑ k
¨ p ¨ p1 ´ pq “ ∑ p´1q ¨
n k k
k
¨ pn ¨ qk
k“0 k“0 k“0
∞ ˆ ˙
´n pn
“ pn ∑ ¨ p´qqk “ pn ¨ p1 ´ qq´n “ n “ 1.
k“0
k p

Veamos ahora algunas de sus propiedades:

La función característica ˆ ˙
∞ ∞ ˆ ˙
“ ‰ n`k´1 n`k´1
ϕ X ptq “ E eitX “ ∑e ¨ itk
k
¨p ¨q “ p ∑
n k n
k
¨ pq eit qk
k“0 k“0
∞ ˆ ˙ ∞ ˆ ˙
´n ´n
“ pn ∑ p´1qk ¨ ¨ pq eit qk “ pn ∑ ¨ p´q eit qk
k“0
k k“0
k
´ p ¯n
“ pn ¨ p1 ´ q eit q´n “ ,
1 ´ q eit
la media
q
µ “ α1 “ ErXs “ n ¨ ,
p
y la varianza
1
σ2 “ µ2 “ VarrXs “ 2 ¨ n q.
p

3.4.6 Distribución hipergeométrica


Dado un conjunto N donde hay D éxitos (y, por lo tanto, N ´ D fracasos), cogemos n
elementos (n ă N). La distribución hipergeométrica nos da la probabilidad de que k de esos
n sean un éxito.
X : pΩ˚ , A, Pq Ñ pR, BpRqq
ω ÞÑ Xpωq ” Número de éxitos que hay en ω

54
3.4 D i s t r i b u c i o n e s d i s c r e ta s n o ta b l e s

Donde Ω˚ “ tn-uplas obtenidas sin reemplazamientou. Y la probabilidad viene dada


por
`D˘` N´D˘
k
PpX “ kq “ ` Nn´k
˘ .
n
` ˘` b ˘ `a`b˘
Observación. Para facilitarnos los cálculos más tarde, veamos que ∑nj“0 aj n´j “ n y
a b a`b
que se cumple que p1 ` xq ¨ p1 ` xq “ p1 ` xq .En primer lugar
n ˆ ˙ˆ ˙ ˆ ˙ˆ ˙ ˆ ˙ˆ ˙ ˆ ˙
a b a b a b a`b
∑ j n´ j “ 0 n `¨¨¨` a n´ a “ n ,
j“0

y en segundo
` ˘ lugar, apoyándonos en la observación que hemos hecho antes, p1 ` tqn “
n
∑nj“0 j ¨ t j , de manera que
„ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙  „ˆ ˙ ˆ ˙ ˆ ˙ 
a a a j a a b b b b
` x`¨¨¨` x `¨¨¨` x ¨ ` x`¨¨¨` x “
0 1 j a 0 1 b
a`b ˆ ˙
a`b
“∑ xj
j“0
j

Con esta observación en mente, es fácil comprobar que es distribución de probabilidad:


ˆ ˙ˆ ˙
1 D N´D
∑ PpX “ kq “ `N˘ ∑ k N ´ k “ 1.
k n k

Y algunas propiedades:

La media
D
µ “ α1 “ ErXs “ ¨ n,
N
el momento de orden dos
“ ‰ n pn ´ 1q Dn
α2 “ E X 2 “ D pD ´ 1q ¨ ` ,
N pN ´ 1q N
y la varianza
D N´D N´n
σ2 “ VarrXs “ µ2 “ n ¨ ¨ ¨ .
N N N´1
Observación. Veamos que la hipergeométrica y la binomial estan íntimamente relacionadas. 22/11/2012
D
Si se extraen n elementos definimos p “ N , q “ 1 ´ p “ N´D
N , entonces
`D˘` N´D˘ ` pN ˘` Nq ˘ pN! Nq!
k k! ppN´kq! ¨
` Nn´k k n´k pn´kq! rNq´pn`kqs!
PpX “ kq “ ˘ “ `N˘ “ N!
n n n! pN´nq!
` ˘
n! pN ¨ ppN ´ 1q ¨ ¨ ¨ ppN ´ pk ´ 1qq ¨ Nq ¨ pNq ´ 1q ¨ ¨ ¨ pNq ´ pn ´ k ´ 1qq

pn ´ kq! k! N ¨ pN ´ 1q ¨ ¨ ¨ pN ´ pn ´ 1qq

55
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

ˆ ˙ ˆ ˙
n ppNqk ¨ pNqqn´k n
« n
ÝÝÝÑ ¨ pk ¨ qn´k “ PpY “ kq
k N NÑ∞ k
y, de esta manera, Y sigue una distribución binomial Bpn, pq.
Ejemplo. En una concurrida intersección de tráfico, la probabilidad de que un automóvil
tenga un accidente es muy pequeño. Sin embargo, entre las 16:00 y las 18:00 de la tarde
un gran número de automóviles pasa por la intersección. ¿Cuál es la probabilidad de
que ocurran dos o más accidentes?

Solución. Si suponemos que P es la misma para todos los conductores y que el que un
automóvil tenga un accidente no depende del resto, la variable aleatoria es X ” nº de
accidentes y queremos calcular PpX ě 2q

PpX ě 2q “ 1 ´ PpX ď 1q “ 1 ´ PpX “ 0q ´ PpX “ 1q,

que, al ser muy pequeña, podemos aproximar la binomial por una Poisson de parámetro
λ “ 0.1, de manera que quedaría X ” Pp0.1q. đ

3.5 Variables aleatorias continuas notables


3.5.1 Distribución uniforme
Decimos que una variable aleatoria continua sigue una distribución uniforme (X ” Vpa, bq)
si su función de densidad es de la forma
# f X pxq 1
1
b´a x P ra, bs b´a
f X pxq “
0 x R ra, bs
a b
1
Que también se puede expresar como f X pxq “ ¨ Ipa,bq pxq, donde Ipa,bq pxq se conoce
b´a
como función indicatriz. De esta manera, la función de distribución es de la forma

Zx
FX pxq “ PpX ď Xq “ f X ptq dt FX pxq
1
´∞
$

&0
’ xăa 0
x´a a b
“ aďxăb
’ b´a

%1 bďx
Veamos sus propiedades,

La media
Zb b
1 1 x2 pb ´ aq pb ` aq b`a
µ “ α1 “ ErXs “ x¨ dx “ ¨ “ “ ,
b´a b´a 2 a 2 pb ´ aq 2
a

56
3.5 Va r i a b l e s a l e at o r i a s c o n t i n ua s n o ta b l e s

el momento de orden dos


b b
“ 2‰ Z 2 1 1 x3 1 pb3 ´ a3 q
α2 “ E X “ x ¨ dx “ ¨ “ ¨
b´a b´a 3 a b´a 3
a
1
“ ¨ pb2 ` a2 ` a bq,
3
la varianza
“ ‰ 1 pb ` aq2 pb ´ aq2
σ2 “ VarrXs “ E X 2 ´ ErXs2 “ ¨ pb2 ` a2 ` a bq ´ “ ,
3 4 12
la función característica
b b
“ itX ‰ Z itx 1 1 eitx eitb ´ eita
ϕ X ptq “ E e “ e ¨ dx “ ¨ “ ,
b´a b ´ a it a itpb ´ aq
a
y la función generatriz de momentos
esb ´ esa
MX psq “ .
s pb ´ aq

Ejercicio 3.4. Sea X ” Vpa, bq, calcular las características de Y “ mX ` n.

3.5.2 Distribución normal


26/11/2012
Definición 3.36 (Función Gamma). Dado t ą 0 se denomina función gamma a la función
definida mediante
Z∞
Γptq “ x t´1 ¨ e´x dx.
0

Proposición 3.37. Propiedades de la función gamma:

a) Dado a ą 0 se tiene que


Z∞
1
x t´1 ¨ e´ax dx “ ¨ Γptq.
0 at
Z ∞´ ¯ Z∞
y t´1 ´y 1 1 1
Demostración. y “ ax ùñ e dy “ t yt´1 e´y dy “ ¨ Γptq.
0 a a a 0 at
b) Se cumple que Γpt ` 1q “ t ¨ Γptq.
R∞
Demostración. Γpt ` 1q “ 0 x t e´x dx. Hacemos un cambio de variable: u “ x t ùñ
du “ t ¨ x t´1 dx y dv “ e´x dx ùñ v “ e´x y entonces nos queda
∞ Z∞

Γpt ` 1q “ x t p´e´x q `t e´x ¨ x t´1 dx “ t ¨ Γptq.
0
loooooooooooooon 0
0

57
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

c) Como consecuencia del punto anterior, si n P N, entonces Γpn ` 1q “ n!

Demostración. Γpnq “ pn ´ 1q Γpn ´ 1q “ . . . “ pn ´ 1q pn ´ 2q ¨ ¨ ¨ Γp1q “ pn ´ 1q!


` ˘ ?
d) Γ 12 “ π.

Definición 3.38 (Distribución normal). Se dice que una variable aleatoria X sigue una
distribución normal de parámetros µ P R y σ ą 0, es decir, X ” Npµ, σq, si su función de
densidad es de la forma

1 1 x´µ 2
f pxq “ ? ¨ e´ 2 p σ q x P R.
σ 2π
µ´σ µ µ`σ
Ahora nos preguntamos si su integral en todo R es igual a 1:
Z Z ˆ ´ ˙
1 1 x ´ µ ¯2 x´µ
f pxq dx “ ? ¨ exp ´ dx σ “z
R R σ 2π 2 σ dx“σ dz
Z
1 z2
“ ? e´ 2 σ dz
σ 2π R
que, por ser simétrica respecto del eje y
Z∞
2 z2 ?z “t
“? e´ 2 dz dz
2

2π ?
2
“dt
0
Z∞ Z∞
2 ´t2
? 2 2 t2 “y
“? e 2 dt “ ? e´t dt ?
dt“ 21 p yq´1 dy
2π π
0 0
Z∞ ?
2 ´y ´ 12 1 1 π
“ ? e y dy “ ? ¨ Γp 2 q “ ? “ 1
2 π π π
0

Y su función de distribución es
1
Zx
1 1 t´µ 2
Fpxq “ ? e´ 2 p σ q dt 0.5
σ 2π
´∞
µ

Ejercicio 3.5. Probar que f es simétrica respecto de µ, tiene un máximo en x “ µ y


puntos de inflexión en x “ µ ˘ σ.

Y ahora veamos todas sus propiedades:

58
3.5 Va r i a b l e s a l e at o r i a s c o n t i n ua s n o ta b l e s

La media
Z Z
1 1 x´µ 2 x´µ
ErXs “ x ¨ f pxq dx “ x ¨ ? e´ 2 p σ q dx σ “z
R R σ 2π dx“σ dz
Z
1 1 2
pσz ` µq ? e´ 2 z σ dz

R σ 2π
Z Z ?
σ 1 2
z µ 1 2
z µ 2π
“? ze ´ 2 dz ` ? e ´ 2 dz “ 0 ` ? “ µ,
2π R 2π R 2π
el momento de orden dos
“ 2‰ Z 2 Z
1 1 x´µ 2 x´µ
α2 “ E X “ x f pxq dx “ x2 ? e´ 2 p σ q dx σ “r
R R σ 2π dx“σ dr
Z
1 1 2
“? prσ ` µq2 e´ 2 r dr
2π R
Z Z Z
1 ´ 2 1 2 1 2 1 2
¯
“? σ r2 e´ 2 r dr ` µ2 e´ 2 r dr ` 2µσ re´ 2 r dr
2π R R R
Z 2 Z
σ2 1 2 µ 1 2 r2
“? r2 e´ 2 r dr ` ? e´ 2 r dr ` 0 2 “h
dr“ ?1 dr
2π R 2π R 2h
Z
σ2 1
“ ? 2he´h ? dh ` µ2
2π R 2h
Z Z
σ2 1 σ2 1
“? he´h ? dh ` µ2 “ ? h 2 e´h dh ` µ2
π R h π R
Z∞
σ2 1 σ2 ` ˘
“ ? ¨2 h 2 e´h dh ` µ2 “ ? ¨ 2 ¨ Γ 23 ` µ2
π π
0
σ2 2
`1˘2 2
“?
π 2 `µ “ σ `µ ,
¨Γ

y por lo tanto la varianza, como era de esperar


“ ‰
VarrXs “ E X 2 ´ ErXs2 “ σ2 ` µ2 ´ µ2 “ σ2 ,
y la función característica
“ itX ‰ Z itx 1 1 x´µ 2 x´µ
ϕ X ptq “ E e “ e ? e´ 2 p σ q dx σ “z
R σ 2π dx“σ dz
Z Z
itσz itµ ?1 ´ 12 z2 eitµ 1 2
“ e e e σ dz “ ? eitzσ´ 2 z dz
R σ 2π 2π R
Z Z
eitµ 1 2 1 1 2 2 1 2
“? e´ 2 pz´itσq dz “ ? ¨ eitµ´ 2 t σ e´ 2 pz´itσq dz z´itσ“V
2π R 2π R
Z
itµ´ 21 t2 σ2 ?1
2
´ V2 itµ´ 12 t2 σ2
“e ¨ e dV “ e
2π R
1 2
y, por lo tanto, si X ” Np0, 1q, entonces ϕ X ptq “ e´ 2 t .
X´µ
Observación. Si X ” Npµ, σq entonces la variable aleatoria Z “ σ es una Np0, 1q.

59
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

t2
µ i t µ´ 1 σ2 1 2
Demostración. Calculando la función característica ϕ Z ptq “ e´it σ ¨ e σ 2 σ2 “ e´ 2 t ùñ
Z ” Np0, 1q. Por lo tanto, si desconocemos PpX ą aq nos basta con convertirla a Z y tan
sólo tabular los resultados para Np0, 1q:
´X ´ µ a ´ µ¯ ´ a ´ µ¯
PpX ą aq “ P ą “ P Np0, 1q ą
σ σ σ
Ejercicio 3.6. Obtener la media y la varianza a partir de la función característica.

3.5.3 Distribución gamma


27/11/2012 Definición 3.39 (Distribución gamma). Se dice que la variable aleatoria continua X sigue
una distribución gamma de parámetros p ą 0 y a ą 0, y se expresa X ” γpp, aq, si su
función de densidad es de la forma
$ p
& a ¨ e´ax ¨ x p´1 x ą 0

f pxq “ Γppq

%0 resto

Veamos primero que es una función de densidad:

Z Z∞
a p ´ax p´1 ax“y
f pxq dx “ e x dx a dx“dy
R Γppq Γppq
0 hkkkkkkkkkkkkkkkkj
Z∞ ´ y ¯ p´1 1 Z∞
ap ap 1 1
“ e ´y
dy “ p´1
e´y y p´1 dy “ 1.
Γppq a a Γppq a a
0 0

y ahora sus propiedades,

La función característica
Z∞ Z∞
“ itX
‰ itx a p ´ax p´1
ϕ X ptq “ E e “ e f pxq dx “ eitx e x dx
Γppq
0 0
Z∞
ap
“ x p´1 e´xpa´itq dx pa´itqx“y
Γppq
0
Z∞´
ap y ¯p´1 ´y dy
“ e
Γppq a ´ it a ´ it
0
Z∞ ´
ap 1 a ¯p ´ it ¯´p
“ y p´1 e´y dy “ “ 1´ ,
Γppq pa ´ itq p a ´ it a
0

60
3.5 Va r i a b l e s a l e at o r i a s c o n t i n ua s n o ta b l e s

la esperanza
Z Z∞ Z∞
a p ´ax p´1 ap
ErXs “ x f pxq dx “ x e x dx “ x p e´ax dx ax“y
R Γppq Γppq
0 0
Z∞´ Z∞
ap y ¯p 1 ´y 1 1
“ e dy “ y p e´y dy
Γppq a a a Γppq
0 0
1 1 p
“ p ¨ Γppq “ ,
a Γppq a
el momento de orden dos
Z Z∞ Z∞
“ 2
‰ 2 a p ´ax p`1 ap
E X “ x f pxq dx “ e x dx “ x p`1 e´ax dx ax“y
R Γppq Γppq
0 0
Z∞´
ap y ¯ p`1 ´y dy 1 1 p pp ` 1q
“ e “ 2 Γpp ` 2q “ ,
Γppq a a a Γppq a2
0
y la varianza
p2 ` p p2 p
VarrXs “ σ2 “ µ2 “ α2 ´ α21 “ ´ 2 “ 2.
a2 a a
Definición 3.40 (Distribución exponencial). Se dice que una variable aleatoria continua
X sigue una distribución exponencial de parámetro λ ą 0 si su función de densidad es de
la forma
#
λ e´λx x ą 0
f pxq “ y se escribe: Exppλq ” γpa “ λ, p “ 1q,
0 resto

que, por ser un caso particular de la función gamma, se tiene que la esperanza es
` ˘´1
ErXs “ λ1 , la varianza VarrXs “ λ12 , y la función característica ϕ X ptq “ 1 ´ itλ .

3.5.4 Distribución beta


Definición 3.41 (Función beta). Dados p, q ą 0, la función beta se define mediante
Z1
βpp, qq “ x p´1 ¨ p1 ´ xqq´1 dx.
0

Proposición 3.42. Propiedades de esta función:

a) Dados p, q ą 0, se cumple la igualdad

Γppq Γpqq
βpp, qq “ .
Γpp ` qq

61
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

Demostración. Una demostración larga y tediosa...


Z∞ Z∞
´t p´1
Γppq Γpqq “ e t dt e´y yq´1 dy
0 0
Z∞ ˆZ ∞ ˙
y“tx
“ e´t t p´1 ´y q´1
e y dy dt dy“t dx
0
Z∞ ˆZ0∞ ˙
´t p´1 ´tx q´1 q´1
“ e t e t x t dx dt
0 0
Z ∞Z ∞
“ e´tpx`1q t p`q´1 x q´1 dx dt
0 0
Z∞ ˆZ ∞ ˙
q´1 ´tpx`1q p`q´1 tp1`xq“y
“ x e t dt dx p1`xq dt“dy
0
Z∞ ˆZ0∞ ´ y ¯ p`q´1 dy ˙
q´1
“ x e ´y
dx
0 0 1`x 1`x
Z∞ ˆZ ∞ ˙
x q´1 ´y p`q´1
“ p`q
e y dy dx
0 p1 ` xq 0
Z∞
x q´1
“ Γpp ` qq dx x
1`x “y
0 p1 ` xq p`q
Z1
1 1
“ Γpp ` qq yq y ` 1 ˘p dy
0 1´y 1´y
p1 ´ yq2
Z1
“ Γpp ` qq yq´1 p1 ´ yq p´1 dy “ Γpp ` qq βpp, qq
0

y, de esta manera, tenemos que

Γppq Γpqq
βpp, qq “
Γpp ` qq

`1 1
˘ ` 1 ˘2
b) β ,
2 2 “ π “ Γ 2 .

Demostración.
Z1 Z1
`1 1
˘ ´ 21 ´ 12 dx ?
2, 2 x p1 ´ xq dx “
β “ ? ? y“ x
0 0 x 1´x
Z1 1
2y dy
“ a “ 2 arc sen y “ π
0 y 1 ´ y2 0

Observación.
`1 ˘ b ` ˘ ?
1 Γp1{2q Γp1{2q
β 2, 2 “ ùñ Γp1{2q “ β 12 , 21 “ π
Γp1q

62
3 .6 Ta b l a s Bi n o m i a l , Po i s s o n y No r m a l

Definición 3.43 (Distribución beta). Se dice que la variable aleatoria X sigue una distri-
buión beta de parámetros p ą 0 y q ą 0 si su función de densidad es de la forma
$
& 1 ¨ x p´1 ¨ p1 ´ xqq´1 x P p0, 1q

f pxq “ βpp, qq

%0 resto

Veamos sus propiedades:

La media
Z Z1
1
µ “ ErXs “ x f pxq dx “ x x p´1 p1 ´ xqq´1 dx
R βpp, qq
0
Z1 Γpp`1qΓpqq
1 q´1 βpp ` 1, qq Γpp`q`1q
“ x pp`1q´1
p1 ´ xq dx “ “
βpp, qq βpp, qq ΓppqΓpqq
0 Γpp`qq
p Γppq Γpp ` qq p
“ “ ,
Γppq pp ` qq Γpp ` qq p`q
el momento de orden dos
1
“ 2‰ Z 2 Z
1
α2 “ E X “ x f pxq dx “ x2 x p´1 p1 ´ xqq´1 dx
R βpp, qq
0
Γpp`2q
βpp ` 2, qq Γpp`q`2q pp ` 1q p
“ “ “ ,
βpp, qq Γppq pp ` q ` 1q pp ` qq
Γpp`qq
y la varianza
p pp ` 1q ´ p ¯2 pq
σ2 “ VarrXs “ µ2 “ α2 ´ α21 “ ´ “ 2
.
pp ` q ` 1q pp ` qq p`q pp ` qq pp ` q ` 1q

3.6 Tablas Binomial, Poisson y Normal


Nota. Cuando no aparece un número en la tabla es que su valor es menor que 0.00005.

63
Tabla 1
Distribución Binomial (Bpn, pq)
ˆ ˙
n k n´k
Ppξ “ kq “ p q
k

p
n k 0.01 0.05 0.10 0.15 0.20 0.25 0.30 1{3 0.35 0.40 0.45 0.49 0.50
2 0 0.9801 0.9025 0.8100 0.7225 0.6400 0.5625 0.4900 0.4444 0.4225 0.3600 0.3025 0.2601 0.2500
1 0.0198 0.0950 0.1800 0.2550 0.3200 0.3750 0.4200 0.4444 0.4550 0.4800 0.4950 0.4998 0.5000
2 0.0001 0.0025 0.0100 0.0225 0.0400 0.0625 0.0900 0.1111 0.1225 0.1600 0.2025 0.2401 0.2500
3 0 0.9703 0.8574 0.7290 0.6141 0.5120 0.4219 0.3430 0.2963 0.2746 0.2160 0.1664 0.1326 0.1250
1 0.0294 0.1354 0.2430 0.3251 0.3840 0.4219 0.4410 0.4444 0.4436 0.4320 0.4084 0.3823 0.3750
2 0.0003 0.0071 0.0270 0.0574 0.0960 0.1406 0.1890 0.2222 0.2389 0.2880 0.3341 0.3674 0.3750
3 0.0001 0.0010 0.0034 0.0080 0.0156 0.0270 0.0370 0.0429 0.0640 0.0911 0.1177 0.1250
4 0 0.9606 0.8145 0.6561 0.5220 0.4096 0.3164 0.2401 0.1975 0.1785 0.1296 0.0915 0.0677 0.0625
1 0.0388 0.1715 0.2916 0.3685 0.4096 0.4219 0.4116 0.3951 0.3845 0.3456 0.2995 0.2600 0.2500
2 0.0006 0.0135 0.0486 0.0975 0.1536 0.2109 0.2646 0.2963 0.3105 0.3456 0.3675 0.3747 0.3750
3 0.0005 0.0036 0.0115 0.0256 0.0469 0.0756 0.0988 0.1115 0.1536 0.2005 0.2400 0.2500
4 0.0001 0.0005 0.0016 0.0039 0.0081 0.0123 0.0150 0.0256 0.0410 0.0577 0.0625
5 0 0.9510 0.7738 0.5905 0.4437 0.3277 0.2373 0.1681 0.1317 0.1160 0.0778 0.0503 0.0345 0.0313
1 0.0480 0.2036 0.3281 0.3915 0.4096 0.3955 0.3602 0.3292 0.3124 0.2592 0.2059 0.1657 0.1563
2 0.0010 0.0214 0.0729 0.1382 0.2048 0.2637 0.3087 0.3292 0.3364 0.3456 0.3369 0.3185 0.3125
3 0.0011 0.0081 0.0244 0.0512 0.0879 0.1323 0.1646 0.1812 0.2304 0.2757 0.3060 0.3125
4 0.0004 0.0022 0.0064 0.0147 0.0284 0.0412 0.0488 0.0768 0.1128 0.1470 0.1563
5 0.0001 0.0003 0.0010 0.0024 0.0041 0.0053 0.0102 0.0185 0.0282 0.0313
6 0 0.9415 0.7351 0.5315 0.3772 0.2622 0.1780 0.1177 0.0878 0.0754 0.0467 0.0277 0.0176 0.0156
1 0.0571 0.2321 0.3543 0.3993 0.3932 0.3560 0.3025 0.2634 0.2437 0.1866 0.1359 0.1014 0.0938
2 0.0014 0.0306 0.0984 0.1762 0.2458 0.2966 0.3241 0.3292 0.3280 0.3110 0.2780 0.2437 0.2344
3 0.0021 0.0146 0.0415 0.0819 0.1318 0.1852 0.2195 0.2355 0.2765 0.3032 0.3121 0.3125
4 0.0001 0.0012 0.0055 0.0154 0.0330 0.0595 0.0823 0.0951 0.1382 0.1861 0.2249 0.2344
5 0.0001 0.0004 0.0015 0.0044 0.0102 0.0165 0.0205 0.0369 0.0609 0.0864 0.0938
6 0.0001 0.0002 0.0007 0.0014 0.0018 0.0041 0.0083 0.0138 0.0156
7 0 0.9321 0.6983 0.4783 0.3206 0.2097 0.1335 0.0824 0.0585 0.0490 0.0280 0.0152 0.0090 0.0078
1 0.0659 0.2573 0.3720 0.3960 0.3670 0.3115 0.2471 0.2049 0.1848 0.1306 0.0872 0.0604 0.0547
2 0.0020 0.0406 0.1240 0.2097 0.2753 0.3115 0.3177 0.3073 0.2985 0.2613 0.2140 0.1740 0.1641
3 0.0036 0.0230 0.0617 0.1147 0.1730 0.2269 0.2561 0.2679 0.2903 0.2919 0.2786 0.2734
4 0.0002 0.0026 0.0109 0.0287 0.0577 0.0972 0.1280 0.1442 0.1935 0.2388 0.2677 0.2734
5 0.0002 0.0012 0.0043 0.0115 0.0250 0.0384 0.0466 0.0774 0.1172 0.1543 0.1641
6 0.0001 0.0004 0.0013 0.0036 0.0064 0.0084 0.0172 0.0320 0.0494 0.0547
7 0.0001 0.0002 0.0005 0.0006 0.0016 0.0037 0.0068 0.0078
8 0 0.9227 0.6634 0.4305 0.2725 0.1678 0.1001 0.0577 0.0390 0.0319 0.0168 0.0084 0.0046 0.0039
1 0.0746 0.2793 0.3826 0.3847 0.3355 0.2670 0.1977 0.1561 0.1373 0.0896 0.0548 0.0352 0.0313
2 0.0026 0.0515 0.1488 0.2376 0.2936 0.3115 0.2965 0.2731 0.2587 0.2090 0.1570 0.1183 0.1094
3 0.0001 0.0054 0.0331 0.0839 0.1468 0.2076 0.2541 0.2731 0.2786 0.2787 0.2568 0.2273 0.2188
4 0.0004 0.0046 0.0185 0.0459 0.0865 0.1361 0.1707 0.1875 0.2322 0.2627 0.2730 0.2734
5 0.0004 0.0026 0.0092 0.0231 0.0467 0.0683 0.0808 0.1239 0.1719 0.2098 0.2188
6 0.0002 0.0011 0.0039 0.0100 0.0171 0.0217 0.0413 0.0703 0.1008 0.1094
7 0.0001 0.0004 0.0012 0.0024 0.0033 0.0079 0.0165 0.0277 0.0313
8 0.0001 0.0002 0.0002 0.0007 0.0017 0.0033 0.0039
9 0 0.9135 0.6303 0.3874 0.2316 0.1342 0.0751 0.0404 0.0260 0.0207 0.0101 0.0046 0.0023 0.0020
1 0.0831 0.2985 0.3874 0.3679 0.3020 0.2253 0.1557 0.1171 0.1004 0.0605 0.0339 0.0202 0.0176
2 0.0034 0.0629 0.1722 0.2597 0.3020 0.3003 0.2668 0.2341 0.2162 0.1612 0.1110 0.0776 0.0703
3 0.0001 0.0077 0.0447 0.1069 0.1762 0.2336 0.2668 0.2731 0.2716 0.2508 0.2119 0.1739 0.1641
4 0.0006 0.0075 0.0283 0.0661 0.1168 0.1715 0.2049 0.2194 0.2508 0.2600 0.2506 0.2461
5 0.0008 0.0050 0.0165 0.0389 0.0735 0.1024 0.1181 0.1672 0.2128 0.2408 0.2461
6 0.0001 0.0006 0.0028 0.0087 0.0210 0.0342 0.0424 0.0743 0.1160 0.1542 0.1641
7 0.0001 0.0003 0.0012 0.0039 0.0073 0.0098 0.0212 0.0407 0.0635 0.0703
8 0.0001 0.0004 0.0009 0.0013 0.0035 0.0083 0.0153 0.0176
9 0.0001 0.0001 0.0003 0.0008 0.0016 0.0020
10 0 0.9044 0.5987 0.3487 0.1969 0.1074 0.0563 0.0282 0.0174 0.0135 0.0060 0.0025 0.0012 0.0010
1 0.0914 0.3151 0.3874 0.3474 0.2684 0.1877 0.1211 0.0867 0.0725 0.0403 0.0207 0.0114 0.0098
2 0.0042 0.0746 0.1937 0.2759 0.3020 0.2816 0.2335 0.1951 0.1757 0.1209 0.0763 0.0495 0.0440
3 0.0001 0.0105 0.0574 0.1298 0.2013 0.2503 0.2668 0.2601 0.2522 0.2150 0.1665 0.1267 0.1172
4 0.0010 0.0112 0.0401 0.0881 0.1460 0.2001 0.2276 0.2377 0.2508 0.2384 0.2130 0.2051
5 0.0001 0.0015 0.0085 0.0264 0.0584 0.1029 0.1366 0.1536 0.2007 0.2340 0.2456 0.2461
6 0.0001 0.0013 0.0055 0.0162 0.0368 0.0569 0.0689 0.1115 0.1596 0.1966 0.2051
7 0.0001 0.0008 0.0031 0.0090 0.0163 0.0212 0.0425 0.0746 0.1080 0.1172
8 0.0001 0.0004 0.0015 0.0031 0.0043 0.0106 0.0229 0.0389 0.0440
9 0.0001 0.0003 0.0005 0.0016 0.0042 0.0083 0.0098
10 0.0001 0.0003 0.0008 0.0010
n k 0.01 0.05 0.10 0.15 0.20 0.25 0.30 1{3 0.35 0.40 0.45 0.49 0.50
Tabla 2
Distribución de Poisson (Ppλq)

λk ´λ
Ppξ “ kq “ ¨e
k!

k
λ 0 1 2 3 4 5 6 7 8 9 10 11 12
0.1 0.9050 0.0905 0.0045 0.0002
0.2 0.8189 0.1638 0.0164 0.0011 0.0001
0.3 0.7410 0.2223 0.0333 0.0033 0.0002
0.4 0.6705 0.2682 0.0536 0.0072 0.0007 0.0001
0.5 0.6066 0.3033 0.0758 0.0126 0.0016 0.0002
0.6 0.5489 0.3294 0.0988 0.0198 0.0030 0.0004
0.7 0.4967 0.3477 0.1217 0.0284 0.0050 0.0007 0.0001
0.8 0.4494 0.3595 0.1438 0.0384 0.0077 0.0012 0.0002
0.9 0.4067 0.3660 0.1647 0.0494 0.0111 0.0020 0.0003 0.0001
1.0 0.3679 0.3679 0.1839 0.0613 0.0153 0.0031 0.0005 0.0001
1.1 0.3330 0.3663 0.2015 0.0739 0.0203 0.0045 0.0008 0.0001
1.2 0.3013 0.3615 0.2169 0.0868 0.0260 0.0062 0.0013 0.0002
1.3 0.2726 0.3543 0.2303 0.0998 0.0324 0.0084 0.0018 0.0003 0.0001
1.4 0.2467 0.3453 0.2417 0.1128 0.0395 0.0111 0.0026 0.0005 0.0001
1.5 0.2231 0.3347 0.2510 0.1255 0.0471 0.0141 0.0035 0.0008 0.0001
1.6 0.2019 0.3231 0.2585 0.1379 0.0552 0.0176 0.0047 0.0011 0.0002 0.0001
1.7 0.1827 0.3107 0.2641 0.1496 0.0636 0.0216 0.0061 0.0015 0.0003 0.0001
1.8 0.1653 0.2976 0.2678 0.1607 0.0723 0.0260 0.0078 0.0020 0.0005 0.0001
1.9 0.1495 0.2841 0.2699 0.1709 0.0812 0.0309 0.0098 0.0027 0.0006 0.0001
2.0 0.1353 0.2707 0.2707 0.1804 0.0902 0.0361 0.0120 0.0034 0.0009 0.0002 0.0001
2.2 0.1108 0.2438 0.2682 0.1967 0.1082 0.0476 0.0175 0.0055 0.0015 0.0004 0.0001
2.4 0.0907 0.2177 0.2613 0.2090 0.1254 0.0602 0.0241 0.0083 0.0025 0.0007 0.0002
2.6 0.0743 0.1931 0.2511 0.2176 0.1414 0.0736 0.0319 0.0118 0.0039 0.0011 0.0003 0.0001
2.8 0.0608 0.1703 0.2384 0.2225 0.1558 0.0872 0.0407 0.0163 0.0057 0.0018 0.0005 0.0001
3.0 0.0498 0.1494 0.2240 0.2240 0.1680 0.1008 0.0504 0.0216 0.0081 0.0027 0.0008 0.0002 0.0001
3.2 0.0408 0.1305 0.2087 0.2226 0.1781 0.1140 0.0608 0.0278 0.0111 0.0040 0.0013 0.0004 0.0001
3.4 0.0334 0.1135 0.1929 0.2186 0.1859 0.1264 0.0716 0.0348 0.0148 0.0056 0.0019 0.0006 0.0002
3.6 0.0273 0.0984 0.1771 0.2125 0.1913 0.1377 0.0826 0.0425 0.0191 0.0076 0.0028 0.0009 0.0003
3.8 0.0224 0.0850 0.1615 0.2046 0.1944 0.1477 0.0936 0.0508 0.0241 0.0102 0.0039 0.0013 0.0004
4.0 0.0183 0.0733 0.1465 0.1953 0.1953 0.1563 0.1042 0.0595 0.0298 0.0132 0.0053 0.0019 0.0006
5.0 0.0067 0.0337 0.0842 0.1404 0.1755 0.1755 0.1462 0.1044 0.0653 0.0363 0.0181 0.0082 0.0034
6.0 0.0025 0.0149 0.0446 0.0892 0.1338 0.1606 0.1606 0.1377 0.1032 0.0688 0.0413 0.0225 0.0113
7.0 0.0009 0.0064 0.0223 0.0521 0.0912 0.1277 0.1490 0.1490 0.1304 0.1014 0.0710 0.0452 0.0264
8.0 0.0003 0.0027 0.0107 0.0286 0.0572 0.0916 0.1221 0.1396 0.1396 0.1241 0.0992 0.0722 0.0481
9.0 0.0001 0.0011 0.0050 0.0150 0.0337 0.0607 0.0911 0.1171 0.1317 0.1317 0.1186 0.0970 0.0728
10.0 0.0001 0.0005 0.0023 0.0076 0.0189 0.0378 0.0630 0.0901 0.1126 0.1251 0.1251 0.1137 0.0948

k
λ 12 13 14 15 16 17 18 19 20 21 22 23 24
5.0 0.0034 0.0013 0.0005 0.0002 0.0001
6.0 0.0113 0.0052 0.0022 0.0009 0.0003 0.0001 0.0001
7.0 0.0264 0.0142 0.0071 0.0033 0.0015 0.0006 0.0002 0.0001
8.0 0.0481 0.0296 0.0169 0.0090 0.0045 0.0021 0.0010 0.0004 0.0002 0.0001
9.0 0.0728 0.0504 0.0324 0.0194 0.0109 0.0058 0.0029 0.0014 0.0006 0.0003 0.0001 0.0001
10.0 0.0948 0.0729 0.0521 0.0347 0.0217 0.0128 0.0071 0.0037 0.0019 0.0009 0.0004 0.0002 0.0001
Tabla 3
Distribución Normal (Np0, 1q)

Z∞
1 z2
α“ ? ¨ e´ 2 dz

0.0 zα

zα 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.3 0.01072 0.01044 0.01017 0.00990 0.00964 0.00939 0.00914 0.00889 0.00866 0.00842
2.4 0.00820 0.00798 0.00776 0.00755 0.00734 0.00714 0.00695 0.00676 0.00657 0.00639
2.5 0.00621 0.00604 0.00587 0.00570 0.00554 0.00539 0.00523 0.00508 0.00494 0.00480
2.6 0.00466 0.00453 0.00440 0.00427 0.00415 0.00402 0.00391 0.00379 0.00368 0.00357
2.7 0.00347 0.00336 0.00326 0.00317 0.00307 0.00298 0.00289 0.00280 0.00272 0.00264
2.8 0.00256 0.00248 0.00240 0.00233 0.00226 0.00219 0.00212 0.00205 0.00199 0.00193
2.9 0.00187 0.00181 0.00175 0.00169 0.00164 0.00159 0.00154 0.00149 0.00144 0.00139
3.0 0.00135 0.00131 0.00126 0.00122 0.00118 0.00114 0.00111 0.00107 0.00104 0.00100
3.1 9.68E´04 9.35E´04 9.04E´04 8.74E´04 8.45E´04 8.16E´04 7.89E´04 7.62E´04 7.36E´04 7.11E´04
3.2 6.87E´04 6.64E´04 6.41E´04 6.19E´04 5.98E´04 5.77E´04 5.57E´04 5.38E´04 5.19E´04 5.01E´04
3.3 4.83E´04 4.66E´04 4.50E´04 4.34E´04 4.19E´04 4.04E´04 3.90E´04 3.76E´04 3.62E´04 3.49E´04
3.4 3.37E´04 3.25E´04 3.13E´04 3.02E´04 2.91E´04 2.80E´04 2.70E´04 2.60E´04 2.51E´04 2.42E´04
3.5 2.33E´04 2.24E´04 2.16E´04 2.08E´04 2.00E´04 1.93E´04 1.85E´04 1.78E´04 1.72E´04 1.65E´04
3.6 1.59E´04 1.53E´04 1.47E´04 1.42E´04 1.36E´04 1.31E´04 1.26E´04 1.21E´04 1.17E´04 1.12E´04
3.7 1.08E´04 1.04E´04 9.96E´05 9.57E´05 9.20E´05 8.84E´05 8.50E´05 8.16E´05 7.84E´05 7.53E´05
3.8 7.23E´05 6.95E´05 6.67E´05 6.41E´05 6.15E´05 5.91E´05 5.67E´05 5.44E´05 5.22E´05 5.01E´05
3.9 4.81E´05 4.61E´05 4.43E´05 4.25E´05 4.07E´05 3.91E´05 3.75E´05 3.59E´05 3.45E´05 3.30E´05

zα 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
1.0 0.15866 0.13567 0.11507 0.09680 0.08076 0.06681 0.05480 0.04457 0.03593 0.02872
2.0 0.02275 0.01786 0.01390 0.01072 0.00820 0.00621 0.00466 0.00347 0.00256 0.00187
3.0 1.35E´03 9.68E´04 6.87E´04 4.83E´04 3.37E´04 2.33E´04 1.59E´04 1.08E´04 7.23E´05 4.81E´05
4.0 3.17E´05 2.07E´05 1.33E´05 8.54E´06 5.41E´06 3.40E´06 2.11E´06 1.30E´06 7.93E´07 4.79E´07
5.0 2.87E´07 1.70E´07 9.96E´08 5.79E´08 3.33E´08 1.90E´08 1.07E´08 5.99E´09 3.32E´09 1.82E´09
6.0 9.87E´10 5.30E´10 2.82E´10 1.49E´10 7.77E´11 4.02E´11 2.06E´11 1.04E´11 5.23E´12 2.60E´12
3.7 E j e rc i c i o s

3.7 Ejercicios

Hoja 3 – Variables
aleatorias unidimensionales

1.- Sean C ⊂ P(Ω2 ) y f : Ω1 −→ Ω2 una aplicación.


(1.a) Demostrar que f −1 (Ac ) = (f −1 (A))c , f −1 (∪i∈I Ai ) = ∪i∈I f −1 (Ai ) y
f −1 (∩i∈I Ai ) = ∩i∈I f −1 (Ai ).
(1.b) Demostrar que σ(f −1 (C)) = f −1 (σ(C)).
2.- Sea una urna con 3 bolas blancas, 2 negras y 1 verde. Se extraen 3 bolas
al azar y se considera ξ definida como el ”número de bolas blancas extraı́das”.
Construir la función de probabilidad inducida por ξ y su función de distribución.

3.- Sea Ω el espacio muestral asociado al lanzamiento de una moneda equilibrada


en tres ocasiones, con puntos muestrales denotados por ωijk con i, j, k ∈ {C, X}.
Sea

A = {φ, A1 , A2 , A3 , A1 ∪ A2 , A1 ∪ A3 , A2 ∪ A3 , A1 ∪ A2 ∪ A3 }

una σ-álgebra sobre P(Ω), donde A1 = {ωccx , ωcxc }, A2 = Ω − (A1 ∪ A3 ) y


A3 = {ωxxx }. Sea X(ω) el ”número de caras obtenidas en el resultado ω”.
Estudiar si X es una variable aleatoria.

4.- Sean Ω = ZZ+ , A = P(Ω) y P ({ω}) = 2−ω , ∀ω ∈ Ω. Se define ξ(ω)


como el ”resto de ω (módulo k)”. Demostrar que ξ es una variable aleatoria y
determinar los valores P (ξ = r), para r ∈ {0, 1, ..., k − 1}.
+
R ∞ Sea f : IR −→ IR = [0, ∞) una función
5.- Rx Riemann-integrable tal que
−∞
f (u)du = 1. Demostrar que F (x) = −∞
f (u)du define una función de
distribución absolutamente continua.

6.- La duración T de las conferencias telefónicas en una central es una variable


aleatoria con función de densidad
½
αe−kt , si t > 0,
f (t) = (k > 0)
0, si t ≤ 0.

10

67
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

(6.a) Calcular α para que f sea función de densidad.

(6.b) Si 1/k = 2 minutos, calcular la probabilidad de que una conversación


dure más de 3 minutos.

(6.c) Probabilidad de que una conversación dure entre 3 y 6 minutos.

7.- Sea F la función definida por



 0, si x < 1/3,
F (x) = x2α−1 , si 1/3 ≤ x < α,

1, si α ≤ x.

(7.a) Determinar los valores de α para que F sea función de distribución.


(7.b) Determinar α para que F sea discreta. Análogo para el caso absoluta-
mente continuo.
£ ¢
(7.c) Calcular P (lim inf An ) y P (lim sup An ) cuando An = 13 + 3n+1
1
,α .

8.- Sea


 0, si x < 1,

(x + 1)/10, si 1 ≤ x < 3/2,
F (x) =

 1/3 + (x − 3/2)/3, si 3/2 ≤ x < 5/2,

1, si 5/2 ≤ x.

(8.a) Comprobar que F es función de distribución. Determinar las funciones


de distribución F1 discreta y F2 absolutamente continua tales que F (x) =
λF1 (x) + (1 − λ)F2 (x), ∀x ∈ IR.

I ) y PF (IR − Q
(8.b) Evaluar PF (Q I ).

(8.c) Dada la sucesión de subconjuntos


µ ¶
1 5n + 2
A2n−1 = , ,
n+1 n+1
µ ¶
4n + 3 8n + 1
A2n = , ,
n n+1

se pide evaluar P (lim inf An ) y P (lim sup An ).


9.- Demostrar que la función
½
0, si x < 0,
F (x) =
1 − 2−x−1 − 2−[x]−1 , si x ≥ 0,

es una función de distribución de tipo mixto, donde [x] denota la parte entera
de x.

11

68
3.7 E j e rc i c i o s

10.- Sea la función de densidad de una variable aleatoria X con distribución


Cauchy
1 1
fX (x) = , x ∈ IR.
π 1 + x2
Determinar la distribución de la variable aleatoria Y = 3X + 1.

11.- Sea X una variable aleatoria con función de distribución




 0, si x < −1,



 0.2(x + 1), si − 1 ≤ x < 0,

0.3, si 0 ≤ x < 1/2,
F (x) =

 0.3 + 2(x − 0.5)2 , si 1/2 ≤ x < 1,



 0.9 + 0.2(x − 1), si 1 ≤ x < 3/2,

1, si 3/2 ≤ x.

(11.a) Comprobar que F es función de distribución. Determinar las funciones


de distribución F1 discreta y F2 absolutamente continua tales que F (x) =
λF1 (x) + (1 − λ)F2 (x), ∀x ∈ IR.
(11.b) Determinar la distribución de Y = |X|.
12.- Sea X una variable aleatoria exponencial de tasa λ = 1. Se define Y = X 2
si 0 ≤ X < 2, Y = 4 si 2 ≤ X < 3, Y = −4(X − 4) si 3 ≤ X < 4, e Y = 0 si
4 ≤ X. Determinar la distribución de Y .

13.- Sea X una variable aleatoria discreta con soporte DX y función de masa
pX . Sean g : IR −→ IR una función medible e Y = g(X) la variable aleatoria
transformada. Demostrar que Y es una variable aleatoria discreta con soporte
DY = g(DX ) y función de masa
X
pY (y) = pX (x), si y ∈ DY .
{x∈IR:g(x)=y}∩DX

14.- Sea (IR, β, P ) un espacio de probabilidad, siendo P la medida de probabi-


lidad relativa a la función de distribución

 0, si x < −3,
x+3
F (x) = , si − 3 ≤ x < 1,
 4
1, si x ≥ 1.

Sean las variables aleatorias ξ1 = X 2 , ξ2 = X 3 y ξ3 = e−X , supuesto que X es


una variable aleatoria con función de distribución F . Calcular las funciones de
distribución inducidas por cada una de ellas.

15.- Sea X una variable aleatoria con función de densidad


½
kx + 21 , si x ∈ [−1, 1] ,
f (x) =
0, en caso contrario.

12

69
3 Varia b l e s a l e at o r i a s u n i d i m e n s i o na l e s

(15.a) Determinar los valores de k tales que f es una función de densidad.


(15.b) Calcular la esperanza, la moda y la mediana de X.
(15.c) ¿Para qué valores de k es máxima la varianza de X?
16.- Sea X una variable aleatoria con función de distribución

 0, si x < 0,
F (x) = 1+2x2
, si 0 ≤ x < 1,
 6
1, si x ≥ 1.

Calcular E[X] y V ar(X).

17.- Sea
½
1, si 0 < x < 1,
f (x) =
0, en caso contrario.

la función de densidad de una variable aleatoria X y sea Y = −2 ln X. Calcular


la distribución de Y .

18.-
(18.a) Determinar la función generatriz de momentos de una variable aleatoria
1
X discreta con momentos E[X n ] = n+1 .
(18.b) Determinar la función generatriz de momentos de una variable aleatoria
X uniforme sobre el intervalo (a, b).
(18.c) Se sabe que la función generatriz de momentos de una variable aleatoria
X discreta viene dada por
1−α
M (t) = , α ∈ (0, 1).
1 − αet
Determinar la función de masa de X.
19.- Dada la función
1
ϕ(t) = ,
2 − eit
se pide:
(19.a) Comprobar que ϕ es la función caracterı́stica de una variable aleatoria
X discreta y hallar la función de masa, la media y la varianza de X.
(19.b) Escribir la función caracterı́stica de Y = 1 + 2X, ası́ como su media y
su varianza.
(19.c) Si Y1 = (Y +2)2 e Y2 = X 2 +5, calcular P (Y1 ∈ [10, 50]) y P (Y2 ∈ [6, 10]).

13

70
3.7 E j e rc i c i o s

20.- Determinar la función caracterı́stica de las variables aleatorias que cumplen:

(20.a) Toda la probabilidad está concentrada en un punto.


(20.b) Toda la probabilidad está concentrada en n puntos.
sent
21.- Demostrar que ϕ(t) = t es la función caracterı́stica de una variable
aleatoria.

22.- El porcentaje de piezas defectuosas fabricadas por una máquina es el 4%.


Las piezas se empaquetan en lotes de 100. El cliente rechaza el lote si contiene
más de dos piezas defectuosas. Calcular el porcentaje de lotes rechazados que
puede esperar el fabricante si el proceso de fabricación no ha sufrido modifica-
ciones.

23.- En dos grupos de segundo año de carrera se ha medido el coeficiente de


inteligencia de los alumnos. En el grupo A la media fue 100 y la desviación
tı́pica 10, mientras que en el grupo B estas medidas fueron 105 y 12, respecti-
vamente. Supongamos que ambos grupos tienen el mismo número de alumnos.
Se escoge un alumno al azar y se comprueba que su coeficiente es mayor que
120. Calcular, suponiendo normalidad, la probabilidad de que el citado alumno
pertenezca al grupo B.

14

71
4 Variables aleatorias multidimensionales
4.1 Función de distribución en R2
29/11/2012
Definición 4.1 (σ-álgebra de Borel en R2 ). Se denomina σ-álgebra de Borel en R2 , BpR2 q,
a la mínima σ-álgebra engendrada por todos los subconjuntos de R2 de la forma
(
p´∞, a1 s ˆ p´∞, a2 s “ px1 , x2 q P R2 | x1 ď a1 , x2 ď a2 (4.1)
con a1 , a2 P R.
Observación. Dados a “ pa1 , a2 q y b “ pb1 , b2 q, definimos
a) pa, bs ” tpx1 , x2 q P R2 | ai ă xi ď bi , i “ 1, 2u,
b) pa, bq ” tpx1 , x2 q P R2 | a i ă x i ă bi , i “ 1, 2u,
c) ra, bs ” tpx1 , x2 q P R2 | a i ď x i ď bi , i “ 1, 2u,
d) ra, bq ” tpx1 , x2 q P R2 | ai ď xi ă bi , i “ 1, 2u,
e) p´∞, bs ” tpx1 , x2 q P R2 | x i ď bi , i “ 1, 2u,
f) pa, `∞q ” tpx1 , x2 q P R2 | ai ą xi , i “ 1, 2u,
g) ra, `∞q ” tpx1 , x2 q P R2 | ai ě xi , i “ 1, 2u,
h) tA | A es abierto en R2 u, y
i) tA | A es cerrado en R2 u.
De esta manera, el mínimo sigma álgebra engendrado por la clase de estos subconjuntos
es también el sigma álgebra de Borel en R2 : σpuno de esos conjuntosq “ BpR2 q.
Definición 4.2 (Función de distribución en R2 ). Dado el espacio de probabilidad de la
forma pR2 , BpR2 q, Pq se denomina función de distribución asociada a P a la función
FP : R2 Ñ r0, 1s
pa1 , a2 q “ a ÞÑ FP paq “ FP pa1 , a2 q “ Ppp´∞, a1 s ˆ p´∞, a2 sq (4.2)
` (˘
“ P px1 , x2 q P R2 | xi ď ai i “ 1, 2
y pa1 , a2 q
La función de distribución nos da la probabilidad en
el cuadrante inferior izquierdo. Se representa de la
siguiente manera en el plano complejo: x
FP pa1 , a2 q

73
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Proposición 4.3. Propiedades.

a) FP es monótona no decreciente en cada una de sus variables

FP pa1 ` h, a2 q ě FP pa1 , a2 q h ą 0,

(y análogo en el otro caso).


Demostración.
` (˘
FP pa1 ` h, a2 q “ P px1 , x2 q P R2 | x1 ď a1 ` h, x2 ď a2
` (˘
“ P px1 , x2 q P R2 | x1 ď a1 , x2 ď a2
` (˘
` P px1 , x2 q P R2 | a1 ă x1 ď a1 ` h, x2 ď a2
ě FP pa1 , a2 q

b) ai Ò∞ i “ 1, 2 ùñ FP pa1 , a2 q Ñ 1.
Demostración.

FP p`∞, `∞q “ lim FP pa1 , a2 q “ lim FP pn, nq


a1 ,a2 Ñ∞ nÑ∞
` (˘
“ lim P px1 , x2 q P R2 | x1 ď n, x2 ď n
nÑ∞

y como tp´∞, ns ˆ p´∞, nsuÒ, tenemos que


ˆ∞ ˙
` ˘ \
“ P lim tp´∞, ns ˆ p´∞, nsu “ P p´∞, ns ˆ p´∞, ns
nÑ∞
n“1
“ PpR2 q “ 1

c) Si a1 Ó ´ ∞ y a2 permanece fijo (análogo en el otro caso), entonces FP pa1 , a2 q Ñ 0.


Demostración.

FP p´∞, a2 q “ lim FP pa1 , a2 q “ lim FP pn, a2 q


a1 Ó´∞ nÓ´∞
` (˘
“ lim P px1 , x2 q P R2 | x1 ď n, x2 ď a2
nÓ´∞
` (˘
“ lim P px1 , x2 q P R2 | x1 ď ´n, x2 ď a2
nÒ∞

y como tp´∞, ´ns ˆ p´∞, a2 suÓ, se tiene que


` (˘
“ P lim px1 , x2 q P R2 | x1 ď ´n, x2 ď a2
nÒ∞
ˆ∞ ˙
\
“P pp´∞, ´ns ˆ p´∞, a2 sq “ Pp∅q “ 0
n“1

74
4 .1 Fu n c i ó n d e d i s t r i b u c i ó n e n R2

d) F es continua a la derecha en cada una de sus variables.


Demostración.
´ 1 ¯
lim FP pa1 ` h, a2 q “ lim FP a1 ` , a2
hÑ0 nÑ∞ n
` 2

“ lim P px1 , x2 q P R | x1 ď a1 ` n1 , x2 ď a2
nÑ∞
“ ` (˘
“ lim P px1 , x2 q P R2 | x1 ď a1 , x2 ď a2
nÑ∞
` (˘‰
` P px1 , x2 q P R2 | a1 ď x1 ď a1 ` n1 , x2 ď a2
´ (¯
“ FP pa1 , a2 q ` P lim px1 , x2 q P R2 | a1 ď x1 ď a1 ` n1 , x2 ď a2
nÑ∞
“ FP pa1 , a2 q

Se demuestra de manera análoga para el otro caso.

Definición 4.4 (Operador diferencia). Dada la función G : R2 Ñ R y dados a “ pa1 , a2 q,


b “ pb1 , b2 q con a1 ă b1 y a2 ă b2 , definimos

∆b1 ,a1 Gpx1 , x2 q “ Gpb1 , x2 q ´ Gpa1 , x2 q


∆b2 ,a2 Gpx1 , x2 q “ Gpx1 , b2 q ´ Gpx1 , a2 q

y, con esto, definimos el operador diferencia como

∆b,a Gpx1 , x2 q “ ∆b1 ,a1 ∆b2 ,a2 Gpx1 , x2 q


“ ∆b1 ,a1 pGpx1 , b2 q ´ Gpx1 , a2 qq
“ Gpb1 , b2 q ´ Gpb1 , a2 q ´ Gpa1 , b2 q ` Gpa1 , a2 q. (4.3)

e) Dados a “ pa1 , a2 q y b “ pb1 , b2 q en R2 , a1 ă b1 y a2 ă b2 se verifica que

b2
∆b,a FP px1 , x2 q ě 0. A
a2

a1 b1

Demostración.

∆b,a FP px1 , x2 q “ FP pb1 , b2 q ´ FP pb1 , a2 q ´ FP pa1 , b2 q ` FP pa1 , a2 q


` (˘
“ P px1 , x2 q P R2 | a1 ă x1 ď b1 & a2 ă x2 ď b2 “ PpAq ą 0.

Ejercicio 4.1. Se considera la función


$
&1
’ xě2eyě2
Fpx, yq “ 0 (x ă 1 e y ă 1) ó (x ă 0 ó y ă 0)

%3
{4 resto

75
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Comprobar que es continua a la derecha en cada variable, F no es decreciente en cada


variable, que cuando x1 y x2 tienden a ∞, la función tiende a 1 y, por último, que cuando
x1 ó x2 Ñ ´∞, la P Ñ 0. Como se comprueba, las propiedades se verifican, pero

∆b,a Fpx1 , x2 q “ Fp2, 2q ´ Fp2, 0q ´ Fp0, 2q ` Fp0, 0q ă 0.

Por lo que F no es función de distribución.


03/12/2012 Definición 4.5. Una función F : R2 Ñ r0, 1s es una función de distribución si se verifica:

a) F es monótona no decreciente en cada una de las variables.


b) Fp∞, ∞q “ 1.
c) Fpa1 , a2 q Ñ 0 si ai Ó ´ ∞ y la otra es constante.
d) Es continua a la derecha en cada una de las variables.
e) ∆b,a Fpx1 , x2 q ě 0. Razón por la que la función F del Ejercicio (4.1) no es función de
distribución.

Teorema 4.6. Dada F : R2 Ñ r0, 1s verificando todas las propiedades de la Definición


4.5, existe una única medida de probabilidad P sobre pR2 , BpR2 qq tal que la función de
distribución asociada a P, FP , coincide con F.

4.1.1 Concepto de variable bidimensional. Propiedades


Definición 4.7 (Variable aleatoria bidimensional). Sea pΩ, Aq un espacio probabilizable y
BpR2 q la σ-álgebra de Borel en R2 . Una aplicación X : Ω Ñ R2 se dice que es una variable
aleatoria bidimensional si @B P BpR2 q se verifica que

X ´1 pBq P A. (4.4)

Teorema 4.8 (Caracterización de una variable aleatoria bidimensional). Dado un espacio


probabilizable pΩ, Aq y una clase C de subconjuntos de R2 tal que σpCq “ BpR2 q.
Entonces X “ pX1 , X2 q es una variable aleatoria si y sólo si

X ´1 pAq P A @A P C. (4.5)

Demostración. ( ùñ ) Si X es una variable aleatoria, por hipótesis tenemos X ´1 pAq P A


@A P BpR2 q, y en particular esto se verificará para cualquier A P C.
( ñù ) Por el apartado (b) de la Proposición 1.16 (Ecuación 1.6), tenemos que σp f ´1 pCqq “
f pσpCqq. Ahora, por hipótesis se tiene que X ´1 pC2 q ⊂ A y por lo tanto
´1

σpX ´1 pC2 qq ⊂ A ùñ X ´1 pσpC2 qq ⊂ A ùñ X ´1 pBpR2 qq ⊂ A.

Proposición 4.9. Dada X “ pX1 , X2 q : pΩ, Aq Ñ pR2 , BpR2 qq es una variable aleatoria
bidimensional si y sólo si Xi (con i “ 1, 2) son variables aleatorias unidimensionales.

76
4 .1 Fu n c i ó n d e d i s t r i b u c i ó n e n R2

Demostración. Utilizaremos en este caso C “ p´∞, x1 s ˆ p´∞, x2 s.


( ùñ )

X1´1 p´∞, a1 s “ tω P Ω | X1 pωq ď a1 u “ tω P Ω | X1 pωq ď a1 & X2 pωq P Ru


“ X ´1 pp´∞, a1 s ˆ Rq P A.

Y de manera análoga para x2 .


( ñù )

X ´1 pp´∞, a1 s ˆ p´∞, a2 sq “ tω P Ω | X1 pωq ď a1 & X2 pωq ď a2 u


2
\ 2
\
“ tω P Ω | Xi pωq ď ai u “ Xi´1 p´∞, ai s P A
i“1 i“1

4.1.2 Probabilidad inducida por una variable aleatoria

Definición 4.10 (Probabilidad inducida por una variable aleatoria). Tenemos X “


pX1 , X2 q : pΩ, A, Pq Ñ pR2 , BpR2 q, PX q de manera que

PX pBq “ Pptω P Ω | Xpωq P Buq “ PpX ´1 pBqq @B P BpR2 q. (4.6)

Definimos la función de distribución asociada a PX de la siguiente manera:

not.
FPX pa1 , a2 q “ FX pa1 , a2 q “ PX pp´∞, a1 s ˆ p´∞, a2 sq
` (˘
“ PX px1 , x2 q P R2 | x1 ď a1 & x2 ď a2 . (4.7)

Definición 4.11 (Variable aleatoria bidimensional discreta). Dada una variable aleatoria
X “ pX1 , X2 q se dice que es de tipo discreto si el rango de valores de X es un conjunto de
R2 finito o numerable.
Si denotamos por tpan , bn qunPN a los valores de X “ pX1 , X2 q, a la función

Pptan , bn qu “ PpX1 “ an , X2 “ bn q
“ FX pan , bn q ´ FX pa´
n , bn q ´ FX pan , bn q ` FX pan , bn q
´ ´ ´
(4.8)

se la denomina función de masa o de probabilidad de la variable aleatoria X “ pX1 , X2 q. La


función de distribución será

Fpx, yq “ ∑ Pptxi , x j uq “ ∑ PpX1 “ xi , X2 “ y j q. (4.9)


xi ďx xi ďx
y j ďy y j ďy

77
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Ejemplo. Dada la función de masa Ppt0, 0uq “ Ppt0, 1uq “ Ppt1, 0uq “ Ppt1, 1uq “ 1{4, la
función de distribución asociada es
$

’0 px, yq P R1




& {4 px, yq P R2
’1

Fpx, yq “ ∑ Pptxi , x j uq “ 1{2 px, yq P R3


xi ďx ’

y j ďy

’1{2 px, yq P R5



%1 px, yq P R
4 R4
$
’0 x ă 0 ó x ă 0


1

’ R3

’1 0 ď x ă 1 & 0 ě y ă 1

&4 1{2 R1 R5
“ 1 0ďxă1&yě1 ó R2
’ 1{4
’ 2

’ xě1&0ďyă1

’ 0 2


% ´1 0
1 xě1&yě1 1 0
2 3

04/12/2012 Definición 4.12 (Función de densidad). Una función f : R2 Ñ R se dice que es una
función de densidad en R2 si se verifica

a) @x, y P R f px, yq ě 0.
Z
b) f px, yq dx dy “ 1 (integral en el sentido Riemann).
R2

Observaciones.

a) Si f es una función de densidad en R2 entonces la función

F : R2 Ñ R Zx Zy
px, yq ÞÑ Fpx, yq “ f pu, vq dv du (4.10)
´∞ ´∞

es una función de distribución en R2 .


b) Sea f una función de densidad en R2 y F la función de distribución asociada a f
(definida en el punto anterior). Si f es continua en un entorno de un punto px0 , y0 q
entonces F admite en dicho punto derivada segunda respecto a x y respecto a y y
además se cumple la permutabilidad en el orden de integración, siendo para todo
punto px, yq del entorno de px0 , y0 q

∂2 Fpx, yq ∂2 Fpx, yq
“ “ f px, yq. (4.11)
∂x ∂y ∂y ∂x

78
4.2 D i s t r i b u c i o n e s m a r g i na l e s y c o n d i c i o na da s

Definición 4.13 (Variable aleatoria bidimensional absolutamente continua). Una variable


aleatoria bidimensional pX, Yq se dice que es absolutamente continua ó continua si su
función de distribución F se puede expresar para cada px, yq P R2 mediante
Zx Zy
Fpx, yq “ f pu, vq dv du, (4.12)
´∞ ´∞

donde f es una función de densidad en R2 . Se dice que f es la función de densidad asociada


a la variable aleatoria pX, Yq.
Observaciones.
(
a) CXY “ px, yq P R2 | f px, yq ą 0 ” Soporte de la variable aleatoria bidimensional
pX, Yq.
ZZ
2
b) Dado B P BpR q, PpBq “ f pu, vq du dv.
B

4.2 Distribuciones marginales y condicionadas


4.2.1 Distribuciones marginales
Dada X “ pX1 , X2 q, por ahora conocemos la función de distribución asociada FX px1 , x2 q,
pero vamos a ver ahora qué podemos saber de las funciones de distribución de X1 y X2 :
FX1 px1 q y FX2 px2 q, respectivamente.
Definición 4.14 (Distribución marginal). Dada la variable aleatoria bidimensional X “
pX1 , X2 q : pΩ, A, Pq Ñ pR2 , BpR2 q, PX q, a las funciones

FX1 px1 q “ FX px1 , ∞q “ Pptω P Ω | X1 pωq ď x1 uq @x1 P R (4.13)


FX2 px2 q “ FX p∞, x2 q “ Pptω P Ω | X2 pωq ď x2 uq @x2 P R (4.14)

se las denomina distribuciones marginales de X1 y de X2 , respectivamente.


Proposición 4.15. Sea X “ pX1 , X2 q una variable aleatoria bidimensional discreta, enton-
ces X1 y X2 son variables aleatorias unidimensionales discretas y además

PpX1 “ x1 q “ ∑ PX ptx1 , x2 uq & PpX2 “ x2 q “ ∑ PX ptx1 , x2 uq. (4.15)


x2 PCX2 x1 PCX1

Demostración. Se demuestra la primera afirmación, la segunda es análoga.

PX1 pX1 “ x1 q “ FX1 px1 q ´ FX1 px1´ q “ FX px1 , ∞q ´ FX px1´ , ∞q


` (˘
“ P pa1 , a2 q P R2 | a1 “ x1 , a2 P R
“ ∑ PX ptx1 , x2 uq.
x2 PCX2

79
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Ejemplo.
x1
x2 0 1 2 3 PpX2 “ x2 q
1 0 3{8 3{8 0 6{8

3 1{8 0 0 1{8 2{8

PpX1 “ x1 q 1{8 3{8 3{8 1{8

Proposición 4.16. Sea X “ pX1 , X2 q una variable aleatoria bidimensional continua con
función de densidad f . Entonces X1 y X2 son continuas y sus funciones de densidad
vienen dadas por
Z Z
f X1 px1 q “ f X px1 , x2 q dx2 & f X2 px2 q “ f X px1 , x2 q dx1 . (4.16)
R R

Demostración.
Z x1 Z `∞
FX1 px1 q “ FX px1 , ∞q “ f px1 , x2 q dx1 dx2
´∞ ´∞
Z x1 Z `∞ Z x1
“ dx1 f px1 , x2 q dx2 “ f X1 px1 q dx1
´∞ ´∞ ´∞
R
donde f X1 px1 q “ R f px1 , x2 q dx2 .

Ejemplo. Sea X “ pX1 , X2 q una variable aleatoria bidimensional cuya función de densidad
viene dada por #
2 0 ă x1 ă x2 ă 1 A
f px1 , x2 q “
0 resto
1
De manera que X ” VpAq, donde los soportes son CX1 ,X2 “ A y
por otro lado CX1 “ p0, 1q “ CX2 . Se pide calcular las distribuciones
1
marginales.
$
Z &0
’ x1 R p0, 1q #
Z1 0 x1 R p0, 1q
f X1 px1 q “ f px1 , x2 q dx2 “ “
R ’
% 2 dx2 x1 P p0, 1q 2 p1 ´ x1 q x1 P p0, 1q
x1
$ #
&0 x2 R p0, 1q
0 x2 R p0, 1q
Z x2
f X2 px2 q “ “
% 2 dx1 x2 P p0, 1q 2 x2 x2 P p0, 1q
0

4.2.2 Distribuciones condicionadas


10/12/2012
Definición 4.17 (Distribución condicionada). Sea X “ pX1 , X2 q una variable aleatoria
bidimensional tal que X : pΩ, A, Pq Ñ pR2 , BpR2 q, PX q, y x1 un punto fijo de la variable

80
4.2 D i s t r i b u c i o n e s m a r g i na l e s y c o n d i c i o na da s

aleatoria X1 . Siempre que exista el límite, se denomina distribución de X2 condicionada por


el valor x1 de X1 a la expresión
FX px1 , x2 q ´ FX px1 ´ h, x2 q FX px1 , x2 q ´ FX px1 ´ h, x2 q
Fpx2 | x1 q “ lim “ lim (4.17)
hÓ0 FX px1 , ∞q ´ FX px1 ´ h, ∞q hÓ0 FX2 px1 q ´ FX2 px1 ´ hq
con x1 fijo. El recíproco se define de manera análoga.

Proposición 4.18. Sea X “ pX1 , X2 q una variable aleatoria bidimensional discreta y sea
x1 un valor de la variable aleatoria X1 de forma que PpX1 “ x1 q “ Pptx1 uq ą 0. Entonces
la función de probabilidad de la variable aleatoria X2 condicionada por el valor x1 (fijo)
de la variable aleatoria X1 viene dada por
PpX1 “ x1 , X2 “ x2 q
PX2 | X1 “x1 pX2 “ x2 | X1 “ x1 q “ . (4.18)
PpX1 “ x1 q
Demostración. Sea x1 un valor de X1 con PpX1 “ x1 q ą 0. Entonces,
FX px1 , x2 q ´ FX px1 ´ h, x2 q
Fpx2 | x1 q “ lim
hÑ0 FX1 px1 q ´ FX2 px1 ´ hq
con x1 fijo. Y esto nos queda igual a
∑ x1 ďx2 PpX1 “ x1 , X2 “ x21 q PpX1 “ x1 , X2 “ x21 q
“ lim 2 “∑ .
hÑ0 PpX1 “ x1 q x1 ďx
PpX1 “ x1 q
2 2

Por lo tanto, resumiendo, nos queda que


PpX1 “ x1 , X2 “ x2 q
PpX2 “ x2 | X1 “ x1 q “ Fpx2 | x1 q ´ Fpx2´ | x1 q “ .
PpX1 “ x1 q
Proposición 4.19. Sea X “ pX1 , X2 q una variable aleatoria bidimensional continua con
función de densidad f X px1 , x2 q. Sea x1 un valor de la variable aleatoria X1 de forma que
f X1 px1 q ą 0. Entonces la función de densidad de X2 condicionada por el valor x1 de X1
viene dada por
f X px1 , x2 q
f px2 | x1 q “ @x2 P R, (4.19)
f X1 px1 q
con x1 fijo.

Demostración.
FX px1 , x2 q ´ FX px1 ´ h, x2 q
Fpx2 | x1 q “ lim
hÑ0 FX1 px1 q ´ FX1 px1 ´ hq
R x 2 `R x 1 ˘ R x2 `R x1 ´h ˘
´∞ ´∞ f X pu, vq du dv ´ ´∞ ´∞ f X pu, vq du dv
“ lim R x1 R x1 ´h
hÑ0
´∞ f X2 puq du ´ ´∞ f X2 puq du
R x2
x¨ f X pa, vq dv Z x2 f X px1 , vq
“ lim ´∞
“ dv
hÑ0 h ¨ f X pbq ´∞ f X1 px1 q

81
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

f X px1 , x2 q
y por lo tanto f px2 | x1 q “
f X1 px1 q
es la función de densidad asociada a la función de distribución Fpx2 | x1 q y es la que se
denomina función de X2 condicionada por el valor x1 de X1 .

Definición 4.20 (Variables aleatorias independientes). Sea X “ pX1 , X2 q una variable


aleatoria bidimensional con función de distribución FX px1 , x2 q y sean FX1 px1 q y FX2 px2 q
las correspondientes distribuciones marginales de X1 y X2 . En estas condiciones se dice
que las variables aleatorias X1 y X2 son independientes si se verifica que

FX px1 , x2 q “ FX1 px1 q ¨ FX2 px2 q @px1 , x2 q P R2 . (4.20)

Proposición 4.21. Las variables unidimensionales X1 y X2 discretas son independientes


si se verifica que

PpX1 “ x1 , X2 “ x2 q “ PpX1 “ x1 q ¨ PpX2 “ x2 q. (4.21)

Demostración.

PpX1 “ x1 , X2 “ x2 q “ FX px1 , x2 q ´ FX px1´ , x2 q ´ FX px1 , x2´ q ` FX px1´ , x2´ q


“ FX1 px1 q FX2 px2 q ´ FX2 px1´ q FX2 px2 q ´ FX2 px1 q FX2 px2´ q
` FX2 px1´ q FX2 px2´ q
“ ‰ “ ‰
“ FX1 px1 q FX2 px2 q ´ FX2 px2´ q ´ FX1 px1´ q FX2 px2 q ´ FX2 px2´ q
“ ‰ “ ‰
“ FX1 px1 q ´ FX2 px1´ q ¨ FX2 px2 q ´ FX2 px2´ q
“ PpX1 “ x1 q ¨ PpX2 “ x2 q,
y entonces FX px1 , x2 q “ ∑ ∑ PpX1 “ x11 , X2 “ x21 q
x11 ďx1 x21 ďx2

“ ∑ PX1 pX1 “ x11 q ¨ ∑ PX2 pX2 “ x21 q “ FX1 px1 q ¨ FX2 px2 q.
x11 ďx1 x21 ďx2

11/12/2012 Proposición 4.22. Dadas las variables aleatorias unidimensionales X1 y X2 con función
de densidad f X1 y f X2 respectivamente y la variable aleatoria bidimensional X “ pX1 , X2 q
con función de densidad f X px1 , x2 q, se dice que X1 y X2 son independientes si y sólo si

f X px1 , x2 q “ f X1 px1 q ¨ f X2 px2 q @px1 , x2 q P R2 . (4.22)

Demostración. ( ùñ ) Si X1 y X2 son independientes, entonces sabemos, por la propia


definición, que FX px1 , x2 q “ FX1 px1 q ¨ FX2 px2 q y, de esta manera,
∂FX px1 , x2 q ∂FX1 px1 q
“ FX2 px2 q & “ f X1 px2 q,
∂x1 ∂x1
y, por lo tanto,
∂2 FX px1 , x2 q ∂FX2 px2 q
“ ¨ f X1 px1 q de manera que
∂x1 ∂x2 ∂x2

82
4 .3 Tr a n s f o r m a da s d e va r i a b l e s a l e at o r i a s

f X px1 , x2 q “ f X1 px1 q ¨ f X2 px2 q @x1 , x2 .


( ñù )
Z x2 Z x1
FX px1 , x2 q “ f X pu, vq du dv
´∞ ´∞
Z x1 ´Z x2 ¯
“ f X1 puq f X2 pvq dv du
´∞ ´∞
Z x1 ´Z x2 ¯
“ f X1 puq f X2 pvq dv du
´∞ ´∞
Z x1
“ FX2 px2 q f X1 puq du “ FX2 px2 q ¨ FX1 px1 q.
´∞
Observaciones.
a) Las variables aleatorias unidimensionales X1 y X2 son independientes si y sólo si
f px2 | x1 q “ f X2 px2 q @x2 P CX2 y, análogamente, f px1 | x2 q “ f X1 px1 q @x1 P CX1 .
Demostración. ( ùñ ) Supongamos que X1 y X2 son independientes. Entonces
f X px1 , x2 q
f X px1 , x2 q “ f X1 px1 q f X2 px2 q ùñ f px2 | x1 q “ “ f X2 px2 q
f X1 px1 q
( ñù )
f px2 | x1 q “ f X2 px2 q ùñ f X px1 , x2 q “ f px2 | x1 q f X1 px1 q “ f X2 px2 q f X1 px1 q
Y por lo tanto, son independientes. Además, se puede probar lo mismo en el caso
de variables aleatorias discretas.

4.3 Transformadas de variables aleatorias. Momentos y función


característica
Y“gpXq“pg1 pXq,g2 pXqq

X “ pX1 , X2 q ” FX Y “ pY1 , Y2 q “ pg1 pX1 , X2 q, g2 pX1 , X2 qq

Dada una variable aleatoria X e Y “ gpXq, vamos a ver cómo calculamos FY .


Ejemplo. X “ pX1 , X2 q ” Discreta. Y tenemos que Y “ p| X1 |, X22 q.

x1
x2 ´1 0 1
PpX1 “ kq ùñ 5{12, 2{12, 5{12
´2 1{6 1{12 1{6
PpX2 “ rq ùñ 5{12, 5{12, 2{12
1 1{6 1{12 1{6

2 1{12 0 1{12

83
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Como qpX1 , X2 q “ pq1 pX1 , X2 q, q2 pX1 , X2 qq “ p|X1 |, X22 q y el soporte de la variable aleatoria
X es CX “ tpx1 , x2 q | x1 P t´1, 0, 1u, x2 P t´2, 1, 2uu, se tiene que

CY “ tpx1 , x2 q | y1 P t0, 1u, y2 P t1, 4uu

py1 , y2 q Valores de px1 , x2 q que dan lugar a py1 , y2 q PpY1 “ y1 , Y2 “ y2 q

p0, 1q p0, 1q 1{12 “ 1{12


p0, 4q p0, ´2q p0, 2q 1{12 ` 0 “ 1{12
p1, 1q p´1, 1q p1, 1q 1{6 ` 1{6 “ 1{3
p1, 4q p´1, ´2q p´1, 2q p1, ´2q p1, 2q 1{6 ` 1{12 ` 1{6 ` 1{12 “ 1{2

Pero, en el caso continuo, como veremos, la transformación es biyectiva.

Teorema 4.23. Sea X “ pX1 , X2 q una variable aleatoria bidimensional absolutamente


continua con función de densidad f X px1 , x2 q. Supongamos las siguientes afirmaciones:

a) La transformación Y “ gpXq : R2 Ñ R2 donde Y “ pY1 , Y2 q con Y1 “ g1 pX1 , X2 q


e Y2 “ g2 pX1 , X2 q es biyectiva. Es decir, existe la transformación inversa h “ g´1
definida sobre el soporte de la transformación, es decir

X1 “ h1 pY1 , Y2 q & X2 “ h2 pY1 , Y2 q.

b) Tanto la transformación como su inversa son continuas.


c) Existen las derivadas parciales

∂h1 ∂h1 ∂h2 ∂h2


, , , .
∂Y1 ∂Y2 ∂Y1 ∂Y2

d) El jacobiano de la transformación (inversa) es distinto de 0:



∂h1 ∂h1
∂Y ∂Y2
|J| “ 1 ‰ 0.
∂h2
∂Y ∂h2
1 ∂Y2

En estas condiciones, la función de densidad de la variable aleatoria Y “ pY1 , Y2 q viene


dada por
# ` ˘
f X ph1 py1 , y2 q, h2 py1 , y2 q ¨ |J| py1 , y2 q P gpCX q
f Y py1 , y2 q “ (4.23)
0 resto.

84
4 .3 Tr a n s f o r m a da s d e va r i a b l e s a l e at o r i a s

Ejemplo. Sea X “ pX1 , X2 q una variable aleatoria uniforme con soporte en CX “ p0, 1q ˆ
p0, 1q, es decir, X ” VpCX q. Y la variable aleatoria Y “ pY1 , Y2 q que viene dada por
Y1 “ g1 pX1 , X2 q “ X1 ` X2 ,
Y2 “ g2 pX1 , X2 q “ X1 ´ X2 .
Y1 `Y2 Y1 ´Y2
Despejando llegamos a que X1 “ “ h1 pY 11 , Y12 q y también X2 “ 2 “ h2 pY1 , Y2 q.
2
{2 {2
Comprobando el jacobiano vemos que es |J| “ 1{2 ´1{2 “ ´1{2 ‰ 0.De esta manera, como
conocemos la función de densidad de X:
#
1 px1 , x2 q P p0, 1q ˆ p0, 1q
f X px1 , x2 q “
0 px1 , x2 q R p0, 1q ˆ p0, 1q
podemos calcular CY y f Y :
CY “ gpCX q “ gpp0, 1q ˆ p0, 1qq “ tpx, yq | 0 ă y1 ` y2 ă 2 & 0 ă y1 ´ y2 ă 2u
# ` y `y y ´y ˘ #
1
f X 1 2 2 , 1 2 2 ¨ 21 py1 , y2 q P CY py1 , y2 q P CY
f Y py1 , y2 q “ “ 2
0 resto 0 resto

gpCX q “ CY
De manera gráfica, CX y CY quedarían
CX
así:

Observación (Pbm. 13). Sea X “ pX1 , X2 q una variable aleatoria continua con función 13/12/2012
de densidad f px1 , x2 q y sea Y1 “ g1 pX1 , X2 q, Y2 “ g2 pX1 , X2 q una transformación de R2
en R2 . Supongamos que la transformación g “ pg1 , g2 q tiene un número finito k de
inversas. Supongamos además que existe una partición de R2 , tAi ui“1,...,k , de forma que
la transformación g de Ai en R2 es biyectiva y la inversa viene dada por1
pi pi
X1 “ h1 pY1 , Y2 q & X2 “ h2 pY1 , Y2 q i “ 1, . . . , k.
Si suponemos que las derivadas parciales son continuas y además el jacobiano (rango
de la transformación) es distinto de cero
pi
∂h1 pY1 ,Y2 q ∂hpi1 pY1 ,Y2 q
∂Y ∂Y2
|Ji | “ pi 1 pi
‰ 0,

∂h 2 pY1 ,Y2 q ∂h 2 pY1 ,Y2 q
∂Y1 ∂Y2

de esta manera, la función de densidad asociada es


k ` ˘
∑ fX
pi pi
f Y py1 , y2 q “ h1 py1 , y2 q, h2 py1 , y2 q ¨ |Ji |.
i“1
1 Paraaclarar, la notación utilizada para representar la derivada n-ésima será f pnq ptq. En este momento se
trata de un índice, así que lo ponemos como f pi ptq, para diferenciar de la potencia f i ptq.

85
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

4.3.1 Momentos de una variable aleatoria bidimensional


Definición 4.24 (Esperanza de una variable aleatoria discreta). Sea X “ pX1 , X2 q una
variable aleatoria bidimensional discreta con función de masa PpX1 “ x1 , X2 “ x2 q y sea
g : R2 Ñ R, entonces se denomina esperanza de la variable aleatoria gpX1 , X2 q a la serie

ErgpX1 , X2 qs “ ∑ gpx1 , x2 q ¨ PpX1 “ x1 , X2 “ x2 q, (4.24)


px1 ,x2 qPCX

siempre y cuando ésta sea convergente.


Definición 4.25 (Esperanza de una variable aleatoria continua). Sea X “ pX1 , X2 q una
variable aleatoria bidimensional continua con función de densidad f px1 , x2 q y sea g : R2 Ñ
R. Se denomina esperanza de la variable aleatoria g a la expresión
Z
ErgpX1 , X2 qs “ gpx1 , x2 q ¨ f px1 , x2 q dx1 dx2 , (4.25)
R2

en caso de que converja.


Definición 4.26 (Momento respecto del origen). Se denomina momento respecto del origen
de órdenes pk, `q de la variable aleatoria bidimensional X “ pX1 , X2 q a la esperanza de la
variable aleatoria gpX1 , X2 q “ X1k ¨ X2` . Se representará mediante
“ ‰
αk` “ E X1k ¨ X2` . (4.26)

Observaciones.
k “ 1, ` “ 0 ùñ ErX1 s
µ “ pµ1 , µ2 q “ pErX1 s, ErX2 sq ” vector de medias de la
k “ 0, ` “ 1 ùñ ErX2 s variable aleatoria pX1 , X2 q
Definición 4.27 (Momento respecto de la media). Se denomina momento central o
momento respecto de la media de órdenes pk, `q de la variable aleatoria bidimensional
pX1 , X2 q a la esperanza de la variable aleatoria gpX1 , X2 q “ pX1 ´ α1,0 qk ¨ pX1 ´ α0,1 q` y se
denotará mediante “ ‰
µk` “ E pX1 ´ α1,0 qk ¨ pX1 ´ α0,1 q` . (4.27)
Observaciones (Covarianzas).
a) Si k “ 2 y ` “ 0, entonces µ2,0 “ VarrX1 s.
Si k “ 0 y ` “ 2, entonces µ0,2 “ VarrX2 s.
Si k “ 1 y ` “ 1, entonces µ1,1 “ ErpX1 ´ α1,0 q ¨ pX2 ´ α0,1 qs “ covarianza entre X1 y
X2 , que la representaremos por CovpX1 , X2 q.
b) A la matriz ˆ ˙
VarrX1 s CovpX1 , X2 q
ΣpXq “
CovpX1 , X2 q VarrX2 s
se la denomina matriz de varianzas y covarianzas de la variable aleatoria X.

86
4 .3 Tr a n s f o r m a da s d e va r i a b l e s a l e at o r i a s

c) CovpX1 , X2 q “ ErX1 X2 s ´ ErX1 s ErX2 s.


Demostración.

CovpX1 , X2 q “ µ1,1 “ ErpX1 ´ α1,0 q pX2 ´ α0,1 qs


“ ErX1 X2 ´ X1 α1,0 ´ α1,0 X2 ` α1,0 α0,1 s
“ ErX1 X2 s ´ α0,1 ErX1 s ´ α1,0 ErX2 s ` α1,0 α0,1
“ ErX1 X2 s ´ α0,1 α1,0 “ ErX1 X2 s ´ ErX1 s ErX2 s.

d) Si CovpX1 , X2 q “ 0, entonces se dice que las variables aleatorias X1 y X2 son


incorreladas.
e) Si X1 , X2 son independientes, entonces CovpX1 , X2 q “ 0.
Demostración.
Z Z
ErX1 X2 s “ x1 x2 f px1 , x2 q dx1 dx2 “ x1 x2 f X1 px1 q f X2 px2 q dx1 dx2
R2 R2
Z ´Z ¯
“ x1 f X1 px1 q x2 f X2 px2 q dx2 dx1 “ ErX2 s ErX1 s
R R

y, por lo tanto, CovpX1 , X2 q “ 0.


f) „ 
n n ` ˘
Var ∑ i “
X ∑ VarrXi s ` 2 ∑ Cov Xi , X j .
i“1 i“1 iăj
˘ `
Pero si las Xi son independientes entonces Cov Xi , X j “ 0 y por lo tanto
„n  n
Var ∑ Xi “ ∑ VarrXi s.
i“1 i“1

Demostración.
„n  „´ n „n ¯  „´ n 17/12/2012
2 n ¯2 
Var ∑ Xi “ E ∑ Xi ´ E ∑ Xi “ E ∑ Xi ´ ∑ ErXi s
i“1 i“1 i“1 i“1 i“1
y como la esperanza es un operador lineal
„´ n ¯2 
“ E ∑ Xi ´ ErXi s
i“1
„n 
“` ˘` “ ‰˘‰
“ E ∑ pXi ´ ErXi sq ` ∑ E Xi ´ ErXi s X j ´ E X j
2

i“1 i‰j
“ n ‰ “ ‰ “ “ ‰‰
“ ∑ E pXi ´ ErXi sq2 ` 2 ∑ E Xi ´ ErXi s E X j ´ E X j
i“1 iăj
n ` ˘
“ ∑ VarrXi s ` 2 ∑ Cov Xi , X j .
i“1 iăj

87
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

4.3.2 Función característica


Definición 4.28 (Función característica). Dada una variable aleatoria bidimensional
X “ pX1 , X2 q, se denomina función característica de X a la esperanza de la variable
aleatoria
gpX1 , X2 q “ eiptX1 `uX2 q . (4.28)
Es decir,
$
&∑ ∑

’ eiptx1 `ux2 q PpX1 “ x1 , X2 “ x2 q
“ ‰ x1 x2
ϕ X pt, uq “ E eiptX1 `uX2 q “ Z (4.29)


% eiptx1 `ux2 q f px1 , x2 q dx1 dx2
R2

Observaciones.
“ ‰ “ ‰
a) ϕ X pt, 0q “ E eitX1 “ ϕ X1 ptq, ϕ X p0, uq “ E eiuX2 “ ϕ X2 puq.
ˆ k`` ˙
1 ∂
b) αk` “ k`` ϕ X p0, 0q .
i ∂tk ∂u`
c) Si X1 y X2 son independientes, entonces ϕ X1 `X2 ptq “ ϕ X1 ptq ¨ ϕ X2 ptq.

Demostración.
“ ‰ Z itpx `x q
ϕ X1 `X2 ptq “ E eitpX1 `X2 q “ e 1 2 f X px1 , x2 q dx1 dx2
R2
Z
“ eitx1 eitx2 f X1 px1 q f X2 px2 q dx1 dx2
R2
Z
“ ϕ X2 ptq eitx1 f X1 px1 q dx1 “ ϕ X2 ptq ¨ ϕ X1 ptq.
R

Definición 4.29 (Familia de distribuciones reproductiva). Sea L una familia de distribu-


ciones. Entonces se dice que L es reproductiva si dadas X1 , X2 P L, entonces X1 ` X2 P L.

Ejemplo (1). Por lo tanto, la familia de las distribuciones binomiales es reproductiva


respecto del parámetro n (pero es fácil comprobar que no lo es respecto del parámetro p).
Ejemplo (2). También lo es la distribución Poisson Ppλq. Dadas dos distribuciones X1 “
Ppλ1 q y X2 “ Ppλ2 q, sus funciones características son
it ´1q it ´1q
ϕ X1 ptq “ eλ1 pe & ϕ X2 ptq “ eλ2 pe

y de esta manera la función característica de X1 ` X2 es


it ´1q it ´1q it ´1q
ϕ X1 `X2 ptq “ ϕ X1 ptq ¨ ϕ X2 ptq “ eλ1 pe eλ2 pe “ epλ1 `λ2 qpe

y por lo tanto X1 ` X2 ” Ppλ1 ` λ2 q.

88
4 .3 Tr a n s f o r m a da s d e va r i a b l e s a l e at o r i a s

Ejemplo (3). La distribución γpa, pq es reproductiva respecto de p o, lo que es lo mismo,


que si X1 “ γpa, p1 q y X2 “ γpa, p2 q, entonces

X1 ` X2 ” γpa, p1 ` p2 q.

Ejemplo (4). La Npµ, σq también, y respecto de ambos parámetros. Sean X1 ” Npµ1 , σ1 q y


X2 ” Npµ2 , σ2 q, de manera que sus funciones características son
t2 2 t2 2
ϕ X1 ptq “ eitµ1 ´ 2 σ1 & ϕ X2 ptq “ eitµ2 ´ 2 σ2
t2 2 2
ùñ ϕ X1 `X2 ptq “ ϕ X1 ptq ¨ ϕ X2 ptq “ eitpµ1 `µ2 q´ 2 pσ1 `σ2 q
´ b ¯
y, por lo tanto, X1 ` X2 ” N µ1 ` µ2 , σ12 ` σ22 .
Ejemplo (5). X1 , ..., Xn variables aleatorias independientes. Si todas son de la forma
n
Np0, 1q, vamos a ver cómo es χ2 “ ∑ Xi2 .
i“1

1 x2
f Xi pxq “ ? ¨ e´ 2

` 2 ˘ ` ? ? ˘ `? ˘ ` ? ˘
GX2 pxq “ P Xi ď x “ P ´ x ď Xi ď x “ FXi x ´ FXi ´ x
i
1 `? ˘ 1 ` ? ˘
gX2 pxq “ ? f Xi x ` ? f Xi ´ x
i 2 x 2 x
# $
0 xď0 &0 xď0
“ “ 1
x x 1 2
?1 e´ 2 ` ?1 e´ 2 xą0 % p 2 q1 x´ 12 e´ 12 x x ą 0
2 2πx 2 2πx Γp 2 q

y, debido a la reproductividad de la distribución γ respecto de p, nos queda


n ` ˘
∑ Xi2 ” γ a “ 21 , p “ n
2 .
i“1

Veamos ahora sus propiedades:

Su función de densidad $
&0
’ xď0
f pxq “ 1 ´ 12 x n2 ´1
n e x xą0

%
2 n{2
Γp 2 q
la media
“ ‰ “ ‰
E χ2n “ E γpa “ 21 , p “ n2 q “ n,
y la varianza
“ ‰ “ ‰ p
Var χ2n “ Var γpa “ 12 , p “ n2 q “ 2 “ 2n.
a
Y de esta manera se define la distribución chi (o ji) cuadrado, χ2 , con n grados de libertad

89
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

0.4 n“2
n“3
0.3 n
n“4
χ2n ” ∑ Xi2 n“5
i“1
0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10

4.4 Regresión y correlación


18/12/2012 Definición 4.30 (Esperanza condicionada). Sea pX, Yq una variable bidimensional con
función de densidad f X,Y px, yq y sea x P CX . Entonces se define la esperanza condicionada
como $Z

’ y ¨ f py | xq dy (continua)
&
CY
ErY | X “ xs “ (4.30)


% ∑ y ¨ PpY “ y | X “ xq (discreta).
yPCY

Proposición 4.31. Sea pX, Yq una variable bidimensional con función de densidad
f X,Y px, yq y sea x P CX . Entonces se tiene que

ErErY | X “ xss “ ErYs. (4.31)

Demostración.
„Z  Z ˆZ ˙
ErErY | Xss “ E y f py | xq dy “ y ¨ f py | xq dy f X pxq dx
CY CX CY
Z Z Z ˆZ ˙
“ y f px, yq dy dx “ y f px, yq dx dy
CX CY CY CX
Z
“ y f Y pyq dy “ ErYs.
CY

Definición 4.32 (Varianza condicionada). Sea pX, Yq una variable aleatoria bidimensional.
Se denomina varianza condicionada de Y dado el valor x P CX de la variable aleatoria X a
la expresión
$Z
’ 2
& py ´ ErY | X “ xsq ¨ f py | xq dy
’ (continua)
CY
VarrY | X “ xs “ (4.32)


% ∑ py ´ ErY | X “ xsq2 ¨ PpY “ y | X “ xq (discreta)
yPCY

90
4 .4 Re g r e s i ó n y c o r r e l ac i ó n

Proposición 4.33. “ ‰
E VarrY | Xs ` VarrErY | Xss “ VarrYs. (4.33)

Demostración.
“ “ ‰ ‰
ErVarrY | Xss “ E E Y 2 | X ´ ErY | Xs2
“ “ ‰‰ “ ‰ “ ‰ ” ı
“ E E Y 2 | X ´ E ErY | Xs2 “ E Y 2 ´ E ErY | Xs2
ahora, por otro lado,
“ ‰ “ ‰2
VarrErY | Xss “ E ErY | Xs2 ´ E ErY | Xs
“ ‰
“ E ErY | Xs2 ´ ErYs2

y, uniendo ambas cosas:


“ ‰
ErVarrY | Xss ` VarrErY | Xss “ E Y 2 ´ ErYs2 “ VarrYs.

4.4.1 Rectas de regresión


Imaginemos una variable aleatoria pX, Yq, y nosotros aproximamos Y « aX ` b. Entonces 20/12/2012
nuestro error será

Z “ Y ´ aX ´ b que también es variable aleatoria.


“ ‰ “ ‰
Entonces, si entendemos como valorar el error ” E Z2 “ E pY ´ aX ´ bq2 , vamos a
buscar a y b para que el error sea mínimo:
“ ‰ “ ‰ “ ‰
gpa, bq “ E pY ´ aX ´ bq2 “ E Y 2 ` a2 E X 2 ` b2 ´ 2a ErX Ys ´ 2b ErYs ` 2ab ErXs,

calculamos ahora las derivadas parciales

∂ “ ‰ “ ‰
E pY ´ aX ´ bq2 “ 2a E X 2 ´ 2 ErX Ys ` 2b ErXs “ 0,
∂a
∂ “ ‰
E pY ´ aX ´ bq2 “ 2b ´ 2 ErYs ` 2a ErXs “ 0.
∂b
Y con todo esto, nos ponemos“a obtener
‰ a y b. “ ‰
b “ ErYs ´ a ErXs ùñ a “ E X 2 ` ErYs ErXs ´ a E X 2 “ ErX Ys y también obtene-
` “ ‰ ˘
mos que a E X 2 ´ ErXs2 “ ErX Ys ´ ErXs ErYs. De manera que

CovpX, Yq CovpX, Yq
a“ & b “ ErYs ´ ErXs.
VarrXs VarrXs
Y con todo esto, la recta que nos queda al aproximar Y « aX ` b, cuyo “error” es mínimo,
es de la forma
CovpX, Yq CovpX, Yq
y“ ¨ x ` ErYs ´ ErXs. (4.34)
VarrXs VarrXs

91
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

Definición 4.34 (Recta de regresión). Con todo lo anterior, definimos la recta de regresión
de Y sobre X como
CovpX, Yq
y ´ ErYs “ px ´ ErXsq, (4.35)
VarrXs
y, análogamente, la recta de regresión de X sobre Y como

CovpX, Yq
x ´ ErXs “ py ´ ErYsq. (4.36)
VarrYs

Definición 4.35 (Error residual). Se denomina error residual de la regresión de X sobre Y y


análogamente, error residual de la regresión de Y sobre X a las expresiones
ˆ ˙
CovpX, Yq
eY | X “ Y ´ ErYs ` pX ´ ErXsq , (4.37)
VarrXs
ˆ ˙
CovpX, Yq
eX | Y “ X ´ ErXs ` pY ´ ErYsq , (4.38)
VarrYs

respectivamente. Que de nuevo, resultan ser una variable aleatoria, cuya varianza es
„ ˆ ˙
“ ‰ CovpX, Yq
Var eY | X “ Var Y ´ ErYs ` pX ´ ErXsq
VarrXs
ˆ ˙
“ 2
‰ CovpX, Yq 2 “ ‰
“ E pY ´ ErYsq ` E pX ´ ErXsq2
VarrXs
CovpX, Yq “ ‰
´2¨ E pX ´ ErXsq pY ´ ErYsq
VarrXs
ˆ ˙2
CovpX, Yq CovpX, Yq
“ VarrYs ` VarrXs ´ 2 ¨
VarrXs VarrXs
ˆ ˙2
CovpX, Yq CovpX, Yq
“ VarrYs ´ “ VarrYs ´ VarrYs
VarrXs VarrXs VarrYs
ˆ ˙
CovpX, Yq2
“ VarrYs ¨ 1 ´ .
VarrXs VarrYs

Definición 4.36 (Coeficiente de correlación lineal). Sean X e Y dos variables aleatorias


para las que existen VarrXs y VarrYs y además son estrictamente positivas. Se denomina
coeficiente de correlación lineal a la expresión

CovpX, Yq
ρ“ a .
VarrXs VarrYs
“ ‰
Observaciones. Var eY | X “ VarrYs ¨ p1 ´ ρ2 q, porque se me pone en la punta del rabo.

a) Si ρ “ 0 ùñ CovpX, Yq “ 0 ùñ X, Y son incorreladas.

92
4 .4 Re g r e s i ó n y c o r r e l ac i ó n

b) ´1 ď ρ ď 1.
“ ‰
Demostración. Var eY | X “ VarrYs ¨ p1 ´ ρ2 q ě 0 ùñ 1 ´ ρ2 ě 0 lo que obliga a que
´1 ď ρ ď 1.
c) Si |ρ| “ 1, entonces las variables X e Y están en dependencia funcional y las dos
rectas de regresión coinciden.
“ ‰
Demostración. |ρ| “ 1 ùñ Var eY | X “ 0 ùñ Y “ ErYs ` CovpX,Yq
VarrXs pX ´ ErXsq con
probabilidad 1.
a
CovpX, Yq VarrYs CovpX, Yq
Y ´ ErYs “ pX ´ ErXsq “ a a
VarrXs VarrXs VarrYs VarrXs
a
VarrYs
“ ρ¨ a pX ´ ErXsq
VarrXs
CovpX, Yq pX ´ ErXsq
X ´ ErXs “ pY ´ ErYsq ùñ Y ´ ErYs “ VarrYs “
VarrYs CovpX, Yq
?
VarrXs a
VarrYs 1 VarrYs
“ pX ´ ErXsq CovpX,Yq “ ¨a pX ´ ErXsq
? ρ VarrXs
VarrYs¨VarrYs

1
Y si |ρ| “ 1 ùñ ρ “ ρ y por lo tanto las dos rectas coinciden.
d) La recta de X sobre Y es la que tiene mayor pendiente en valor absoluto.
?
VarrYs
Demostración. Si ρ ¨ ? ą 0 ùñ ρ ą 0 ùñ ρ1 ą 1 ą ρ ùñ la recta de
VarrXs
regresión de X sobre Y tiene mayor pendiente.
?
VarrYs
Si ρ ¨ ? ă 0 ùñ ρ ă 0 ùñ 1ρ ă ´1 ă ρ ùñ la recta de regresión de Y
VarrXs
sobre X es mayor que la de X sobre Y.
08/01/2013
e) Las rectas de regresión se cortan en pErXs, ErYsq con |ρ| ‰ 1.
Demostración. Habíamos visto que la recta de regresión de Y sobre X y la de X
sobre Y son, respectivamente
d d
VarrYs 1 VarrYs
y ´ ErYs “ ρ px ´ ErXsq & y ´ ErYs “ px ´ ErXsq
VarrXs ρ VarrXs

y por lo tanto se tiene que

1
ρ px ´ ErXsq “ px ´ ErXsq
ρ
ˆ ˙
1
ρ´ ¨ px ´ ErXsq “ 0 ùñ x “ ErXs ùñ y “ ErYs.
ρ

93
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

4.4.2 Curvas de regresión


Tenemos pX, Yq con Y “ gpXq. Entonces
ZZ
“ 2‰
E pY ´ gpXqq “ py ´ gpxqq2 f px, yq dx dy
ZZ
“ py ´ gpxqq2 f py | xq f pxq dx dy
Z ˆZ ˙
2
“ py ´ gpxqq f py | xq dy f pxq dx

y ahora lo que tenemos que hacer es minimizar esta función (con x “ cte. y gpxq “ a), de
manera que la función a minimizar queda
Z
py ´ aq2 ¨ f px | yq dy “ Ni puta idea de lo que hace aquí, pero concluimos que

ErY | X “ xs “ a

de manera que finalmente quedan

gpxq “ ErY | X “ xs ” curva de regresión de Y sobre X,


gpyq “ ErX | Y “ ys ” curva de regresión de X sobre Y.

De esta manera los errores al aproximar por la curva de regresión son Y ´ ErY | Xs y
X ´ ErX | Ys respectivamente. Veamos ahora su varianza:
ˆ ˙
VarrErY | Xss
VarrY ´ ErY | Xss “ VarrYs 1 ´
VarrYs
“ ‰
“ E pY ´ ErY | Xsq2 ´ loooooooooooooooooooon
ErY ´ ErY | Xss2
pErYs´ErYsq2 “0
“ ‰
“ E pY ´ ErYs ` ErYs ´ ErY | Xsq2
“ ‰ “ ‰
“ E pY ´ ErYsq2 ` E pErYs ´ ErY | Xsq2
` 2 ErpY ´ ErYsq pErYs ´ ErY | Xsqs
” ı
“ VarrYs ´ E pErY | Xs ´ ErYsq2 . . .
“ ...
“ VarrYs ´ VarrErY | Xss
ˆ ˙
VarrErY | Xss
“ VarrYs 1 ´
VarrYs
Definición 4.37 (Razón de correlación). Sean X e Y dos variables aleatorias con VarrXs,
VarrYs ą 0. Se denomina razón de correlación de Y sobre X a las expresiones
VarrErY | Xss VarrYs ´ ErVarrY | Xss ErVarrY | Xss
ηY2 | X “ “ “ 1´ ,
VarrYs VarrYs VarrYs

94
4. 5 Di s t r i b u c i o n e s b i d i m e n s i o na l e s n o ta b l e s

y el de X sobre Y (análogo)

2 VarrErX | Yss
ηX |Y “ .
VarrXs
2
Teorema 4.38. Se comprueba que 0 ď ηY2 | X , ηX | Y ď 1.

Demostración.
ˆ ˙
VarrErY | Xss ` ˘
VarrY ´ ErY | Xss “ VarrYs 1 ´ “ VarrYs 1 ´ ηY2 | X ě 0,
VarrYs
y de esta manera
0 ď ηY2 | X ď 1 (análogo para el otro caso).

Observaciones.

a) Si ηY2 | X “ 1 ùñ VarrY ´ ErY | Xss “ 0 ùñ Y “ ErY | Xs con probabilidad 1. Y


por lo tanto hpxq “ ErY | X “ xs, lo que significa toda la probabilidad se concentra
en la curva de regresión.
b) Si ηY2 | X “ 0 ùñ VarrErY
VarrYs
| Xss
“ 0 ùñ VarrErY | Xss “ 0 y, de esta manera tenemos
“ 2‰
que, E pErY | Xs ´ ErYsq “ 0 ùñ ErY | Xs “ ErYs ùñ @x gpxq “ ErYs. Y de
manera análoga, si ηX 2
| Y “ 0 ùñ @y gpyq “ ErXs.
` ˘ ` ˘
c) El error de la recta es VarrYs 1 ´ ρ2 ě VarrYs 1 ´ ηY2 | X que es el error de la
curva, y por lo tanto ρ2 ď ηY2 | X y también ρ2 ď ηX
2
| Y.

4.5 Distribuciones bidimensionales notables


4.5.1 Normal bidimensional
Si una variable aleatoria pX, Yq sigue esta distribución, su función de distribución es
˜ „ˆ ˙2
1 1 x ´ µX
f X,Y px, yq “ a ¨ exp ´ ¨
2πσX σY 1 ´ ρ2 2 p1 ´ ρ2 q σX
ˆ ˙2 ¸
x ´ µ X y ´ µY y ´ µY
´ 2ρ `
σX σY σY

donde las variables toman los valores: ´∞ ă x, y ă ∞, ´1 ă ρ ă 1, 0 ă σX , σY y


´∞ ă µ X , µY ă ∞. Veamos ahora sus propiedades:
10/01/2013
La función de densidad
Z
f Y pyq “ f px, yq dx ùñ Y ” NpµY , σY q
R

95
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s
ˆ b ˙
σX
N µ X ` ρ py ´ µY q , σX 1 ´ ρ2
σY
gpyq “ ErX | Y “ ys “ µ X ` ρ py ´ µY q

la función característica
´ 1` 2 2 ˘¯
ϕ X,Y pu, vq “ exp iuµ X ` ivµY ´ u σX ` 2ρuvσX σY ` v2 σX2 ,
2
la esperanza
„ 2 
1 ∂
ErX Ys “ 2 ϕ X,Y p0, 0q “ ρ ¨ σX σY ¨ µ X µY ,
i ∂u ∂v
la covarianza
CovpX, Yq “ ErX Ys ´ ErXs ¨ ErYs “ ρ ¨ σX σY ` µ X µY ´ µ X µY “ ρ ¨ σX σY ,

el coeficiente de correlación
CovpX, Yq ρ ¨ σX σY
ρ“ “ “ ρ,
σX σY σX σY
y la matriz de varianzas y covarianzas 1
ˆ ˙
σX2 ρ ¨ σX σY
ΣpX, Yq “
ρ ¨ σX σY σY2 0.5

2
0
´2 0
´1 0
1
2 ´2

96
4.6 E j e rc i c i o s

4.6 Ejercicios

Hoja 4 – Variables
aleatorias
multidimensionales

1.- Estudiar si
½
1, si x + 2y ≥ 1,
F (x, y) =
0, si x + 2y < 1,

es una función de distribución en IR2 .

2.- Dada la variable aleatoria 2-dimensional (X, Y ) tal que


1
P (X = 1, Y = 0) = P (X = 0, Y = 1) = P (X = 1, Y = 1) = ,
3
calcular la función de distribución conjunta de (X, Y ) y las funciones de dis-
tribución marginales de X e Y .

3.- Sea (X, Y ) una variable aleatoria 2-dimensional con distribución uniforme
sobre el recinto
n x o
C = (x, y) ∈ IR2 : y ≤ , x ≤ 3, y ≥ 0 .
3
Calcular la función de densidad conjunta de (X, Y ), la función de distribución
conjunta de (X, Y ) y las distribuciones marginales de X e Y .

4.- Dada la variable aleatoria 2-dimensional (X, Y ) con función de densidad


conjunta
½ −1
2 sen(x + y), si 0 ≤ x ≤ π/2, 0 ≤ y ≤ π/2,
f (x, y) =
0, en caso contrario,

calcular:
(4.a) Las esperanzas de X e Y .

15

97
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

(4.b) La matriz de varianza-covarianzas de (X, Y ).


5.- Sea (X, Y ) una variable aleatoria 2-dimensional con función de densidad
f (x, y) = 24y(1 − x − y) sobre el recinto C = {(x, y) ∈ IR2 : x + y ≤ 1, x ≥ 0, y ≥
0}. Calcular:
(5.a) La función de distribución conjunta.
(5.b) Las funciones de densidad marginales.
(5.c) Las funciones de densidad condicionadas.
6.- Se sitúan de forma aleatoria e independiente N puntos en el intervalo (0, T ).
Si X representa la distancia de 0 al primer punto e Y denota la distancia de 0 al
segundo punto, entonces calcular la distribución conjunta y las correspondientes
marginales de (X, Y ).

7.- La probabilidad de que desde un huevo nazca un insecto es p. En una flor,


el número de huevos puestos por estos insectos sigue una distribución Poisson
de media λ.
(7.a) Calcular la distribución del número de insectos que nace en una flor.
(7.b) Se ha observado una flor y se ha constatado que el número de insectos
que han nacido en ella ha sido n. Calcular la distribución del número de
huevos que habı́a en la flor.
8.- Sea ξ una variable aleatoria discreta con función de masa
1
p(x) = , x = 1, 2, ...
2x
Supongamos que η/ξ = x es una variable aleatoria con función de densidad

f (y/x) = x(1 − y)x−1 , 0 < y < 1.

Determinar la distribución de η.

9.- Sea X una variable aleatoria con distribución Exponencial de parámetro


λ = 1. Supongamos que Y /X = x es una variable aleatoria con función de
densidad
½
xy −(x+1) , si y > 1,
f (y/x) =
0, en caso contrario.

Calcular:
(9.a) La función de densidad conjunta.
(9.b) La función de densidad marginal de Y .
(9.c) La función de densidad de X/Y = y.

16

98
4.6 E j e rc i c i o s

10.- Se considera la variable aleatoria 2-dimensional (ξ, η), donde ξ sigue una
distribución Poisson de parámetro λ y η/ξ = x sigue una distribución Normal
de media x2 − 2x y varianza σ 2 . Calcular la esperanza de η y la matriz de
varianza-covarianzas.

11.- Calcular la matriz de varianza-covarianzas de la variable aleatoria 2-dimen-


sional con función caracterı́stica
2 2
9e3i(t+2u)−(t +4u )/2
φ(t, u) = .
(3 − it)2
12.- Se considera la variable aleatoria 2-dimensional (ξ, η) con función de masa
1 3
P (−1, −1) = , P (−1, 0) = , P (−1, 1) = 0,
16 16
1 1 3
P (0, −1) = , P (0, 0) = , P (0, 1) = ,
16 4 16
1 1 1
P (1, −1) = , P (1, 0) = , P (1, 1) = .
8 16 16
Demostrar que φξ+η (t) = φξ (t)φη (t) y mostrar que, sin embargo, ξ y η no son
independientes.

13.- Sea (X1 , X2 ) una variable aleatoria 2-dimensional con función de densi-
dad
½
1, si 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1,
f (x1 , x2 ) =
0, en caso contrario.
Se considera la transformación (Y1 , Y2 ), donde Y1 = max{X1 , X2 } e Y2 =
min{X1 , X2 }. Calcular la función de densidad de (Y1 , Y2 ).

14.- Sea (X, Y ) una variable aleatoria 2-dimensional con función de densidad
uniforme en el recinto
© ª
C = (x, y) ∈ IR2 : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 .
Calcular las distribuciones de Z y (Z, T ), donde Z = X + Y y T = X − Y .

15.- Sea (ξ1 , ξ2 ) una variable aleatoria 2-dimensional con función de densidad
½
4xy, si 0 < x < 1, 0 < y < 1,
f (x, y) =
0, en caso contrario.
Hallar la distribución conjunta de (η1 , η2 ), donde η1 = ξ1 +ξ2 y η2 = max{ξ1 , ξ2 }.

16.- Se consideran las variables aleatorias X e Y independientes, donde X ∼


U nif orme(1, 3) e Y tiene función de densidad
½ −1 2−y
2 e , si y > 2,
fY (y) =
0, en caso contrario.
Calcular:

17

99
4 Varia b l e s a l e at o r i a s m u lt i d i m e n s i o na l e s

(16.a) La distribución conjunta de (Z, W ), donde Z = X/Y y W = XY .


(16.b) La distribución marginal de Z.
17.- Sean X1 , ..., Xn+1 variables aleatorias independientes e idénticamente dis-
tribuidas según una distribución Bernoulli de parámetro p. Sean
n
Y n+1
Y
Vn = Xi y Vn+1 = Xi .
i=1 i=1

Calcular la distribución conjunta de (Vn , Vn+1 ), su función caracterı́stica y de-


ducir si Vn y Vn+1 son o no independientes.

18.- Sean X e Y variables aleatorias independientes e idénticamente distribuidas


con distribución Exponencial de parámetro λ = 1. Calcular la distribución de
T = |X − Y |.

19.- Sea (ξ1 , ξ2 ) una variable aleatoria con función de densidad


½ −1 −x
2 e 1 , si x1 > 0, −1 < x2 < 1,
f (x1 , x2 ) =
0, en caso contrario.

Hallar la distribución de la variable aleatoria η = |ξ1 + ξ2 |.

20.- Sea (X, Y ) una variable aleatoria 2-dimensional con función de densidad
½ 2 −ky
k e , si 0 < x < y,
f (x, y) =
0, en caso contrario.

(20.a) Hallar la probabilidad del recinto [0, 1] × [0, 1].


(20.b) Determinar los valores de k para que f sea una función de densidad.
(20.c) Demostrar que X e Y − X son independientes.
(20.d) Escribir la curva (general) de regresión y la recta de regresión de Y
sobre X.
21.- Consideremos la variable aleatoria 2-dimensional (X, Y ) con distribución
uniforme en el recinto limitado por las rectas y = x, x = −y, y = 1 e y = −1;
es decir, f (x, y) = 1/2 para (x, y) ∈ C = {(x, y) ∈ IR2 : |x| < |y| < 1}.
(21.a) Calcular la curva (general) de regresión de Y sobre X.
(21.b) Estudiar si X e Y con independientes y/o incorreladas.
22.- Consideremos las variables aleatorias X e Y , con rectas de regresión
½
3x + 2y − 26 = 0,
6x + y − 31 = 0.

18

100
4.6 E j e rc i c i o s

Calcular las medias marginales y el coeficiente de correlación. Identificar cuál


es la recta de regresión de Y sobre X.

23.- Se considera una variable aleatoria (X, Y ) con distribución N ormal2 . Se


sabe que las rectas de regresión tienen por ecuaciones x − y + 2 = 0, 3x −
10y + 40 = 0; y que la suma de las varianzas de X e Y es 1.3. Determinar la
correspondiente función de densidad.

19

101
5 Convergencias de variables aleatorias

5.1 Tipos de convergencias


Imaginemos que tenemos una sucesión de variables aleatorias tXn unPN

Xn : pΩ, A, Pq Ñ pR, BpRqPq de manera que Xn pωq ÝÝÝÑ Xpωq @ω P Ω,


nÑ∞

pero la convergencia puntual puede resultar demasiado estricta. Veamos otros tipos de
convergencia.
Definición 5.1 (Convergencia casi segura). Sea tXn unPN una sucesión de variables aleato-
rias. Se dice que tXn unPN converge casi seguramente a la variable aleatoria X : pΩ, A, Pq Ñ
pR, BpRqq si
` (˘
P ω P Ω | lim Xn pωq “ Xpωq “ 1, o, equivalentemente, (5.1)
n
` (˘
P ω P Ω | lim Xn pωq ‰ ω “ 0 (5.2)
n

c.s.
y lo expresaremos como Xn ÝÝÑ X.
Observaciones.
(
a) ω P Ω | lim Xn pωq “ Xpωq ⊂ A.
nÑ∞
Demostración. Tenemos que ω P A si y sólo si @k P N D m P N, @n ě m se tiene
que | Xn pωq ´ Xpωq| ă 1k , que ocurre si y sólo si
∞ !
∞ [
\ ∞ \
1)
ωP ω P Ω | | Xn pωq ´ Xpωq| ă P A.
k“1 m“1 n“1
k
loooooooooooooooooooooooooooon
p| Xn ´X |q´1 p´∞, 1k qPA

b) Unicidad del límite:


c.s. ` c.s. ˘
Xn ÝÝÑ X ùñ Xn ÝÝÑ Y ðñ X “ Y ,
c.s.

donde con “ estamos indicando que el conjunto de puntos en los cuales X es


c.s.
distinta de Y tiene probabilidad cero.
Demostración. ( ùñ ) Es demasiado larga.
( ñù ) Es demasiado. No hago la demostración.

103
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

´[
∞ ¯
c.s.
c) Xn ÝÝÑ X ðñ @ε ą 0 lim P tω P Ω | | Xm pωq ´ Xpωq| ě 0u “ 0 y, de
nÑ∞
m“n
´\
∞ ¯
igual manera, si y sólo si @ε ą 0 lim P tω P Ω | | Xm pωq ´ Xpωq| ă εu “ 1.
nÑ∞
m“n
c.s. c.s.
d) Si Xn ÝÝÑ X y g : R Ñ R continua, entonces gpXn q ÝÝÑ gpXq.
e) +
c.s.
Xn ÝÝÑ X c.s. c.s.
c.s.
ùñ Xn ` Yn ÝÝÑ X ` Y y también Xn ¨ YN ÝÝÑ X ¨ Y
Yn ÝÝÑ Y

Definición 5.2 (Convergencia en probabilidad). Sea tXn unPN una sucesión de variables
aleatorias y sea X : pΩ, A, Pq Ñ pR, BpRqq. Se dice que tXn unPN converge en probabilidad
a la variable aleatoria X si se verifica

@ε ą 0 lim Pptω P Ω | | Xn pωq ´ Xpωq| ě εuq “ 0 y, análogamente, (5.3)


nÑ∞
lim Pptω P Ω | | Xn pωq ´ Xpωq| ă εuq “ 1. (5.4)
nÑ∞

P.
Lo expresaremos como Xn ÝÑ X.

Observaciones (Condición suficiente para la convergencia en probabilidad).


P. ` P. ˘
a) Xn ÝÑ X ùñ Xn ÝÑ Y ðñ X “ Y .
c.s.
c.s. P.
b) Xn ÝÝÑ X ùñ Xn ÝÑ X.
Demostración.

[
tω P Ω | | Xn pωq ´ Xpωq| ě εu ⊂ tω P Ω | | Xm pωq ´ Xpωq| ě εu
m“n
ˆ ∞
[
lim Pptω P Ω | | Xn pωq ´ Xpωq| ě εuq ď lim P tω P Ω tal que
nÑ∞ nÑ∞
m“n
˙
| Xn pωq ´ Xpωq| ě εu

14/01/2013
c) tXn unPN una sucesión de variables aleatorias con ErXn s ÝÝÝÑ a y VarrXn s ÝÝÝÑ 0.
nÑ∞ nÑ∞
P.
Entonces Xn ÝÑ X con X | PpX “ aq “ 1.
Demostración.
“ ‰ “ ‰
E pXn ´ aq2 E Xn2 ´ 2 aXn ` a2
@ε ą 0 Ppt| Xn ´ a| ě εuq ď “
ε2 ε2
2
VarrXn s ` ErXn s ´ 2 a ErXn s ` a2
“ ,
ε2

104
5 .1 Ti p o s d e c o n v e r g e n c i a s

y por lo tanto, cuando llegamos al límite,


VarrXn s ` ErXn s2 ´ 2 a ErXn s ` a2
@ε ą 0 lim Ppt| Xn ´ a| ě εuq ď lim
n n ε2
2
0`a ´2a `a2 2
“ “ 0.
ε2

P. c.s.
d) Si Xn ÝÑ X ùñ
­ Xn ÝÝÑ X.
1
Demostración. Un contraejemplo. Sea P tal que PpXn “ 0q “ 1 ´ n y PpXn ‰ ˘1q “
1
2n , entonces
´ 1¯ ´ 1 ¯ ´ 1 ¯
ErXn s “ 0 1 ´ `1 ´1 “ 0,
n 2n 2n
“ ‰ ´ 1 ¯ ´ 1 ¯ ´ 1 ¯ 1
VarrXn s “ E Xn2 ´ ErXn s2 “ 02 1 ´ ` 12 ` p´1q2 “ ,
n 2n 2n n
y, llegando al límite,
P.
VarrXn s ÝÝÝÑ 0 y si aplicamos (c) Xn ÝÑ X X | PpX “ 0q “ 1
nÑ∞

Ahora, por otro lado


ˆ ∞
c.s. \
Xn ÝÝÑ X X | PpX “ 0q “ 1 ðñ @ε ą 0 lim P tω P Ω tal que
nÑ∞
m“n
˙
| Xm pωq ´ Xpωq| ă εu “ 1
ˆ ∞ ˙ ˆ ∞ ˙
\ \
1“P tω P Ω | | Xm pωq| ă εu “ P tω P Ω | Xm pωq “ 0u
m“n m“n
ˆ 2n ˙
\
ă tω P Ω | Xm pωq “ 0u
m“n
2n ´ 1¯ ´ 1 ¯ n´1
“ ∏ PpXn “ 0q “ 1´
n
¨¨¨ 1´
2n

2n
m“n
pero resulta que
ˆ ∞ ˙
\ 1 c.s.
lim P tω P Ω | Xm pωq ă εu ă ùñ Xn ÝÝ
­ Ñ X.
nÑ∞
m“n
2

Definición 5.3 (Convergencia


“ 2‰ en media cuadrática). Sea tXn unPN una sucesión de varia-
bles aleatorias
“ ‰ con E Xn ă ∞ @n y X : pΩ, A, Pq Ñ pR, BpRqq una variable aleatoria
con E X 2 ă ∞. Se dice que tXn unPN converge en media cuadrática a X si se verfica que
“ ‰
lim E pXn ´ Xq2 “ 0. (5.5)
n

Observaciones.

105
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

m.c. m.c.
a) Xn ÝÝÝÑ X ùñ pXn ÝÝÝÑ Y ðñ X “ Yq.
c.s.
m.c. P.
b) Xn ÝÝÝÑ X ùñ Xn ÝÑ X.
Demostración.
“ ‰
E pXn ´ Xq2
@ε ą 0 Pptω P Ω | | Xn pωq ´ Xpωq| ě εuq ď ÝÝÝÑ 0
ε2 nÑ∞

P.
y de esta manera Xn ÝÑ X.
c.s. m.c.
c) Xn ÝÝÑ X ùñ
­ Xn ÝÝÝÑ X.
Demostración. Sea pΩ, A, Pq un espacio de probabilidad donde Ω “ p0, 1q, A es
BpRq restringida a p0, 1q y Ppa, bq “ b ´ a. Sea tXn unPN de manera que
# ` ˘
0 ω P 0, 1 ´ n1
Xn pωq “
1 resto

entonces
´! )¯
c.s.
ω P Ω | lim Xn pωq “ 0 “ Ppp0, 1qq “ 1 ùñ Xn ÝÝÑ X
P
nÑ∞
“ ‰ ` ` ˘(˘
E pXn ´ Xq2 “ 02 P ω P Ω | ω P 0, 1 ´ n1
` ` ˘(˘
` n2 P ω P Ω | ω P 1 ´ n1 , 1
1
“ n2 ¨ “ n ÝÝÝÑ ∞ ùñ no converge en media cuadrática.
n nÑ∞

Definición 5.4 (Convergencia en ley). Sea tXn unPN una sucesión de variables alea-
torias. Se dice que tXn unPN converge en ley o distribución hacia la variable aleatoria
X : pΩ, A, Pq Ñ pR, BpRqq si

lim Fn pxq “ FX pxq cualquiera que sea x punto de continuidad de FX . (5.6)


n

Observaciones.

a) Xn y X pueden no ser a la vez discretas o continuas.


b) En los puntos de discontinuidad de FX pxq la sucesión tFn pxqu puede tender a FX pxq,
a otro límite o, incluso, no existir su límite.
L.
c) Si Xn ÝÑ X ùñ X es única c.s.
L. L.
d) Si Xn ÝÑ X y g es continua, entonces gpXn q ÝÑ gpXq.
,
L. L.
Xn ÝÑ X . Xn ` Yn ÝÑ X ` Y
ùñ
L. L.
Y ÝÑ Y - n X ¨ Y ÝÑ X ¨ Yn n

106
5 .1 Ti p o s d e c o n v e r g e n c i a s

e) Sea tϕn unPN la sucesión de funciones características asociadas a tXn unPN donde ϕn
está a sociada a Xn y sea
ϕptq “ lim ϕn ptq.
n

L.
Entonces si ϕ es continua en t “ 0 existe una variable aleatoria X tal que Xn ÝÑ X
y ϕ es la función característica de X.
P. L.
Teorema 5.5. Si Xn ÝÑ X ùñ Xn ÝÑ X.

Demostración. Sea FX es la función de distribución de X y tomamos x de tal forma que x


sea un punto de continuidad de FX ,

FXn pxq “ Pptω P Ω | Xn pωq ď xuq “ Pptω P Ω | Xn pωq ď x, Xpωq ď x ` δuq


` Pptω P Ω | Xn pωq ď x, Xpωq ą x ` δuq
ď Pptω P Ω | Xpωq ď x ` δuq ` Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq
“ FX px ` δq ` Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq

Ahora, por otro lado,

FX px ´ δq “ Pptω P Ω | Xpωq ď x ´ δuq “ Pptω P Ω | Xpωq ď x ´ δ, Xn pωq ď xuq


` Pptω P Ω | Xpωq ď x ´ δ, Xn pωq ą xuq
ď Pptω P Ω | Xn pωq ď xuq ` Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq
“ FXn pxq ` Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq

y por lo tanto

Fx px ´ δq ´ Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq ď


ď FXn pxq ď FX px ` δq ` Pptω P Ω | | Xn pωq ´ Xpωq| ą δuq
P.
ùñ Xn ÝÑ X de manera que
FX px ´ δq ´ 0 ď lim inf FXn pxq ď lim sup FXn pxq ď FX px ` δq.
nÑ∞ n

Si se hace tender δ a cero y tenendo presente que x era un punto de continuidad de FX


L.
se tiene que D lim FXn pxq “ FX pxq ùñ Xn ÝÑ X.

L. P. 15/01/2013
Teorema 5.6. Sea tXn u Xn ÝÑ X pX | PpX “ cq “ 1q ùñ Xn ÝÑ c.

Demostración.
# #
0 xăc FX pxq “ 0 xăc
FX pxq “ lim FXn pxq “
1 xěc n FX pxq “ 1 xěc

107
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

@ε ą 0 lim Pptω P Ω | | Xn pωq ´ c| ě εuq “ lim Pptω P Ω | Xn pωq ď c ´ εuq


n nÑ∞
` lim Pptω P Ω | Xn pωq ě ε ` cuq
nÑ∞
“ lim FXn pc ´ εq ` 1 ´ lim Pptω P Ω | Xn pωq ă c ` εuq
nÑ∞ n
ď lim FXn pc ´ εq ` 1 ´ lim Pptω P Ω | Xn pωq ď c ` ε{2uq
nÑ∞ nÑ∞
´ ε¯
“ lim FXn pc ´ εq ` 1 ´ lim FXn c ` “ 0`1´1 “ 0
n nÑ∞ 2
P.
y, por lo tanto, Xn ÝÑ X | PpX “ cq “ 1.

Ejemplo. tXn unPN variables aleatorias idénticamente distribuidas, y la variable aleatoria


bidimensional pX, Xn q, de la que sabemos que

1
PpX “ 0, Xn “ 1q “ PpX “ 1, Xn “ 0q “ .
2
L. P.
comprobar si Xn ÝÑ X y Xn ÝÑ P.

Solución.
$

’ xă0 0
&
L.
X FXn pxq “ 0 ď x ă 1 1{2 ÝÝÝÑ FX pxq ùñ Xn ÝÑ X

’ nÑ∞
%
Xn 0 1 PpXn “ kq Xě1 1
$
0 0 1{2 1{2 ’
&0
’ xă0
1 1{2 0 1{2 FX pxq “ 1{2 0 ď x ă 1


%1 xě1

Ahora, si ε ą 1{2 Pp| Xn ´ X | ą 1{2q “ Pp| Xn ´ X | “ 1q “ PpXn “ 0, X “ 1q ` PpXn “


P.
1, X “ 0q “ 1{2 ` 1{2 “ 1. Y de esta manera Xn ÝÑ
­ X. đ

5.2 Leyes de los grandes números


5.2.1 Leyes débiles de los grandes números
Definición 5.7 (Ley débil de los grandes números). Una sucesión de variables aleatorias
tXn u se dice que obedece a la ley débil de los grandes números (L.D.G.N.) si existe una
sucesión de constantes tBn uÒ∞ Bn ą 0, y una sucesión de números reales tAn u tales
que
n
Sn ´ An P.
ÝÑ 0 S n “ ∑ Xi . (5.7)
Bn i“1

108
5. 2 Le y e s d e l o s g r a n d e s n ú m e ro s

Teorema 5.8 (L.D.G.N. de Tchebysheff). Sea tXn unPN una sucesión de variables aleatorias
independientes con VarrXm s ď M ă ∞ @m. Entonces tXm umPN verifica la L.D.G.N. con
n
Bn “ n y An “ ∑i“1 ErXi s, es decir,
´ „n  n ¯
Sn ´ ErSn s P.
ÝÑ 0 ErSn s “ E ∑ Xi “ ∑ ErXi s “ An . (5.8)
n i“1 i“1

Demostración.
´ ¯
ns
@ε ą 0 P Sn ´ErS
n ě ε “ Pp|Sn ´ ErSn s| ě n εq
´ nε ¯ σ2
“ P |Sn ´ ErSn s| ě σ ď 2 2
σ n ε
VarrSn s ∑i VarrXi s nM M
“ “ ď 2 2 “
n2 ε2 n2 ε2 n ε nε
y, haciendo el límite,
´ ¯ M
ns
@ε ą 0 lim P Sn ´ErS
n ě ε ď lim “0
n n nε
Sn ´ ErSn s P.
ùñ ÝÑ 0.
n
Teorema
“ 1 5.9 (L.D.G.N.
‰ de Markov). Sea tXn unPN de variables aleatorias con ErXn s ă ∞
n s
y Var n ∑i“1 Xi “ X ÝÝÝÑ 0, de esta manera
nÑ∞

Sn ´ ErSn s P.
ÝÑ 0. (5.9)
n
Demostración.
´ ¯ VarrS s 1 s
ns n
@ε ą 0 P Sn ´ErS
n ě ε ď 2 2
“ 2 ¨ X,
“1 ‰ n ε ε
1
dado que n2
VarrSn s “ Var n ∑ Xi . Por otro lado
´ ¯ 1
ns
@ε ą 0 lim P Sn ´ErS
n ě ε ď 2 lim X s“0
n ε n
Sn ´ ErSn s P.
s ÝÑ
ùñ “X 0
n
Ejemplo. Tenemos una sucesión tXn u, Xn “ Np0, 1q @n y además sabemos que
#
` ˘ ρ si j “ i ` 1 ó j “ i ´ 1
Cov Xi , X j “
0 resto

En primer lugar calculamos


„n  1
hkkkkkkkkj
n ` ˘
VarrSn s “ Var ∑ Xi “ ∑ VarrXi s ` 2 ∑ Cov Xi , Xj
i“1 i“1 iăj

109
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

n´1
“ n`2 ∑ CovpXi , Xi`1 q “ n ` 2 pn ´ 1q ρ,
i“1
”1 ı 1 1
VarrXs “ Var Sn “ 2 VarrSn s “ 2 pn ` 2 pn ´ 1q ρq ÝÝÝÑ 0
n n n nÑ1
Sn ´ ErSn s Sn P.
“ ÝÑ 0
n n
Teorema 5.10 (L.D.G.N. de Khintchine). Sea tXn u una sucesión de variables aleatorias
P.
independientes idénticamente distribuidas con ErXn s “ µ ă ∞. Entonces Snn ÝÑ µ, o lo
que es lo mismo ˆ n ˙
1 n P. 1 P.
∑ Xi “ X ÝÑ µ
n i“1
s ∑ Xi “ X ÝÑ µ .
n i“1
s (5.10)

Demostración.
`t˘ n `t˘ ´ ` ˘¯ n
ϕ Sn ptq “ ϕSn n “ ∏ ϕ Xi n “ ϕ Xi nt
n
i“1
Optq
Y además, como limtÑ0 t “ 0, entonces1
ϕ X1 ptq “ ϕ X1 p0q ` ϕ1X1 p0q ¨ t ` Optq “ 1 ` itµ ` Optq
de manera que nos queda
ˆ ˙
t `t˘ n
ϕ Sn ptq “ 1 ` iµ ` O n
n n
»˜ ¸ n fi itµ`n Opt{nq n
n
itµ`n Opt{nq
– 1 fl
“ 1` n
itµ`n Opt{nq

como soy un fracaso y un poco subnormal y he hecho esto sin saber por qué lo hacía, sin
hacer un puto comentario sobre ello, llevando a mis alumnos al desconocimiento, pues
ahora concluimos lo siguiente
` ˘
limnÑ∞ itµ`n Opt{nq
lim ϕ Sn ptq “ e “ eitµ ” ϕ X ptq X | PpX “ µq “ 1
nÑ∞ n

y de esta manera
Sn P.
ÝÑ µ.
n
Ejemplo. Sean tXn u variables aleatorias independientes Bp1, pq ” Xn . Entonces, ¿es verdad
s ÝÑP.
que X p?
Nosotros sabemos que ErXn s “ p ă ∞, luego por el Teorema de Khintchine (5.10)
concluimos que
Sn P. ∑ Xi P.
ÝÑ p ðñ ÝÑ p.
n n
1 Optqes el resto de Lagrange (que el año pasado expresábamos como Ln pt, t0 q) del polinomio de Taylor. En
este caso, Op nt q es el resto de Lagrange de nt en 0, que el año pasado expresaríamos como L2 p nt , 0q.

110
5. 2 Le y e s d e l o s g r a n d e s n ú m e ro s

5.2.2 Leyes fuertes de los grandes números


Definición 5.11 (Ley fuerte de los grandes números). Se dice que una sucesión de 17/01/2013
variables aleatorias tXn unPN obedece a la ley fuerte de los grandes números (L.F.G.N.) si
existe una sucesión tBn u Bn ą 0 Bn Ò∞ y una sucesión tAn u de números reales tales
que
Sn ´ An c.s.
ÝÝÑ 0. (5.11)
Bn

Teorema 5.12 (L.F.G.N. de Kolmogorov). Sea tXn unPN una sucesión de variables aleatorias
independientes con ErXn s ă ∞ @n. Entonces si


σn2 ` ˘ Sn ´ ErSn s c.s.
∑ n2
ă∞ σn2 “ VarrXn s ùñ
n
ÝÝÑ 0. (5.12)
n“1

Teorema 5.13 (L.F.G.N. de Khintchine). Sea tXn unPN una sucesión de variables aleatorias
independientes idénticamente distribuidas con ErXn s “ µ ă ∞ @n. Entonces

Sn c.s.
ÝÝÑ µ. (5.13)
n

Ejemplo. Sea tXn u variables aleatorias independientes con distribuciones binomiales


#
1 pi nº de obs. entre X1 , ..., Xn iguales a 1
Xi “ Bp1, pi q “ y sea fn “
0 1 ´ pi n

n c.s.
Y nos preguntamos ahora si f n ´ ∑i“1 pi ÝÝÑ 0.

Solución.
#
1 Xi “ 1 1 1 n
Ti “
0 Xi “ 0
ErTi s “ p, VarrTi s “ p p1 ´ pq ď
4
fn “ ∑ Ti
n i“1

VarrTk s 1 ∞ 1
∑ k2 ď ∑ k2 ă ∞
4 k“1
k“1
y por el Teorema L.F.G.N de Kolmogorov (5.12)
Sn ´ ErSn s c.s. Sn 1 c.s.
ÝÝÑ 0 ðñ ´ ErSn s ÝÝÑ 0
n n n
si y sólo si
1 n c.s.
fn ´ ∑
n i“1
pi ÝÝÑ 0. đ

111
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

5.3 Teorema Central del Límite


Hemos estado viendo resultados en los que

Sn ´ An P.
ÝÑ 0 (por las leyes débiles)
Bn
Sn ´ An c.s.
ÝÝÑ 0 (por las leyes fuertes)
Bn
y ahora nos preguntamos si puede converger a X una variable aleatoria
¿ Sn ´ An ÝÑL.
X?
Bn
Teorema 5.14 (Tma Central del Límite). Sea tXn unPN una sucesión de variables aleatorias
independientes idénticamentes distribuidas con ErXn s “ µ y VarrXn s “ σ2 , entonces
n „n 
∑ Xi ´ E ∑ Xi
i“1 i“1 L.
d „n  ÝÑ Np0, 1q, (5.14)
Var ∑ Xi
i“1

n n ˆ ˙
∑i“1 X ´ n µ L. Xi ´ µ L.
y también ? i ÝÑ Np0, 1q ∑ ? ÝÑ Np0, 1q
n σ2 i“1
σ n
` n
˘ ?
n n1 ∑i“1 Xi ´ µ L. s n ´ µq L.
n pX
? ÝÑ Np0, 1q ÝÑ Np0, 1q
σ n σ
Demostración.
n n ´ ¯
ϕ ` Xi?´µ ˘ ptq “ ∏ ϕ Xi?´µ ptq “ ∏ ϕ Xi ´µ t
?
σ n
(5.15)
∑ n n
σ i“1 σ
i“1

Pero por otro lado, tenemos que como ErXi ´ µs “ 0 y VarrXi ´ µs “ VarrXi s “ σ2 , y
Opt2 q
limtÑ0 t2
“ 0, de manera que

1 2
ϕ Xi ´µ ptq “ ϕ Xi ´µ p0q ` ϕ1Xi ´µ p0q ¨ t ` ϕ p0q ¨ t2 ` Opt2 q
2! Xi ´µ
loooooooooooooon
i2 ErpXi ´µq2 s

1 22 2 t2
“ 1`0` ¨ t i σ ` Opt2 q “ 1 ´ ¨ σ2 ` Opt2 q
2 2
lo que implica que, volviendo a la ecuación (5.15),
´ ´ ¯¯n ˆ t2
ˆ´ ¯2 ˙˙n
` ˘ t 2 t
ϕ Xi?´µ ptq “ ϕ Xi ´µ σ?n “ 1 ´ 2 ¨ σ ` O σ ?n
∑ σ n 2σ n
ˆ 2
ˆ´ ¯ ˙˙n
t 2
“ 1´ ` O σ?t n
2n

112
5 .3 Te o r e m a Ce n t r a l d e l Lí m i t e

y de esta manera se tiene que


´ ´ ¯ ¯
Ȭ fi t2 t2
˛ 1˙ O ´ 2n n
ˆ σ2 n
O t2 ´ t2
—˚ σ2 n 2n
ffi
1 ‹
lim ϕ n ` Xi?´µ ˘ ptq “ lim— ˝1 ` ‚ ffi
n ∑n“1 σ n n – ´ 1¯ fl
t2 t2
O ´ 2n
σ2 n
´ ´ ¯ 2¯
t2 t t2
limn O ´ 2n n
“e σ2 n “ e´ 2 “ ϕ X ptq.

Al tener esta función característica, X ” Np0, 1q.

n
Ejemplo. Sea X ” Bpn, pq tal que X “ ∑i“1 Xi , Xi ” Bp1, pq.
n
X ´ Er∑i“1 Xi s L. X´np L.
a ÝÑ Np0, 1q & a ÝÑ Np0, 1q.
Varr∑ Xi s n p p1 ´ pq

5.3.1 Corrección por continuidad


El problema viene cuando tratamos de aproximar distribuciones discretas por continuas.
Lo que ocurre es que al integrar la función de masa da igual integrar en un intervalo,
digamos, ra, bs o pa, bq, el resultado será el mismo. Pero en el caso de la discreta, si a ó
b tienen probabilidad mayor que 0 la cosa cambia. De ahí que se trate de corregir en la
mayor medida posible ese error.

Definición 5.15 (Corrección por continuidad). Sean X1 , ..., Xn variables aleatorias dis-
n
cretas independientes e idénticamente distribuidas y Xn “ ∑i“1 Xi . El Teorema Central
del Límite (5.14) decía que aunque X sea una variable aleatoria discreta su función de
distribución se puede aproximar por la de la distribución normal, que es una distribu-
ción continua. Con el nombre de corrección por continuidad se recoge un procedimiento
para mejorar la calidad de la aproximación que se obtiene cuanto se aproxima una
probabilidad basada en una distribución discreta por una basada en una distribución
continua.
Supondremos, por sencillez, que los posibles valores de la variable aleatoria X son los
enteros.

Ejemplo. Sea PX pX “ xq la función de probabilidad de la variable aleatoria X y sea gpxq


la función de densidad de la variable aleatoria normal con la que se quiere aproximar la
distribución de la variable aleatoria X. Es decir, se trata de mejorar la aproximación

b Zb
PX pa ď X ď bq “ ∑ PX pX “ xq « a
gpxq dx.
x“a

Obsérvense los inconvenientes que inicialmente se plantean con esta aproximación:

113
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

a) Z∞ ,
PX pX ě aq « gpxq dx/
/
.
a
Z∞ PX pX ě aq ‰ PX pX ą aq
/
PX pX ą aq « gpxq dx/
-
a

b) PX pX “ xq ‰ 0, y, sin embargo, cuando se calcula con gpxq será uno por ser g1 pxq la
función de densidad de una variable aleatoria continua.

114
5.4 E j e rc i c i o s

5.4 Ejercicios

Hoja 5 – Convergencias
estocásticas

1.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes e


idénticamente distribuidas Normales de media 0 y varianza 1. EstudiarPnla con-
vergencia en probabilidad de la sucesión {Yn : n ≥ 1}, donde Yn = n−1 i=1 Xi2 .

2.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes e


idénticamente distribuidas Bernoulli(p), con 0 < p < 1. Sea la variable aleatoria
Vn = X1 X2 ...Xn . Estudiar la convergencia en ley, la convergencia en probabili-
dad y la convergencia casi segura de la sucesión {Vn : n ≥ 1}.

3.- Sea (X, Y ) una variable aleatoria con función de densidad conjunta
½ −1
4 exp{−x/2}, si x > 0, −1 < y < 1,
f (x, y) =
0, en caso contrario.
Se pide:
(3.a) Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes e
idénticamente distribuidas con ley L(X). Hallar la distribución de
n
X
Yn = Xi .
i=1

Estudiar la convergencia en ley de la sucesión {Vn : n ≥ 1}, donde Vn =


n−2 Yn .
(3.b) Sea Zn una variable aleatoria tal que Zn /X = x es Poisson de parámetro
nx. Calcular la distribución de Zn y estudiar la convergencia en ley de la
sucesión {Zn : n ≥ 1}.
4.- Demostrar que si {Xn : n ≥ 1} es una sucesión de variables aleatorias
independientes e idénticamente distribuidas que converge en ley a la constante
c, entonces la sucesión {eXn : n ≥ 1} converge en ley hacia ec . Usar este
resultado para estudiar la convergencia en ley y en probabilidad de
à n !1/n
Y
Yn = Xi ,
i=1

20

115
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

donde {Xn : n ≥ 1} es una sucesión de variables aleatorias independientes e


idénticamente distribuidas Uniformes sobre el intervalo (0, 1).

5.- Sea {Xn : n ≥ 0} una sucesión de variables aleatorias independientes e


idénticamente distribuidas y definamos
n
X Xi
Yn = n+1−i
.
i=0
2

Estudiar la convergencia en ley de {Yn : n ≥ 0} cuando:


(5.a) Xi ∼ Normal (0, σ 2 ), i ≥ 0.
(5.b) Xi ∼ Cauchy (0, 1), i ≥ 0.
6.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes con
funciones de densidad
1 n
fXn (x) = .
π 1 + (nx)2
Estudiar la convergencia en probabilidad y la convergencia en media de orden
2 de {Xn : n ≥ 1}.

7.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes con


distribuciones Poisson de parámetro n. Demostrar que
Xn − n

n
converge en ley a X, donde X es una variable aleatoria Normal (0, 1).

8.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes e


idénticamente distribuidas Uniforme sobre (0, 1). Consideremos
Yn = max(X1 , ..., Xn ),
Zn = nYn ,
Tn = nα (1 − Yn ).
Estudiar la convergencia en ley de las sucesiones {Yn : n ≥ 1}, {Zn : n ≥ 1} y
{Tn : n ≥ 1}.

9.- Estudiar si las siguientes sucesiones de variables aleatorias independientes


cumplen la ley débil y/o la ley fuerte de los grandes números:
(9.a) {Xn : n ≥ 1}, donde
1
P (Xn = 2n ) = P (Xn = −2n ) = ,
22n+1
1
P (Xn = 0) = 1− .
22n

21

116
5.4 E j e rc i c i o s

(9.b) {Xn : n ≥ 1}, donde


³ p ´ ³ p ´ 1
P Xn = ln(n + α) = P Xn = − ln(n + α) = , α ∈ IN.
2

Pn Estudiar la convergencia en ley de la sucesión {Yn : n ≥ 1}, donde Yn =


10.-
i=1 Xi y {Xn : n ≥ 1} es una sucesión de variables aleatorias independientes
con función de masa
µ ¶ µ ¶
1 1 1
P Xi = i = P Xi = − i = .
2 2 2
11.- Sea X una variable aleatoria Exponencial de tasa λ. Sea

 0, si X(ω) ∈ [0, 1 − 1/n),
Yn (ω) = 1, si X(ω) ∈ [1 − 1/n, n),

n, si X(ω) ∈ [n, ∞).

Estudiar la convergencia en ley, en probabilidad, en media de orden 2 y casi


segura de la sucesión {Yn : n ≥ 1}.

12.- Una empresa está especializada en la producción de tuercas. La expe-


riencia en los últimos años muestra que la probabilidad de producir una tuerca
defectuosa es 0.035. Las tuercas se empaquetan en cajas de 100 unidades. De-
terminar el porcentaje de cajas sin más de dos tuercas defectuosas.

13.- Una urna contiene diez bolas numeradas del cero al nueve. De la urna
se extraen n bolas con reemplazamiento.
(13.a) Señalar qué dice la ley de los grandes números sobre la aparición de
ceros.
(13.b) Determinar cuántas extracciones será preciso efectuar para que, con
probabilidad 0.95, la frecuencia relativa de aparición de ceros esté com-
prendida entre 0.09 y 0.11.
(13.c) Utilizar el teorema central del lı́mite para calcular la probabilidad
√ de
que, entre
√ los n números elegidos, el ’cinco’ aparezca entre (n − 3 n)/10
y n + 3 n. Particularizar para n = 25 y n = 100.
14.- Sea {Xn : n ≥ 1} una sucesión de variables aleatorias independientes donde
Xi tiene función de masa
1
P (Xi = −2) = P (Xi = −1) = P (Xi = 1) = P (Xi = 2) = ,
4i
1
P (Xi = 0) = 1− .
i
Estudiar la convergencia en ley, en probabilidad, en media cuadrática y casi
seguro. Analizar si se cumple la ley fuerte de los grandes números.

22

117
5 Conv e r g e n c i a s d e va r i a b l e s a l e at o r i a s

15.- Sea ξ una variable aleatoria Uniforme sobre el intervalo (−1/θ, 1/θ). Se
definen las variables aleatorias η = θξ y

 −1, si η(ω) ∈ [−1, −1/i),
Xi (ω) = 0, si η(ω) ∈ [−1/i, 1/i),

1, si η(ω) ∈ [1/i, 1).

Estudiar la convergencia en probabilidad, casi segura y en media cuadrática de


la sucesión {Xn : n ≥ 1}.

16.- La duración de una bombilla se distribuye Exponencial con media 1 mes.


Cada vez que una bombilla se estropea es reemplazada inmediatamente por otra
nueva. Determinar cuál es el número mı́nimo de bombillas que deben tenerse
para que, con probabilidad 0.95, tengamos luz durante un intervalo de tiempo
de dos años.

23

118
Historial
2012–10–23, 19:34 Versión 0.0.1
Primera versión.
Acabado el (Capítulo 1).
2012–10–25, 00:24 Versión 0.0.2
Añadida la (Sección 2.2.1) de los de informática.
Añadido todo hasta la Observación de la (Definición 2.12).
2012–10–25, 12:45 Versión 0.0.3
Añadidos los ejercicios de los (Capítulos 1 y 2).
2012–10–25, 23:41 Versión 0.0.4
Completado todo el (Capítulo 2).
Corregidas las erratas señaladas por Mario.
Añadido todo hasta la Observación del (Teorema 3.4).
2012–10–29, 18:04 Versión 0.0.5
Corregidas varias erratas señaladas por Mario.
2012–11–02, 14:43 Versión 0.0.6
Corregidas más erratas señaladas por Mario.
Cambiado el preámbulo.
Añadido todo hasta el 31/10/2012, hasta el Ejemplo del (Teorema 3.7).
2012–11–06, 19:34 Versión 0.0.7
Se necesita colaboración porque faltan bastantes cosas entre el (Teorema 3.7, página
34) y el (Ejercicio 3.1, página 40).
Por lo demás, añadido todo hasta el día 06/11/2012 (Ejercicio 3.1).
2012–11–07, 17:48 Versión 0.0.8
Repasado todo hasta el (Ejercicio 3.1) con los apuntes de Adolfo.
2012–11–12, 19:00 Versión 0.0.9
Añadido hasta el Ejemplo de la (Definición 3.19).
Añadido hasta la (Proposición 3.28). A falta de muchas cosas que han quedado por
el camino.
2012–11–13, 18:49 Versión 0.0.10
Corregido hasta la (Proposicion 3.26).
Añadido lo del día 13/11/2012 hasta la (Definición 3.33).

119
Histori a l

2012–11–14, 11:17 Versión 0.0.11


Añadidos ciertos retoques de Mario.
Retoques mínimos.
2012–11–16, 21:34 Versión 0.0.12
Más retoques.
Añadido todo hasta el 15/11/2012, hasta la (Subsección 3.4.2).
2012–11–17, 12:50 Versión 0.0.13
Retocados los comandos compos y distrib.
2012–11–21, 17:38 Versión 0.0.14
Añadido todo hasta el día 20/11/2012 (Subsección 3.4.6).
2012–11–23, 16:04 Versión 0.0.15
Añadido todo hasta el día 22/11/2012, hasta el (Ejercicio 3.4).
2012–11–27, 23:09 Versión 0.0.16
Añadidas las tablas Binomial y Poisson (Sección 3.6).
Añadido todo hasta el día 27/11/2012, hasta la (Definición 3.43).
Según ha dicho, hasta aquí entra en el examen.
2012–12–02, 13:46 Versión 0.0.17
Retoques mínimos.
Errores corregidos por Mario.
Añadida la tabla de la distribución normal (Sección 3.6).
2012–12–04, 19:05 Versión 0.0.18
Retoques mínimos a lo largo de todo el documento (aún quedan pendientes algunas
f X pxq que erróneamente se llaman f pxq y numerosas X/Y que erróneamente se han
escrito como x/y).
2012–12–10, 22:35 Versión 0.0.19
Retoques varios de estilo.
Cambio de portada.
Añadido parte del (Capítulo 4).
2012–12–12, 15:05 Versión 0.0.20
Añadido todo salvo lo del día 10/12/2012, hasta el Ejemplo del (Teorema 4.23).
2012–12–13, 20:45 Versión 0.0.21
Más retoques.
Cambio de fuente.
Añadidos \frontmatter, \mainmatter y \backmatter.
Cambio de la estructura y uso de m.sty (\usepackage{m}).
2012–12–18, 00:00 Versión 0.0.22
Cambiado la clase del documento a scrbook, retocadas ciertas cosas y alterado el
comando \partial.

120
2012–12–19, 00:18 Versión 0.0.23
Añadidas varias cosas, hasta el día 18/12/2012.
Cuando algo falta se indica como .
2012–12–19, 22:02 Versión 0.0.24
Añadido todo hasta el Ejemplo (5) de la (Definición 4.29).
2012–12–20, 16:58 Versión 0.0.25
Sustituidas σ por σ en los títulos de sección.
Añadido todo hasta el día 20/12/2012, hasta las observaciones de la (Defini-
ción 4.36).
2012–12–31, 19:55 Versión 0.0.26
Retoques mínimos a lo largo de todo el documento.
2013–01–04, 18:41 Versión 0.0.27
Corregidos errores varios de Mario.
2013–01–09, 13:19 Versión 0.0.28
Añadido todo hasta el 09/01/2013 (salvo pequeños errores).
2013–01–11, 13:01 Versión 0.0.29
Añadido todo hasta el 10/01/2013.
Corregidos errores varios de Carlos.
2013–01–16, 16:53 Versión 0.0.30
Añadido todo hasta la fecha 15/01/2013, hasta el Ejemplo del (Teorema 5.10).
2013–01–17, 19:38 Versión 0.0.31
Añadido todo hasta la fecha 17/01/2013, hasta el Ejemplo de la (Subsección 5.3.1).
2013–01–18, 22:56 Versión 0.0.32
Cambiado el comando \NewDelimCommand, la fuente caligráfica (\mathcal) con el
paquete \usepackage[cal=dutchcal]{mathalfa} y el operador diferencia (∆).
Retocados algunos títulos de sección.
De nuevo cambio de fuente a Palatino (\usepackage[osf,slantedGreek]{mathpazo}).
2013–01–19, 22:44 Versión 0.0.33
Repasado todo hasta la (Subsección 3.4.4).
2013–01–21, 14:23 Versión 0.1.0
Repasados todos los apuntes, esto es, hasta el (Capítulo 5).
Primera ronda completada.
2013–01–23, 16:49 Versión 0.1.1
Corregidos varios límites.
Corregidas las definiciones de algunas funciones (aligned en vez de align*, para
evitar divisiones).

121
Histori a l

2013–01–25, 16:45 Versión 0.1.2


Corregidos los mal utilizados : en vez de \colon para definir funciones.
Y algún límite más corregido.
2013–01–27, 13:49 Verión 0.1.3
Añadido el alfabeto \mathbb{...} en negrita (R en vez de R).
Y sustituidos los \ldots (. . . ) en el texto por \... (...).
2013–01–29, 15:35 Versión 0.1.4
Sustituido el símbolo P por ℘ para representar las partes de un conjunto (también
conocido como conjunto potencia).
Algunos retoques mínimos a lo largo del documento.
Añadida la opción [tracking=smallcaps] al paquete microtype.
2013–01–30, 17:22 Versión 0.1.5
Corregidos varios entornos multlined y multline*.
2013–02–03, 14:51 Versión 0.1.6
Sustituidos ´ por K cuando se trataba de conjuntos.
Sustituidos algunos . . . erróneos por ....
Añadidos los diagramas de Venn (Figura 1.1).
Retoques varios en los (Capítulos 1, 2 y 3).
Sustituido el commando \ii por \i.
2013–02–10, 13:10 Versión 0.1.7
Sustituido \renewcommand{\d} por \DeclareRobustCommand{\d}.
2013–02–11, 20:15 Versión 0.1.8
Repasado todo entero (excepto las distribuciones notables), y corregidas numerosas
erratas.
2013–02–13, 00:09 Versión 0.1.9
Repaso de los capítulos 1 y 2.

122

También podría gustarte