Está en la página 1de 128

Pontificia Universidad Católica de Chile

Facultad de Matemáticas
Departamento de Matemática
MAT2805/MAT380I - Teorı́a de Probabilidades

Problemas Resueltos de
Teorı́a de Probabilidades

Ian Butelmann

Agosto 2021
Agradecimientos a quienes me han enseñado teorı́a de probabilidades. En particular, a los
profesores Gregorio Moreno, Manuel Cabezas y Christian Sadel.
No reclamo la autorı́a de los problemas de este documento. Varios ejercicios han sido tomados
del libro Probability: Theory and Examples de Durrett, los apuntes del profesor Alejandro
Ramı́rez, pruebas, tareas o ayudantı́as antiguas (créditos a Ignacio Labarca, quien fue mi
ayudante cuando hice el curso).
Pueden haber errores en algunas soluciones.

1
Índice

Ayudantı́a 1 3

Ayudantı́a 2 12

Ayudantı́a 3 24

Ayudantı́a 4 35

Ayudantı́a 5 45

Ayudantı́a 6 49

Ayudantı́a 7 54

Ayudantı́a 8 60

Ayudantı́a 9 66

Ayudantı́a 10 73

Ayudantı́a 11 84

Ayudantı́a 12 95

Ayudantı́a 13 105

Ayudantı́a 14 116

2
Ayudantı́a 1
Recordar:
1. Convergencia puntual de funciones:
Sea (fn )n una sucesión de funciones de X a (Y, k·kY ). Se dice que la sucesión (fn )n
converge puntualmente a una función f : X → (Y, k·kY ) si, para todo x ∈ X, para todo
 > 0, existe N ∈ N tal que si n ≥ N entonces kfn (x) − f (x)kY < .
2. Convergencia uniforme de funciones:
Sea (fn )n una sucesión de funciones de X a (Y, k·kY ). Se dice que la sucesión (fn )n
converge uniformemente a una función f : X → (Y, k·kY ) si, para todo  > 0, existe
N ∈ N, tal que, para todo x ∈ X, si n ≥ N , entonces kfn (x) − f (x)kY < . También
se dice que converge con respecto a la métrica uniforme:

lı́m sup kfn (x) − f (x)kY = 0.


n→∞ x∈X

3. Convergencia c.t.p. (en probabilidades se le llama convergencia casi segura o c.s.):


Sea (X, Σ, µ) un espacio de medida, D ∈ Σ.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : D → R. Sea f : D → R una
función Σ-medible. Se dice que la sucesión (fn )n converge c.t.p. en D a f si

µ({x ∈ D : fn (x) no converge a f (x)}) = 0.

En otras palabras, convergencia c.t.p. signfica que la sucesión (fn )n converge puntual-
mente a f afuera de un conjunto de medida cero.
4. Teorema de convergencia monótona:
Sea (X, Σ, µ) un espacio de medida, D ∈ Σ.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : D → [0, ∞], tales que:
a) 0 ≤ f1 (x) ≤ f2 (x) ≤ ... para todo x ∈ D.
b) fn −−−→ f (convergencia puntual).
Entonces, f es Σ-medible y
Z Z
lı́m fn dµ = f dµ.
n→∞ D D

5. Lema de Fatou:
Sea (X, Σ, µ) un espacio de medida, D ∈ Σ.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : D → [0, ∞].
Entonces, lı́m inf n→∞ fn es Σ-medible y
Z Z
lı́m inf fn dµ ≤ lı́m inf fn dµ.
D n→∞ n→∞ D

6. Teorema de convergencia dominada


Sea (X, Σ, µ) un espacio de medida.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : X → R, tales que:

3
a) fn −−−→ f (convergencia puntual).
b) Existe una función g : X → R integrable tal que |fn (x)| ≤ g(x) para todo n y
para todo x ∈ X.
Entonces f es integrable y Z Z
lı́m fn dµ = f dµ.
n→∞ X X

7. Lı́mite superior de sucesión de conjuntos


Sea (An )n una sucesión de conjuntos, entonces
∞ [
\ ∞
lı́m sup An := Am .
n→∞
n=1 m=n

Intuitivamente, esto significa que si x ∈ ∞


T S∞ S∞
n=1 m=n Am entonces x ∈ m=n Am para
todo n, luego x pertenece a A1 ∪ A2 ∪ A3 ∪ ... y también a A2 ∪ A3 ∪ A4 ∪ ... y a
A3 ∪ A4 ∪ A5 ∪ ... y a A4 ∪ A5 ∪ A6 ∪ ...
Ası́, x ∈ An para una cantidad infinita de ellos (ojo que puede ocurrir simultáneamente
que NO pertenezca a una cantidad infinita de ellos).
También se concluye que existe una subsucesión (Ank )k ⊆ (An )n tal que x ∈ Ank para
todo k.
8. Lı́mite inferior de sucesión de conjuntos
Sea (An )n una sucesión de conjuntos, entonces
∞ \
[ ∞
lı́m inf An := Am .
n→∞
n=1 m=n

Intuitivamente, esto significa que si x ∈ n=1 m=n Am entonces x ∈ ∞


S∞ T∞ T
m=n Am para al
menos un n, luego x pertenece a A1 ∩A2 ∩A3 ∩... o a A2 ∩A3 ∩A4 ∩... o a A3 ∩A4 ∩A5 ∩...
o a A4 ∩ A5 ∩ A6 ∩ ...
Ası́, existe n tal que x ∈ Am para todo m ≥ n.
Se concluye que x ∈ An , excepto para una cantidad finita de ellos.
9. Cosas de notación:
a) Si X es una variable aleatoria en el espacio de probabilidad (Ω, F, P), entonces se
escribe:
P(X = x) := P({w ∈ Ω : X(w) = x})
b) Si f es una función medible en el espacio de medida (X, Σ, µ), entonces se escribe:
{f < a} := {x ∈ X : f (x) < a}
c) Si (fn )n es una sucesión de funciones medibles en el espacio de medida (X, Σ, µ),
entonces se escribe:
{fn → f } := {x ∈ X : lı́m fn (x) = f (x)}
n→∞

d) (
1 si x ∈ A
1A (x) =
0 si x ∈
/A

4
Problema 1
Sea (An ) una sucesión de eventos. Entonces
lı́m inf An ⊆ lı́m sup An
n→∞ n→∞

Solución:
Tomaremos un elemento del S lado
T∞izquierdo y demostremos que está en elTlado derecho.
Sea x ∈ lı́m inf n→∞ An = ∞n=1 A
m=n m . Entonces
S∞ existe n 0 tal que x ∈ ∞
m=n0 Am .
Luego, x ∈ Am ∀m ≥Tn0 yS por lo tanto x ∈ m=n Am para todo n.
Se concluye que x ∈ n=1 ∞

m=n Am = lı́m supn→∞ An .

Problema 2
Sea (An )n ⊆ X una sucesión de eventos. Demostrar que:
1lı́m inf An = lı́m inf 1An
n→∞ n→∞

1lı́m sup An = lı́m sup 1An


n→∞ n→∞

Solución:
Demostraremos primero la primera afirmación.
Debemos demostrar que para todo x ∈ X,

1lı́m inf An (x) = lı́m inf 1An (x)


n→∞ n→∞

Demostraremos que si 1lı́m inf An (x) = 1 entonces lı́m inf 1An (x) = 1
n→∞ n→∞
y si 1lı́m inf An (x) = 0 entonces lı́m inf 1An (x) = 0.
n→∞ n→∞
S∞ T∞
Sea x ∈ X tal que 1lı́m inf An (x) = 1, entonces x ∈ lı́m inf n→∞ An = n=1 m=n Am .
n→∞
Entonces existe n0 tal que x ∈ ∞
T
m=n para todo n ≥ n0 .
Por lo que existe n0 tal que x ∈ An para todo n ≥ n0 . Luego,

1An (x) = 1 ∀n ≥ n0

=⇒ ı́nf 1An (x) = 1,


n≥n0

Ahora como
1 = ı́nf 1An (x) ≤ ı́nf 1An (x) ≤ 1
n≥n0 n≥n0 +1

Obtenemos que
lı́m ı́nf 1An (x) = 1
n0 →∞ n≥n0

Es decir,
lı́m inf 1An (x) = 1
n→∞

5
El caso x ∈ X tal que 1lı́m inf An (x) = 0 es análogo:
n→∞
/ lı́m inf n→∞ An = ∞
S T∞
Si 1lı́m inf An (x) = 0 entonces x ∈ n=1 m=n Am .
n→∞ T∞
/ ∞
T
Luego, no existe n tal que x ∈ m=n Am , o equivalentemente, x ∈ m=n Am para todo n.
Por lo tanto, para todo n0 ∈ N, existe n ≥ n0 tal que x ∈ / An . Es decir, para todo n0 ∈ N,
existe n ≥ n0 tal que 1An (x) = 0.
Entonces, ı́nf n≥n0 1An (x) = 0 para todo n0 . Ası́:

lı́m ı́nf 1An (x) = 0


n0 →∞ n≥n0

Lo que significa que:


lı́m inf 1An (x) = 0
n→∞

Esto demuestra la primera afirmación.


La segunda afirmación se puede demostrar de forma similar a la afirmación anterior. Pero
también de la siguiente forma:
Se tiene que:
∞ [
\ ∞ c ∞ \
[ ∞
c
(lı́m sup An ) = Am = (Am )c = lı́m inf (An )c
n→∞ n→∞
n=1 m=n n=1 m=n

También que:
1A + 1Ac = 1 para todo conjunto A
Utilizando lo anterior:

1lı́m sup An = 1 − 1(lı́m sup An )c


n→∞ n→∞

= 1 − 1lı́m inf (An )c


n→∞

= 1 − lı́m inf 1Acn


n→∞
= lı́m (1 − ı́nf 1Ack )
n→∞ k≥n

= lı́m (1 + sup −1Ack )


n→∞ k≥n

= lı́m sup(1 − 1Ack )


n→∞ k≥n

= lı́m sup 1Ak


n→∞ k≥n

= lı́m sup 1An


n→∞

donde hemos utilizado que −ı́nf s∈S s = sups∈S (−s).

6
Problema 3
Sea Ω un conjunto numerable infinito. Sea F el álgebra de todos los subconjuntos finitos de
Ω y sus complementos. Definimos
(
0 si A es finito
µ(A) =
1 si Ac es finito

Demostrar que µ es finitamente aditiva, pero no σ-aditiva.

Solución:
Primero, demostraremos que µ es finitamente aditiva.
Debemos demostrar que para todo A, B ∈ F con A ∩ B = ∅ se tiene que µ(A ∪ B) =
µ(A) + µ(B).
Sean A, B ∈ F con A ∩ B = ∅, tenemos 3 casos:

1. A y B tienen una cantidad finita de elementos.


Entonces µ(A) = µ(B) = 0 y A ∪ B tiene una cantidad finita de elementos, luego
µ(A ∪ B) = 0. Por lo tanto, µ(A ∪ B) = µ(A) + µ(B).

2. Uno tiene una cantidad finita de elementos y el otro una cantidad infinita.
Sin pérdida de generalidad, supongamos que A tiene una cantidad finita de elementos
y B una cantidad infinita de elementos. Como B ∈ F, necesariamente B c es finito.
Entonces µ(A) = 0, µ(B) = 1 y A ∪ B tiene una cantidad infinita de elementos (y
su complemento una cantidad finita), luego µ(A ∪ B) = 1. Por lo tanto, µ(A ∪ B) =
µ(A) + µ(B).

3. A y B tienen una cantidad infinita de elementos.


Este caso no puede ocurrir. Como F es un álgebra, si A y B son infinitos sus com-
plementos deben ser finitos, pero entonces A ∩ B 6= ∅.

Concluimos que µ es finitamente aditiva.


Ahora veamos que no es σ-aditiva. Como ∅ es finito, ∅ ∈ F. Entonces Ω ∈ F ya que
∅c = Ω.
Como Ωc es finito, µ(Ω) = 1. Pero, como Ω es numerable, podemos escribir:
[
Ω = {xi }
i∈N

Si µ fuese σ-aditiva:
[ X X
1 = µ(Ω) = µ( {xi }) = µ({xi }) = 0=0
i∈N i∈N i∈N

Que es una contradicción.

7
Problema 4
Sea (Ω, F, P) un espacio de probabilidad y (An ) ⊆ F una sucesión de eventos. Demostrar
que:
P(lı́m inf An ) ≤ lı́m inf P(An )
n→∞ n→∞

P(lı́m sup An ) ≥ lı́m sup P(An )


n→∞ n→∞

Solución:
Primero demostraremos la primera afirmación.
Notemos que:
Z
P(lı́m inf An ) = 1lı́m inf An dP
n→∞ Ω
n→∞
Z
= lı́m inf 1An dP (por el problema 2)
Ω n→∞ Z
≤ lı́m inf 1An dP (por lema de Fatou: 1An ≥ 0 ∀n)
n→∞ Ω
= lı́m inf P(An )
n→∞

Para la segunda afirmación hacemos algo muy similar al problema 2:


Z
P(lı́m sup An ) = 1lı́m sup An dP
n→∞ Ω n→∞
Z
= 1 − 1(lı́m sup An )c dP
Ω n→∞
Z
= 1 − 1lı́m inf (An )c dP
n→∞
ZΩ Z
= 1dP − lı́m inf 1Acn dP (por el problema 2)
ZΩ Ω n→∞ Z
≥ 1dP − lı́m inf 1Acn dP (por lema de Fatou: 1Acn ≥ 0 ∀n)
Ω n→∞ Ω
= P(Ω) − lı́m inf P(Acn )
n→∞
= 1 + lı́m sup −P(Acn )
n→∞
= lı́m sup 1 − P(Acn )
n→∞
= lı́m sup P(An )
n→∞

8
Problema 5
Demostrar que
lı́m [n, ∞) = ∅
n→∞

Solución:
Al igual que para sucesiones de valores reales, el lı́mite de una sucesión de conjuntos existe
si su lı́mite superior e inferior son iguales.

Sea x ∈ R, notemos que:



[
x∈
/ [dxe + 1, ∞) = [m, ∞)
m=dxe+1

Ahora como ∞ [
∞ ∞
\ [
lı́m sup[n, ∞) = [m, ∞) ⊆ [m, ∞)
n→∞
n=1 m=n m=dxe+1

Concluimos que:
x∈
/ lı́m sup[n, ∞)
n→∞

Por lo tanto, lı́m sup[n, ∞) = ∅.


n→∞
Por el problema 1 sabemos que:

lı́m inf An ⊆ lı́m sup An


n→∞ n→∞

Luego
lı́m inf An = ∅
n→∞

Como el lı́mite superior e inferior son iguales:

lı́m [n, ∞) = ∅
n→∞

9
Problema 6: Equivalencia en las definiciones de un λ-sistema
Sea Ω un conjunto. M ⊆ P (Ω) = 2Ω . M se llama un λ-sistema si cumple:

1.i) Ω ∈ M

1.ii) A, B ∈ M ∧ A ⊆ B =⇒ B \ A ∈ M
S
1.iii) (An )n ⊆ M ∧ An ⊆ An+1 ∀n ∈ N =⇒ n∈N An ∈ M

Alternativamente, M es un λ-sistema si:

2.i) Ω ∈ M

2.ii) A ∈ M =⇒ Ac ∈ M
S
2.iii) (An )n ⊆ M ∀n ∈ N tales que Ai ∩ Aj = ∅ ∀i 6= j =⇒ n∈N An ∈ M

Demuestre que ambas definiciones son equivalentes.

Solución:
Demostraremos que la primera definición implica la segunda y viceversa.
Sea M un λ-sistema cumpliendo la primera definición. Demostraremos que cumple las 3
propiedades de la segunda definición.

2.i) Ω ∈ M : Sabido.

2.ii) A ∈ M , queremos demostrar que Ac ∈ M .


Como A, Ω ∈ M y A ⊆ Ω, se tiene por 1.ii) que Ω \ A = Ac ∈ M .
S
2.iii) (An )n ⊆ M ∀n ∈ N tales que Ai ∩Aj = ∅ ∀i 6= j, queremos demostrar que n∈N An ∈
M.
Consideremos la sucesión de conjuntos (Bn )n dados por:
n
[
Bn = Am
m=1

Notemos que (Bn )n ⊆ M ya que:


Utilizamos inducción. Sabemos que B1 = A1 ∈ M .
Para n ≥ 2, Bn = An ∪ Bn−1 = (Acn \ Bn−1 )c . Como Ai ∩ Aj = ∅ ∀i 6= j, entonces
An ∩Bn−1 = ∅, ası́ Bn−1 ⊆ Acn , luego por 1.ii) se tiene que Acn \Bn−1 ∈ M . Finalmente,
por 2.ii), (Acn \ Bn−1 )c = Bn ∈ M .
Por lo tanto, (Bn )n ⊆ M y Bn ⊆ Bn+1 ∀n ∈ N, luego por 1.iii) concluimos que:
[ [
An = Bn ∈ M
n∈N n∈N

Demostrando que cumple la segunda definición.

10
Sea M un λ-sistema cumpliendo la segunda definición. Demostraremos que cumple las 3
propiedades de la primera definición.

1.i) Ω ∈ M : Sabido.

1.ii) A, B ∈ M ∧ A ⊆ B, queremos demostrar que B \ A ∈ M .


Se tiene que B \ A = B ∩ Ac = (B c ∪ A)c . Por 2.ii), B c ∈ M .
Como Ω ∈ M , entonces ∅ ∈ M .
Como A ⊆ B, entonces B c ∩ A = ∅.
Ası́, considerando la sucesión: B c , A, ∅, ∅, ... se tiene por 2.iii) que:

B c ∪ A = B c ∪ A ∪ ∅ ∪ ∅ ∪ ... ∈ M

Finalmente, como B c ∪ A ∈ M , se tiene por 2.ii) que B \ A = (B c ∪ A)c ∈ M .


S
1.iii) (An )n ⊆ M ∧ An ⊆ An+1 ∀n ∈ N, queremos demostrar que n∈N An ∈ M .
Consideremos la sucesión de conjuntos:

B1 = A1 , Bi = Ai \ Ai−1

Notemos que (Bn )n ⊆ M ya que:


B1 = A1 ∈ M . Ai−1 ⊆ Ai , luego Bi = Ai \ Ai−1 ∈ M por 1.ii)
Además, se tiene que Bi ∩ Bj = ∅ si i 6= j: Supongamos, por contradicción, que
existen i 6= j tales que Bi ∩ Bj 6= ∅, sea x ∈ Bi ∩ Bj . Podemos suponer, sin pérdida
de generalidad, que i > j.
Si j = 1, entonces:
Bi ∩ B1 = (Ai \ Ai−1 ) ∩ A1
Si x ∈ A1 , x ∈
/ Ai \ Ai−1 ya que A1 ⊆ Ai−1 . Luego, x ∈/ Bi ∩ B1 .
Si j > 1, entonces:
Bi ∩ Bj = (Ai \ Ai−1 ) ∩ (Aj \ Aj−1 )
Si x ∈ Aj , x ∈
/ Ai \ Ai−1 ya que Aj ⊆ Ai−1 . Luego, x ∈
/ Bi ∩ Bj .
Por lo tanto, por 2.iii) concluimos que:
[ [
An = Bn ∈ M
n∈N n∈N

Demostrando que cumple la primera definición.

11
Ayudantı́a 2
Teorema de extensión de Carathéodory
Sea Ω un espacio y F un álgebra en Ω. Si µ0 : F → [0, ∞] es una función σ-aditiva sobre F,
entonces existe una medida µ definida en (Ω, σ(F)) tal que µ = µ0 en F. Además, si µ0 es
σ-finita, entonces la extensión µ es única. Video de la demostración acá.
En palabras simples para una medida de probabilidad: Permite extender de forma única una
’medida de probabilidad’ desde un álgebra a una σ-álgebra. (’medida de probabilidad’ con
comillas ya que para que sea medida de probabilidad debe estar definida en una σ-álgebra)
Recordatorio:
µ
fn −−−→ f ⇐⇒ ∀ε > 0 µ(|fn − f | ≥ ε) → 0 cuando n → ∞
fn −−−→ f ctp ⇐⇒ µ({ lı́m fn = f }c ) = 0
n→∞

Borel Cantelli 1: Sea (En )n una sucesión de conjuntos en un espacio de medida (X, F, µ).
Si X
µ(En ) < ∞
n∈N

Entonces:
µ(lı́m sup En ) = 0
n→∞

12
Problema 1
a) Sea (Ω, F, µ) un espacio de medida.
µ
Si fn −−−→ f entonces existe una subsucesión (fnk ) ⊆ (fn ) tal que fnk −−−→ f ctp.
(Esto aplica para espacios de probabilidad)
b) Encuentre una sucesión de funciones que converge en medida, pero no converge ctp.
µ
c) Suponiendo que µ(Ω) < ∞. Demuestre que fn −−−→ f ctp implica que fn −−−→ f . Esto
se cumple en un espacio de probabilidad ya que P(Ω) = 1.

Solución:
µ
a) Como fn −−−→ f : ∀ε > 0 µ(|fn − f | ≥ ε) → 0 cuando n → ∞, existe una subsucesión
(fnk ) ⊆ (fn ) tal que:
1
µ(|fnk − f | > ) < 2−k
k
para cada fnk de la subsucesión. Entonces:

X 1
µ(|fnk − f | > )<∞
k=1
k

Luego, por lema de Borel Cantelli 1 se tiene que:


1 1
µ(|fnk − f | > i.o.) = µ(lı́m sup{w ∈ Ω : |fnk (w) − f (w)| > }) = 0
k k→∞ k

(i.o.: infinitely often, que ocurre infinitas veces).


Por lo tanto, ctp existe k0 (w) tal que:
1
|fnk (w) − f (w)| ≤ ∀k ≥ k0
k
Lo que significa que fnk → f ctp.
b) Considerar la sucesión de funciones dada por:

f1 = 1[0, 1 ] , f2 = 1[ 1 ,1] , f3 = 1[0, 1 ] , f4 = 1[ 1 , 2 ]


2 2 3 3 3

f5 = 1[ 2 ,1] , f6 = 1[0, 1 ] , f 7 = 1[ 1 , 2 ] , . . .
3 4 4 4

λ
Esta sucesión cumple que fn −−−→ 0 (converge en medida al cero), pero no converge en
ningún punto, luego no converge ctp.

13
Problema 2
Sea E una familia arbitraria de subconjuntos de Ω y B ⊆ Ω. Denotamos σ(E) al σ-álgebra
más pequeño que contiene a E y
E ∩∗ B := {A ∩ B : A ∈ E}
Demuestre que:
σ(E ∩∗ B) = σ(E) ∩∗ B
donde σ(E) ∩∗ B = {A ∩ B : A ∈ σ(E)}.
(En este problema estamos considerando a σ(E ∩∗ B) como σ-álgebra con B el conjunto
’total’)

Solución:
Demostraremos que σ(E ∩∗ B) ⊆ σ(E) ∩∗ B y que σ(E) ∩∗ B ⊆ σ(E ∩∗ B).
Como E ⊆ σ(E) se tiene que:
E ∩∗ B ⊆ σ(E) ∩∗ B
Como σ(E) ∩∗ B es una σ-álgebra (σ-algebra visto desde el conjunto B):

i) B = Ω ∩ B ∈ σ(E) ∩∗ B.

ii) Sea C ∈ σ(E) ∩∗ B. Luego C es de la forma C = A ∩ B, con A ∈ σ(E). Como


Ac ∈ σ(E) se tiene que Ac ∩ B ∈ σ(E) ∩∗ B y Ac ∩ B es el complemento de C = A ∩ B
mirado desde B.

iii) Sea (Cn )n ⊆ σ(E) ∩∗ B. Luego cada Cn es de la forma Cn = An ∩ B. Entonces


(An )n ⊆ σ(E) y por lo tanto:

[
An ∈ σ(E)
n=1

Por lo tanto: ∞ ∞ ∞
[ [ [
Cn = (An ∩ B) = An ∩ B ∈ σ(E) ∩∗ B
n=1 n=1 n=1

y σ(E ∩∗ B) es la σ-álgebra más pequeña que contiene E ∩∗ B entonces σ(E ∩∗ B) ⊆ σ(E)∩∗ B.

Ahora la otra dirección.


Consideremos el conjunto:

F = {A ∈ σ(E) : A ∩ B ∈ σ(E ∩∗ B)}

Demostraremos que F = σ(E). Esto implica que si C ∈ σ(E) ∩∗ B, C será de la forma


C = A ∩ B con A ∈ σ(E) y entonces A ∩ B ∈ σ(E ∩∗ B). Ası́, σ(E) ∩∗ B ⊆ σ(E ∩∗ B).
Primero, es claro que E ⊆ F y que F ⊆ σ(E).
Veamos que F es una σ-álgebra:

i) ∅ ∈ σ(E) y ∅ ∩ B = ∅ ∈ σ(E ∩∗ B) =⇒ ∅ ∈ F .

14
ii) Sea A ∈ F . Luego A ∈ σ(E) por lo que Ac ∈ σ(E). Nos falta ver que Ac ∩ B ∈
σ(E ∩∗ B).
Como A ∩ B ∈ σ(E ∩∗ B) y σ(E ∩∗ B) es una σ-álgebra (mirado desde B), entonces
B \ (A ∩ B) = Ac ∩ B ∈ σ(E ∩∗ B).
Luego Ac ∈ F .
S
iii) Sea (Ai )i∈N ⊆ F . =⇒ (Ai )i∈N ⊆ σ(E), como σ(E) es σ-álgebra se tiene que i∈N Ai ∈
σ(E).
Además, (Ai ∩ B)i∈N ⊆ σ(E ∩∗ B) y como σ(E ∩∗ B) es σ-álgebra:
[  [
Ai ∩ B = (Ai ∩ B) ∈ σ(E ∩∗ B)
i∈N i∈N
S
Luego, i∈N Ai ∈ F .

Por lo tanto, F es una σ-álgebra. Ahora como:

E ⊆ F ⊆ σ(E)

Obtenemos que:
σ(E) ⊆ σ(F ) = F ⊆ σ(E)
Por lo que F = σ(E). Concluimos que σ(E) ∩∗ B ⊆ σ(E ∩∗ B).

15
Problema 3: Podemos aproximar a los eventos del σ-álgebra por eventos del
álgebra
Sea (Ω, F, P ) un espacio de probabilidad y A un álgebra de eventos que satisface σ(A) = F.
Muestre que para todo  > 0 y B ∈ F existe A ∈ A tal que:

P (A 4 B) ≤ 

donde A 4 B = A \ B ∪ B \ A.

Solución:
Consideremos el conjunto:

G = {B ∈ F : ∀ > 0 ∃A ∈ A tal que P (A 4 B) ≤ }

Los elementos de G son los eventos en F que cumplen la propiedad deseada, luego nos
basta demostrar que G = F.
Es claro que todo A ∈ A pertenece a G ya que P (A 4 A) = 0, luego A ⊆ G.
También es claro que G ⊆ F. Luego A ⊆ G ⊆ F, por lo que nos basta demostrar que G
es una σ-álgebra para obtener que:

σ(A) = F ⊆ σ(G) = G ⊆ σ(F) = F

de donde concluimos G = F.
G es σ-álgebra:

i) Como A ⊆ G y ∅ ∈ A =⇒ ∅ ∈ G

ii) Sea B ∈ G, queremos ver que B c ∈ G.


Como B ∈ G sabemos que ∀ > 0 ∃A ∈ A tal que P (A 4 B) ≤ . Ahora notemos
que:
A \ B = A ∩ B c = B c \ Ac
B \ A = B ∩ Ac = Ac \ B c
Luego: Ac 4 B c = B c \ Ac ∪ Ac \ B c = A \ B ∪ B \ A = A 4 B.
Como A es un álgebra y A ∈ A =⇒ Ac ∈ A.
Por lo tanto, ∀ > 0 ∃A, Ac ∈ A:

P (Ac 4 B c ) = P (A 4 B) ≤ 

De donde concluimos que B c ∈ G.


S
iii) Sea (Bi )i∈N ⊆ G. Sea  > 0. Queremos demostrar que i∈N Bi ∈ G, esto significa
que buscamos A ∈ A tal que:
[
P ( Bi 4 A) ≤ 
i∈N

16
Como (Bi )i∈N ⊆ G, para cada i ∈ N existe Ai ∈ A tal que:

P (Ai 4 Bi ) ≤
2i
Además: [ [ [
Bi 4 Ai ⊆ (Bi 4 Ai )
i∈N i∈N i∈N

Luego:
[ [ [
P( Bi 4 Ai ) ≤ P ( (Bi 4 Ai ))
i∈N i∈N i∈N
X
≤ P (Bi 4 Ai )
i∈N
≤
S
Pero, i∈N Ai es una unión numerable infinita, por lo que no necesariamente perte-
nece a A, que es un álgebra. Como N
S
i=1 Ai ∈ A para todo N ∈ N, quizás eso nos
puede salvar.
Notemos que ∀N ∈ N:

[ N
[ [ [ [ N
[
Bi 4 Ai ⊆ ( Bi 4 Ai ) ∪ ( Ai 4 Ai )
i∈N i=1 i∈N i∈N i∈N i=1

Ya que si x ∈ i∈N Bi 4 N
S S
i=1 Ai tenemos los siguientes casos:

/ N
S S
x ∈ i∈N Bi , pero x ∈ A:
S i
i=1
Si x ∈ Si∈N Ai =⇒ x ∈ Si∈N Ai 4 SN
S S
i=1 Ai
Si x ∈/ i∈N Ai =⇒ x ∈ i∈N Bi 4 i∈N Ai
SN S S S
/ i∈N Bi =⇒ x ∈ i∈N Bi 4 i∈N Ai
x ∈ i=1 Ai , pero x ∈

Utilizando esto:
[ N
[ [ [ [ N
[
P( Bi 4 Ai ) ≤ P (( Bi 4 Ai ) ∪ ( Ai 4 Ai ))
i∈N i=1 i∈N i∈N i∈N i=1

[ [ [ N
[
≤ P( Bi 4 Ai ) + P ( Ai 4 Ai )
i∈N i∈N i∈N i=1

[ N
[
≤  + P( Ai 4 Ai )
i∈N i=1

17
Por lo que solamente nos falta controlar a este último término. Para esto, conside-
remos la sucesión de conjuntos dada por:
i−1
[
C1 = A1 , C i = Ai \ Ak si i ≥ 2
k=1

Luego, los Ci son disjuntos y cumplen que:


N
[ N
[ [ [
Ai = Ci , Ai = Ci
i=1 i=1 i∈N i∈N

Además:
[ N
[ ∞
[
Ci 4 Ci = Ci
i∈N i=1 i=N +1

Ası́:
[ N
[ [ N
[
P( Ai 4 Ai ) = P ( Ci 4 Ci )
i∈N i=1 i∈N i=1

[
= P( Ci )
i=N +1

N →∞
X
= P (Ci ) −−−→ 0
i=N +1

ya que P (Ci ) ≥ 0 para todo i ∈ N y se tiene que:



X [
P (Ci ) = P ( Ci ) ≤ P (Ω) = 1
i=1 i∈N

por lo que ∞
P
i=1 P (Ci ) es una serie convergente, luego su cola debe irse a cero.
Por lo tanto, existe N ∈ N tal que:

[ N
[
P( Ai 4 Ai ) ≤ 
i∈N i=1

Y con esto obtenemos que:

[ N
[
P( Bi 4 Ai ) ≤ 2
i∈N i=1

donde N
S 
S Ai ∈ A.
i=1
Entonces i∈N Bi ∈ G.

Hemos demostrado que G es σ-álgebra, de donde se concluye.

18
Problema 4
Sea (Ω, F, P ) un espacio de probabilidad y (Aα )α∈I ⊆ F una familia de eventos disjuntos.
Muestre que si P (Aα ) > 0 para todo α ∈ I entonces I es a lo más numerable.

Solución:
Dado n ∈ N, consideremos el conjunto:
1
In = {α ∈ I : P (Aα ) > }
n
Supongamos, por contradicción, que In es de cardinalidad infinita.
Entonces existe un subconjunto Jn ⊆ In que es de cardinalidad infinita numerable, es
decir, |Jn | = ∞
Ası́, se tendrı́a que (como los eventos son disjuntos):
 [  X 1
P Aj = P (Aj ) ≥ |Jn | = ∞
j∈Jn j∈J
n
n

Pero, como estamos en un espacio de probabilidad:


 [ 
P Aj ≤ P (Ω) = 1
j∈Jn

Por lo que obtenemos una contradicción. Concluimos que In es finito para todo n ∈ N.
Entonces escribiendo: [
I= In
n∈N

que es una unión numerable de conjuntos finitos, obtenemos que I es numerable o finito.

19
Problema 5
Sea (Ω, F, P ) un espacio de probabilidad y A ∈ F. Demuestre que el conjunto de los B ∈ F
tales que:
P (A ∩ B) = P (A)P (B)
es un λ-sistema.

Solución:
Demostraremos las 3 propiedades de la definición de un λ-sistema para el conjunto:

M = {B ∈ F : P (A ∩ B) = P (A)P (B)}

2.i) Ω ∈ M :
P (A ∩ Ω) = P (A) = P (A)P (Ω) =⇒ Ω ∈ M

2.ii) B ∈ M =⇒ B c ∈ M :
Sabemos que P (A ∩ B) = P (A)P (B), luego:

P (B c )P (A) = (1 − P (B))P (A)


= P (A) − P (A)P (B)
= P (A) − P (A ∩ B)
= P (A \ B)
= P (A ∩ B c )

Por lo que B c ∈ M .
S
2.iii) (Bn )n ⊆ M ∀n ∈ N tales que Bi ∩ Bj = ∅ ∀i 6= j =⇒ n∈N Bn ∈ M
Sabemos que P (Bn ∩ A) = P (Bn )P (A) para todo n ∈ N, luego:
[  X 
P Bn P (A) = P (Bn ) P (A)
n∈N n∈N
X
= P (Bn )P (A)
n∈N
X
= P (Bn ∩ A)
n∈N
[
= P( (Bn ∩ A))
n∈N
 [  
=P Bn ∩ A
n∈N

donde hemos utilizado que:


[  X
P Bn = P (Bn )
n∈N n∈N

20
ya que los Bn son disjuntos y que:
[  X
P (Bn ∩ A) = P (Bn ∩ A)
n∈N n∈N

[ Bn son disjuntos entonces los Bn ∩ A son disjuntos.


ya que como los
Por lo tanto, Bn ∈ M .
n∈N

21
Problema 6
Sea (An )n una sucesión de eventos en un espacio de probabilidad que satisface:

lı́m P (An ) = 0,
n→∞


X
P (An ∩ Acn+1 ) < ∞
n=1

Demuestre que P (lı́m supn→∞ An ) = 0.

Solución:
Primero, notemos que:

[ ∞
[ ∞ \
[ ∞
An ⊆ (An ∩ Acn+1 ) ∪ An
n=k n=k N =k n=N

para todo
S∞k ∈ N. Veamos por qué esto es cierto:
Sea x ∈ n=k An . Tenemos dos casos:
S∞ T∞
Existe N ≥ k tal que x ∈ An para todo n ≥ N . En cuyo caso, x ∈ N =k n=N An .

En caso contrario,Sexiste n ≥ k tal que x ∈ An , pero x ∈


/ An+1 .
∞ c
En este caso, x ∈ n=k (An ∩ An+1 ).

Luego:

[ ∞
[ ∞ \
[ ∞
An ⊆ (An ∩ Acn+1 ) ∪ An
n=k n=k N =k n=N
[∞ [∞ \ ∞
= (An ∩ Acn+1 ) ∪ An
n=k N =1 n=N
[∞
= (An ∩ Acn+1 ) ∪ lı́m inf An
n→∞
n=k

Como esto se cumple para todo k ∈ N, entonces también se cumple que:


∞ [
\ ∞ ∞
\ ∞
[
(An ∩ Acn+1 ) ∪ lı́m inf An

An ⊆
n→∞
k=1 n=k k=1 n=k
∞ [
\ ∞
(An ∩ Acn+1 ) ∪ lı́m inf An

=
n→∞
k=1 n=k
= lı́m sup(An ∩ Acn+1 ) ∪ lı́m inf An
n→∞ n→∞

Donde estamos sacando a lı́m inf n→∞ An de la intersección generalizada en k ya que no


depende de k.

22
Ası́, concluimos que:
∞ [
\ ∞
P( An ) = P (lı́m sup An )
n→∞
k=1 n=k
≤ P (lı́m sup(An ∩ Acn+1 ) ∪ lı́m inf An )
n→∞ n→∞

≤ P (lı́m sup An ∩ Acn+1 ) + P (lı́m inf An )


n→∞ n→∞

Como ∞ c
P
n=1 P (An ∩ An+1 ) < ∞, si aplicamos el lema de Borel Cantelli 1 a la sucesión de
c
conjuntos (An ∩ An+1 )n , obtenemos que:

P (lı́m sup An ∩ Acn+1 ) = 0


n→∞

Por el problema 4 de la ayudantı́a 1 sabemos que:

P (lı́m inf An ) ≤ lı́m inf P (An )


n→∞ n→∞

Además,
lı́m inf P (An ) ≤ lı́m P (An ) = 0
n→∞ n→∞

Por lo que P (lı́m inf n→∞ An ) = 0.


Por lo tanto:

P (lı́m sup An ) ≤ P (lı́m sup An ∩ Acn+1 ) + P (lı́m inf An ) = 0 + 0 = 0


n→∞ n→∞ n→∞

23
Ayudantı́a 3
Recordar:

Sea (Ω, F, P ) un espacio de probabilidad y X : Ω → R. X es una variable aleatoria en


(Ω, F, P ) si:
X −1 (B) ∈ F ∀B ∈ B(R)

Si X : Ω → R es una variable aleatoria entonces:

σ(X) = {X −1 (B) : B ∈ B(R)}

σ(X) es la σ-álgebra más pequeña que hace a X medible.

Problema 1
Sea Ω = {1, 2, 3, 4, 5, 6}. Consideremos la variable aleatoria X : Ω → R dada por:

X(1) = X(3) = X(5) = 0

X(2) = X(4) = X(6) = 1


Encontrar σ(X).

Solución:
Para esto debemos tomar cada B ∈ B(R) y mirar a X −1 (B). Entonces:


 ∅ si 0∈
/ B∧1∈
/B

{1, 3, 5} si 0∈B∧1∈/B
X −1 (B) =


 {2, 4, 6} si 0∈
/ B∧1∈B
0∈B∧1∈B

Ω si

Luego:
σ(X) = {∅, {1, 3, 5}, {2, 4, 6}, Ω}

24
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad con Ω = {1, 2, 3, 4, 5, 6} y F = {∅, {1, 3, 5}, {2, 4, 6}, Ω}.
Demostrar que Y : Ω → R con

Y (1) = Y (2) = Y (3) = 1

Y (4) = Y (5) = Y (6) = 0


no es una variable aleatoria definida en (Ω, F, P ).

Solución:
Notemos que:
Y −1 ({1}) = {1, 2, 3} ∈
/F
Por lo que Y no es medible en (Ω, F, P ), luego no es una variable aleatoria en (Ω, F, P ).

Problema 3: σ-álgebra generada por una variable aleatoria simple


Sea X una variable aleatoria en (Ω, F, P ) dada por:
n
X
X= a i 1A i
i=1

con Ai eventos que forman una partición de Ω y ai , i = 1, ..., n son números reales distintos.
Encontrar σ(X).

Solución:
Tomemos B ∈ B(R):

X −1 (B) = {X ∈ B} = {ω ∈ Ω : X(ω) ∈ B}
Xn
= {ω ∈ Ω : ai 1Ai (ω) ∈ B}
i=1
Pn
Con esto podemos notar que si ai ∈ B para algún i ∈ {1, ..., n}, entonces i=1 ai 1Ai (ω) ∈
B para todo ω ∈ Ai . Luego:
n
X [
X −1 (B) = {ω ∈ Ω : ai 1Ai (ω) ∈ B} = Ai
i=1 1≤i≤n
ai ∈B

En particular, podemos ver que:

X −1 ({ai }) = Ai

X −1 (R) = Ω

25
Por lo tanto:

σ(X) = σ(A1 , . . . , An )
[
= { Ai : I ⊆ {1, ..., n}}
i∈I

Problema 4
n+1
Sean {Xi }i=1 variables aleatorias. Demostrar que

σ(X1 , . . . , Xn ) ⊆ σ(X1 , . . . , Xn , Xn+1 )

Solución:
Sea A ∈ σ(X1 , ..., Xn ).
Luego:
A = (X1 , . . . , Xn )−1 (B) = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ B)}
con B ∈ B(Rn ) (un boreliano de Rn ). Pero, notemos que:

A = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ B)} = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω), Xn+1 (ω)) ∈ B×R)}

ya que Xn+1 (ω) ∈ R para todo ω ∈ Ω. Además, B × R ∈ B(Rn+1 ). Entonces:

A = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω), Xn+1 (ω)) ∈ B × R)}


= (X1 , . . . , Xn , Xn+1 )−1 (B × R) ∈ σ(X1 , . . . , Xn , Xn+1 )

Demostrando que σ(X1 , . . . , Xn ) ⊆ σ(X1 , . . . , Xn , Xn+1 ).

26
Problema 5
Sean {Xi }∞
i=1 una sucesión de variables aleatorias.

S∞
a) Demostrar que σ(X1 , X2 , ..., Xn ) es un álgebra.
n=1

b) Encontrar y describir un ejemplo donde ∞


S
n=1 σ(X1 , X2 , ..., Xn ) no es una σ-álgebra.

Solución:

i) Como ∅ ∈ σ(X1 ) y σ(X1 ) ⊆ ∞


S S∞
a) n=1 σ(X1 , X2 , ..., Xn ), entonces ∅ ∈ n=1 σ(X1 , X2 , ..., Xn ).
S∞
ii) Sea A ∈ n=1 σ(X1 , X2 , ..., Xn ).
Entonces A ∈ σ(X1 , X2 , ..., XN ) para algún N ∈ N.
c
Como σ(X1 , X2 , ..., XN ) es una σ-álgebra,
c
S∞entonces A ∈ σ(X1 , X2 , ..., XN ).
Por lo tanto, A ∈ σ(X1 , X2 , ..., XN ) ⊆ n=1 σ(X1 , X2 , ..., Xn ).
iii) Sean A, B ∈ ∞
S
n=1 σ(X1 , X2 , ..., Xn ).
Entonces, existen N, M ∈ N tales que A ∈ σ(X1 , X2 , ..., XN ), B ∈ σ(X1 , X2 , ..., XM ).
Sin pérdida de generalidad, podemos suponer que M ≥ N , luego:
σ(X1 , X2 , ..., XN ) ⊆ σ(X1 , X2 , ..., XM ).
Entonces A, B ∈ σ(X1 , X2 , ..., XM ).
Como σ(X1 , X2 , ..., XM ) es una σ-álgebra:

[
A ∩ B ∈ σ(X1 , X2 , ..., XM ) ⊆ σ(X1 , X2 , ..., Xn )
n=1

S∞
Demostrando que n=1 σ(X1 , X2 , ..., Xn ) es un álgebra.

b) Consideremos la sucesión de variables aleatorias (Xn )n∈N en (Ω, F, P ) = (R, B(R), P )


dadas por:
Xn : R → R, Xn = 1{n} para cada n ∈ N
Es decir, X1 = 1{1} , X2 = 1{2} , X3 = 1{3} , . . .
Ası́, si B ∈ B(R):


 ∅ si 0 ∈/ B∧1∈ /B

{n} si 0 ∈ / B∧1∈B
1−1
{n} (B) = c
{n} si 0 ∈ B ∧ 1 ∈
 /B

si 0 ∈ B ∧ 1 ∈ B

R
Luego:
σ(Xn ) = σ(1{n} ) = {∅, {n}, {n}c , R}
Y podemos ver que:

σ(X1 , . . . , Xn ) = {A, Ac : A ⊆ {1, . . . , n}}

27
Consideremos la sucesión de
S∞conjuntos: (An )n∈N = ({2n})n∈N .
Es claro que An = {2n} ∈ n=1 Sσ(X 1 , X2 , ..., Xn ) para todo n ∈ N ya que

An = {2n} ∈ σ(X1 , ..., X
S∞ 2n ) ⊆ n=1 σ(X 1 , X2 , ..., Xn ).
Entonces,
S para
S que n=1 σ(X1 , X2 , ..., Xn ) sea una σ-álgebra,
S∞ necesitarı́amos que
n∈N An = n∈N {2n}
S = {2, 4, 6, 8, . . . } pertenezca a n=1 σ(X1 , X2 , ..., Xn ).
Pero, veamos que n∈N {2n} ∈ / σ(X1 , X2 , ..., XN ) para todo N ∈ N, luego:

[ ∞
[
{2n} ∈
/ σ(X1 , X2 , ..., Xn )
n∈N n=1


[
Por lo que, con esta elección de variables aleatorias, σ(X1 , X2 , ..., Xn ) no es una
n=1
σ-álgebra.

28
Problema 6: Teorema de la clase monótona para funciones
Sea Ω un conjunto. Sea A un π-sistema (en Ω) que contiene a Ω.
Sea H una colección de funciones de Ω → R con las siguientes propiedades:

i) Si A ∈ A, entonces 1A ∈ H.

ii) Si f, g ∈ H, entonces f + g ∈ H y cf ∈ H para todo c ∈ R

iii) Si (fn ) es una sucesión no decreciente con fn ≥ 0 tal que lı́mn→∞ fn = f , con f una
función acotada, entonces f ∈ H.

Entonces H contiene a todas las funciones acotadas que son medibles con respecto a σ(A).

Solución:
Consideremos:
G = {A ∈ σ(A) : 1A ∈ H}
Demostraremos que G es un λ-sistema.
Por la propiedad (i), se tiene que A ⊆ G. Como Ω ∈ A, entonces Ω ∈ G.
Sean A, B ∈ G con A ⊆ B. Luego 1A ∈ H y 1B ∈ H. Por la propiedad (ii) obtenemos
que:
1B − 1A = 1B\A ∈ H
y es claro que B \ A ∈ σ(A). Por lo tanto B \ A ∈ G.
Sea (An )n∈N ⊆ G tales que Ai ⊆ Ai+1 ∀i ≥ 1. Entonces:

1Sn∈N An = 1lı́mn→∞ An = lı́m 1An ∈ H


n→∞

ya que (1An ) es una sucesión no decreciente con 1An ≥ 0. S


Ası́, utilizando la propiedad (iii),
S lı́m n→∞ 1A n ∈ H. Además, es claro que n∈N An ∈ σ(A).
Por lo tanto, concluimos que n∈N An ∈ G.
Esto demuestra que G es un λ-sistema que contiene al π-sistema A.
Entonces por el teorema π − λ: σ(A) ⊆ G y por lo tanto G = σ(A).
Luego, 1A ∈ H para todo A ∈ σ(A). Por la propiedad (ii), obtenemos que:
n
X
1A i ∈ H
i=1

para cualquier elección de (Ai )ni=1 ⊆ σ(A). Esto significa que H contiene a todas las
funciones simples medibles con respecto a σ(A).
Ahora, sea f una función acotada y medible en σ(A). Podemos escribir:

f = f+ − f−

con f + , f − funciones no negativas. Basta demostrar que f + , f − ∈ H y ası́ utilizando la


propiedad (ii), obtenemos que f ∈ H.

29
Sabemos que podemos aproximar cualquier función σ(A)-medible, acotada, no negativa,
de forma creciente mediante funciones simples. Ası́, como las funciones simples están en
H, utilizamos la propiedad (iii) y obtenemos que f + , f − ∈ H.

Problema 7
Sean X, Y variables aleatorias.
X:Ω→R
Y :Ω→R
Demostrar que σ(Y ) ⊆ σ(X) si y solo si existe f : R → R borel-medible tal que Y = f (X).
(Y (w) = f (X(w)))

Solución:
⇐=
Supongamos existe f : R → R borel-medible tal que Y = f (X). Sea B ∈ σ(Y ), luego:

B = Y −1 (C) con C ∈ B(R)


= {ω ∈ Ω : Y (ω) ∈ C}
= {ω ∈ Ω : f (X(ω)) ∈ C}
= {ω ∈ Ω : X(ω) ∈ f −1 (C)}

Como f es borel-medible y C ∈ B(R), entonces f −1 (C) ∈ B(R). Si llamamos D = f −1 (C)


se obtiene que:

B = {ω ∈ Ω : X(ω) ∈ f −1 (C)} = {X ∈ D} = X −1 (D)

y X −1 (D) ∈ σ(X), luego B ∈ σ(X). Concluimos que σ(Y ) ⊆ σ(X).


=⇒
Supongamos σ(Y ) ⊆ σ(X) (esto significa que Y es σ(X)-medible), queremos demostrar
que existe
f : R → R borel-medible tal que Y = f (X).
Lo demostraremos primero para Y una variable aleatoria acotada y después extendemos.
Consideremos:

H = {Y : Ω → R : Y acotada, ∃f borel-medible acotada tal que Y = f (X)}

El objetivo es demostrar que H contiene a todas las variables aleatorias acotadas σ(X)-
medibles, para esto utilizaremos el teorema de la clase monótona para funciones (problema
6).
Sea A ∈ σ(X). Queremos ver que 1A ∈ H. Sabemos que:

σ(X) = {X −1 (B) : B ∈ B(R)}

30
Por lo tanto A = X −1 (B) para algún B ∈ B(R). Entonces:
(
1 si ω ∈ X −1 (B)
1A (ω) = 1X −1 (B) (ω) =
0 / X −1 (B)
si ω ∈
(
1 si X(ω) ∈ B
=
0 si X(ω) ∈
/B
= 1B (X(ω))

De donde concluimos que 1A (ω) = 1B (X(ω)), lo que significa que 1A puede escribirse
de la forma 1A = f (X) con f borel-medible y acotada (1B es borel-medible y acotada).
Luego 1A ∈ H para todo A ∈ σ(X).
Sean Y1 , Y2 ∈ H. Queremos demostrar que cY1 + Y2 ∈ H.
Como Y1 , Y2 ∈ H, existen f1 , f2 : R → R borel-medibles acotadas tales que Y1 = f1 (X),
Y2 = f2 (X), entonces:
cY1 + Y2 = cf1 (X) + f2 (X) = F (X)
De esta forma, cY1 + Y2 : Ω → R es acotada ya que Y1 , Y2 son acotadas y existe F
borel-medible acotada tal que cY1 + Y2 = F (X). Por lo tanto, cY1 + Y2 ∈ H.
Sea (Yn ) ⊆ H una sucesión no decreciente con Yn ≥ 0 tal que lı́mn→∞ Yn = Y ∗ , con Y ∗
acotada. Queremos ver que Y ∗ ∈ H.
Como Y ∗ es acotada, existe K < ∞ tal que Y ∗ (ω) < K para todo ω ∈ Ω, luego como
Yn es una sucesión no decreciente que converge a Y ∗ entonces 0 ≤ Yn (ω) < K para todo
ω ∈ Ω y para todo n ∈ N. Dado que (Yn ) ⊆ H, existe (fn ) con fn : R → R borel-medibles
acotadas tales que Yn = fn (X).
Debemos tener cuidado con un detalle, podrı́a ocurrir que la funciones fn estén acotadas,
pero su lı́mite no (vamos a necesitar el lı́mite de estas funciones después). Para solucionarlo,
truncamos cada fn . Esto quiere decir que vamos a considerar la sucesión de funciones (f˜n )
dadas por: 
0 si fn (x) < 0

˜
fn (x) = fn (x) si 0 ≤ fn (x) ≤ K

K si K < fn (x)

Ası́, se obtiene que 0 ≤ fn ≤ K para todo n ∈ N. Y se sigue cumpliendo que Yn = f˜n (X).
Ahora, definimos:
f = lı́m sup f˜n
n→∞

La razón por la que tomamos el lı́m sup y no el lı́m es porque el lı́mite podrı́a no existir en
algunos puntos (los puntos en los que podrı́a no existir son los que no pertenecen al rango
de X).
Se tiene que f es borel-medible y además 0 ≤ f ≤ K. Sigue que:

Y ∗ = lı́m Yn = lı́m f˜n (X) = lı́m sup f˜n (X) = f ◦ X


n→∞ n→∞ n→∞

Por lo tanto, Y ∗ ∈ H.

31
Ahora, como σ(X) es una σ-álgebra, es en particular un π-sistema que contiene a Ω.
Luego, por el teorema de la clase monótona para funciones, H contiene a todas las funciones
acotadas que son σ(X)-medibles. Esto quiere decir que cualquier variable aleatoria acotada
Y : Ω → R que sea σ(X)-medible (esto es equivalente a decir σ(Y ) ⊆ σ(X)) es de la forma
Y = f (X) con f una función borel-medible.
Consideremos ahora el caso general, sea Y : Ω → R una variable aleatoria (no necesaria-
mente acotada) con σ(Y ) ⊆ σ(X).
En este caso podemos aplicar la función:
π π
arctan : R → (− , )
2 2
y haciendo
Ỹ = arctan(Y )
obtenemos una variable aleatoria acotada. Ỹ es σ(X)-medible por ser composición de una
variable aleatoria σ(X)-medible con una función borel-medible (arctan es continua y por
lo tanto borel-medible).
Luego, por lo demostrado anteriormente, existe f˜ acotada y borel-medible tal que:

f˜(X) = Ỹ

Entonces:
Y = tan(Ỹ ) = tan(f˜(X)) = f (X)
con f = tan ◦f˜ que es borel-medible por ser composición de medibles.

32
Problema 8: Convergencia casi segura implica convergencia en probabilidad
Sean (Xn )n∈N , X variables aleatorias en el espacio de probabilidad (Ω, F, P ).
P
Demuestre que si Xn −−−→ X casi seguramente entonces Xn −−−→ X.

Solución:
Supongamos Xn −−−→ X casi seguramente. Sea  > 0. Se tiene que:

lı́m inf P (|Xn − X| ≤ ) ≥ P (lı́m inf |Xn − X| ≤ ) (por ayudantı́a 1)


n→∞ n→∞
≥ P ( lı́m |Xn − X| ≤ )
n→∞
≥ P ( lı́m Xn = X)
n→∞
=1

Luego lı́m inf n→∞ P (|Xn − X| ≤ ) = 1.


Como:
lı́m inf P (|Xn − X| ≤ ) ≤ lı́m P (|Xn − X| ≤ )
n→∞ n→∞

Obtenemos que lı́mn→∞ P (|Xn − X| ≤ ) = 1.


Además:
P ({|Xn − X| ≤ }c ) = P (|Xn − X| > )
P
Entonces lı́mn→∞ P (|Xn − X| > ) = 0, lo que significa que Xn −−−→ X.

Problema 9
Sean (Xn )n∈N , X variables aleatorias en el espacio de probabilidad (Ω, F, P ). Demuestre que
las siguientes condiciones son equivalentes:

i) (Xn ) converge a X en probabilidad.

ii) Toda subsucesión (Xnk )k de (Xn ) tiene una subsubsucesión (Xnkm )m que converge c.s.
a X.

Solución:
i) =⇒ ii):
Supongamos (Xn ) converge a X en probabilidad. Entonces toda subsucesión (Xnk )k de
(Xn ) tiende a X en probabilidad. Por problema 1 de la ayudantı́a 2, sabemos que (Xnk )k
tiene una subsucesión (Xnkm )m que converge casi seguramente a X.
ii) =⇒ i):
Supongamos toda subsucesión (Xnk )k de (Xn ) tiene una subsubsucesión (Xnkm )m que
converge c.s. a X. Entonces la subsubsucesión (Xnkm )m converge a X en probabilidad
(por problema 8).
Ahora, supongamos, por contradicción, que (Xn ) no converge a X en probabilidad.

33
Entonces existe  > 0 tal que:

P (|Xn − X| > ) 6→ 0

Luego, existe δ > 0 tal que para todo N ∈ N existe n∗ > N tal que

P (|Xn∗ − X| > ) ≥ δ

Por lo que podemos construir una subsucesión (Xnk )k tal que:

P (|Xnk − X| > ) ≥ δ ∀k

Pero, esta subsucesión (Xnk )k no tiene ninguna subsubsucesión (Xnkm )m que converja a
X en probabilidad, lo que es una contradicción.
Concluimos que Xn converge a X en probabilidad.
¿Por qué existe este δ?
Supongamos se tiene una sucesión de números reales (an )n ⊆ R tal que an ≥ 0 para todo
n ∈ N. La definición de an → 0 cuando n → ∞ es:

lı́m an = 0 ⇐⇒ ∀δ > 0 ∃N ∈ N : ∀n ≥ N |an − 0| < 


n→∞

Si an 6→ 0 cuando n → ∞ entonces debemos negar la definición anterior:

lı́m an 6= 0 ⇐⇒ ∃δ > 0 ∀N ∈ N : ∃n ≥ N |an − 0| ≥ 


n→∞

De donde obtenemos el δ que utilizamos en la demostración y notamos que no depende de


n.

34
Ayudantı́a 4
Problema 1
Sea (Ω, F, P ) un espacio de probabilidad. Sea X : Ω → R una función que asume una
cantidad numerable de valores a1 , a2 , a3 , · · · ∈ R.

a) Demuestre que X es una variable aleatoria si y solo si

X −1 (ak ) ∈ F para todo k = 1, 2, 3, . . .

b) Asumiendo que se cumple a), demuestre que:



X
E(|X|) = |ak |P (X = ak )
k=1

c) Asumiendo que se cumple a) y que E(|X|) < ∞, demuestre que:



X
E(X) = ak P (X = ak )
k=1

Solución:

a) =⇒
X es una variable aleatoria, luego:

X −1 (B) ∈ F ∀B ∈ B(R)

Cada {ak } ∈ B(R), luego X −1 (ak ) ∈ F para todo k = 1, 2, 3, . . . .


⇐=
Sea B ∈ B(R), entonces:
[ [
X −1 (B) = X −1 ( {ak }) = X −1 {ak }
ak ∈B ak ∈B

cada X −1 {ak } ∈ F y como F es σ-álgebra entonces:


[
X −1 {ak } ∈ F
ak ∈B

Esto significa que X −1 (B) ∈ F. Como B ∈ B(R) era arbitrario, se concluye que X
es F-medible, por lo tanto X es una variable aleatoria.

35
b) Como X : Ω → asume una cantidad numerable de valores a1 , a2 , a3 , · · · ∈ R,
S∞R y −1
entonces Ω = k=1 X {ak }. Utilizando esto:
Z
E(|X|) = |X|dP
ZΩ
= S |X|dP
∞ −1 {a }
k=1 X k
Z
= 1S ∞ −1 {a } |X|dP
k=1 X k

Ahora como X −1 {ai } ∩ X −1 {aj } = ∅ si i 6= j entonces:

1S ∞
k=1 X
−1 {a } = 1lı́m
k n→∞
Sn
k=1 X
−1 {a }
k

= lı́m 1Snk=1 X −1 {ak }


n→∞
n
X
= lı́m 1X −1 {ak }
n→∞
k=1

X
= 1X −1 {ak }
k=1

Luego:
Z ∞
Z X
1S ∞
k=1 X −1 {ak } |X|dP = 1X −1 {ak } |X|dP
Ω Ω k=1

Como ( nk=1 1X −1 {ak } |X|)n∈N es una sucesión de funciones no negativas y crecientes


P
tales que:
n ∞
n→∞
X X
1X {ak } |X| −−−→
−1 1X −1 {ak } |X|
k=1 k=1

podemos aplicar el teorema de convergencia monótona. Con esto obtenemos:



Z X ∞ Z
X
1X −1 {ak } |X|dP = 1X −1 {ak } |X|dP
Ω k=1 k=1 Ω
∞ Z
X
= |X|dP
−1
k=1 X {ak }
X∞ Z
= |X|dP
k=1 {ω∈Ω:X(ω)=ak }

X
= |ak |P (X = ak )
k=1


X
de donde obtenemos E(|X|) = |ak |P (X = ak ), que es lo que se querı́a demostrar.
k=1

36
c) Hacemos la descomposición:
X = X+ − X−
Aplicamos lo demostrado en b) para X + y X − :

X ∞
X
+ +
+ +
E(X ) = E(|X |) = +
|ak |P (X = ak ) = a+ + +
k P (X = ak )
k=1 k=1


X ∞
X
− −
E(X ) = E(|X |) = |a−
k |P (X

= a−
k) = a− − −
k P (X = ak )
k=1 k=1

Como E(|X|) < ∞, aplicamos linealidad de la esperanza:

E(X) = E(X + − X − ) = E(X + ) − E(X − )


X∞ ∞
X
= a+
k P (X +
= a +
k ) − a− − −
k P (X = ak )
k=1 k=1

X
= ak P (X = ak )
k=1

37
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad. Sea X : Ω → R una variable aleatoria. Sea µX la
distribución de X, es decir, la medida de probabilidad inducida por X:

µX (B) = P (X −1 (B)) para cada B ∈ B(R)

Suponiendo que E(|X|) < ∞, demuestre que:


Z Z
E(X) := X(ω)dP (ω) = xdµX (x)
Ω R

Solución:
Primero, supongamos que X ≥ 0. Para n, k ∈ N se define el conjunto:
k−1 k k−1 k
Ak,n = {ω ∈ Ω : ≤ X(ω) < } = X −1 [ , )
n n n n
Ahora, consideremos la variable aleatoria Xn : Ω → { nk : k ∈ N} dada por:

X k
Xn = 1Ak,n
k=1
n

Ası́:
1
Xn (ω) − ≤ X(ω) ≤ Xn (ω) ∀ω ∈ Ω
n
Luego:
1 1
E(Xn − ) = E(Xn ) − ≤ E(X) ≤ E(Xn )
n n
De donde obtenemos que:
lı́m E(Xn ) = E(X)
n→∞

Pero, también se cumple que:


Z X ∞ ∞
k X k
E(Xn ) = 1Ak,n dP = P (Ak,n ) (utilizando TCM)
Ω k=1 n k=1
n

k−1 k−1 k k−1 k


Z
k
µX [ , )≤ xdµX ≤ µX [ , ) ∀k ∈ N (1)
n n n [ k−1
n
k
,n ) n n n
Además:
k−1 k k−1 k
P (Ak,n ) = P (X −1 [ , )) = µX [ , )
n n n n
Luego, sumando la desigualdad (1) en k:
∞ ∞ ∞
k−1 k−1 k k−1 k
Z
X X X k
µX [ , )≤ xdµX ≤ µX [ , )
k=1
n n n k=1 [ k−1
n
k
,n ) k=1
n n n

38
∞ ∞ Z ∞
X k−1 X X k
P (Ak,n ) ≤ xdµX ≤ P (Ak,n )
k=1
n k=1 [ k−1
n
k
,n ) k=1
n
Utilizando el teorema de convergencia monótona en:
∞ Z
X ∞ Z
X
xdµX = 1[ k−1 , k ) xdµX
n n
k=1 [ k−1
n
k
,n ) k=1 R
M Z
X
= lı́m 1[ k−1 , k ) xdµX
M →∞ R
n n
k=1
M
Z X
= lı́m 1[ k−1 , k ) xdµX
M →∞ R k=1
n n

ya que ( M
P
k=1 1[ k−1
n
k x)M ∈N es una sucesión de funciones no negativas y crecientes (x será
,n )
siempre no negativo ya que asumimos que la variable aleatoria X ≥ 0) que converge a
1[0,∞) x.
Entonces:
∞ Z
X M
Z X
xdµX = lı́m 1[ k−1 , k ) xdµX
[ k−1 k
,n ) M →∞ R k=1
n n
k=1 n
Z XM
= lı́m 1[ k−1 , k ) xdµX
R M →∞ k=1
n n

Z X ∞
= 1[ k−1 , k ) xdµX
n n
R k=1
Z
= 1[0,∞) xdµX
ZR
= xdµX
[0,∞)

Por lo tanto, obtenemos:


Xk−1 ∞ Z ∞
1 1 X k
E(Xn ) − = E(Xn − ) = P (Ak,n ) ≤ xdµX ≤ P (Ak,n ) = E(Xn )
n n k=1
n [0,∞) k=1
n

Lo que significa que: Z


lı́m E(Xn ) = xdµX
n→∞ [0,∞)

Como el lı́mite en R es único:


Z
lı́m E(Xn ) = xdµX = E(X)
n→∞ [0,∞)

39
Para el caso general de una variable aleatoria cualquiera (no necesariamente no negativa),
descomponemos la variable aleatoria:

X = X+ − X−

Aplicamos el resultado anterior en X + y X − que cumplen X + , X − ≥ 0. Y finalmente


aplicamos linealidad de la esperanza (ya que E(|X|) < ∞):

E(X) = E(X + − X − )
= E(X + ) − E(X − )
Z Z
= xdµX + − xdµX −
[0,∞) [0,∞)
Z Z
= xdµX + − xdµX −
[0,∞) (0,∞)
Z Z
= xdµX + xdµX
[0,∞) (−∞,0)
Z
= xdµX
R

obteniendo lo que se pedı́a demostrar.

Problema 3
Sea (Xn ) una sucesión de variables aleatorias y X una variable aleatoria. Demuestre que si
L2
Xn −−−→ X

entonces Xn converge en probabilidad a X.


L2
(Xn −−−→ X es equivalente a decir que Xn converge a X en media cuadrática)

Solución:
Sea  > 0. Se tiene que:

P (|Xn − X| > ) = P ((Xn − X)2 > 2 )


1
≤ 2 E((Xn − X)2 )

n→∞ L2
−−−→ 0 ya que Xn −−−→ X

donde hemos aplicado la desigualdad de Chebyshev a la variable aleatoria (Xn − X)2 .


Como  es arbitrario, se concluye que Xn converge en probabilidad a X.

40
Problema 4
Sea X : Ω → R una variable aleatoria tal que X ≥ 0 y E(X) = 0. Demostrar que X = 0 c.s.

Solución:
Sea n ∈ N. Se tiene que:
1 1
P (X ≥ ) = P (|X| ≥ )
n n
≤ nE(|X|)
= nE(X) = 0

por desigualdad de Chebyshev ya que | · | es creciente en [0, ∞). Luego:



[1 X 1
6 0) = P (X > 0) = P ( {X ≥ }) ≤
P (X = P (X ≥ ) = 0
n∈N
n n=1
n

Por lo tanto:
P (X = 0) = 1 − P (X 6= 0) = 1
de donde se concluye que X = 0 c.s.

Problema 5

P
a) Si Xn −−−→ c, con c ∈ R y h : R → R es una función continua en c.
P
Demostrar que h(Xn ) −−−→ h(c).
P P
b) Si Xn −−−→ X y h : R → R es una función continua. Demostrar que h(Xn ) −−−→ h(X).

Solución:

a) Como h es continua en c:

∀ > 0 ∃δ > 0 tal que |c − a| < δ =⇒ |h(c) − h(a)| < 

Entonces:

∀ > 0 ∃δ > 0 tal que |c − Xn (ω)| < δ =⇒ |h(c) − h(Xn (ω))| < 

Sea  > 0. Por lo anterior se tiene que:

∃δ > 0 tal que |c − Xn (ω)| < δ =⇒ |h(c) − h(Xn (ω))| < 

41
Luego:

{ω ∈ Ω : |c − Xn (ω)| < δ } ⊆ {ω ∈ Ω : |h(c) − h(Xn (ω))| < }

Por lo que:
P (|c − Xn (ω)| < δ ) ≤ P (|h(c) − h(Xn (ω))| < )
Ahora como Xn converge en probabilidad a c:

lı́m P (|c − Xn (ω)| < δ ) = 1


n→∞

Entonces:
lı́m P (|h(c) − h(Xn (ω))| < ) = 1
n→∞

Por lo tanto,
lı́m P (|h(c) − h(Xn (ω))| ≥ ) = 0
n→∞
P
Como  era arbitrario, se concluye que h(Xn ) −−−→ h(c).

b) La misma idea que la parte anterior.

42
Problema 6
Sea X : Ω → N una variable aleatoria. Demuestre que:

X
E(X) = P (X ≥ i)
i=1

Solución:

Forma 1: Aplicar el lema 1.33 de los apuntes del profesor Alejando Ramı́rez con
p = 1:
Z ∞
E(X) = P (X > x)dx
Z0
= 1[0,∞) P (X > x)dx
R

Z X 
= 1[k−1,k) P (X > x)dx
R k=1

Z X
= 1[k−1,k) P (X > x)dx
R k=1
Z n
X
= lı́m 1[k−1,k) P (X > x)dx
R n→∞ k=1

Aplicamos el teorema de convergencia monótona a ( nk=1 1[k−1,k) P (X P


P
> x))n∈N ya
que es una sucesión de funciones no negativas y crecientes que converge a ∞k=1 1[k−1,k) P (X >
x), obtenemos:
Z n
X n
Z X
lı́m 1[k−1,k) P (X > x)dx = lı́m 1[k−1,k) P (X > x)dx
R n→∞ k=1 n→∞ R k=1

Ası́:
n
Z X
E(X) = lı́m 1[k−1,k) P (X > x)dx
n→∞ R k=1
∞ Z
X
= 1[k−1,k) P (X > x)dx
k=1 R
X∞ Z k
= P (X > x)dx
k=1 k−1

Notemos que como X : Ω → N, entonces P (X > x) = P (X > k − 1) si x ∈ [k − 1, k),

43
luego:
∞ Z
X k ∞ Z
X k ∞
X ∞
X
P (X > x)dx = P (X > k−1)dx = P (X > k−1) = P (X ≥ k)
k=1 k−1 k=1 k−1 k=1 k=1

obteniendo lo que se querı́a demostrar.

Forma 2:
Como X : Ω → N es una variable aleatoria positiva, entonces X = |X|, luego
sabemos por el problema 1.b) que:

X ∞
X
E(X) = E(|X|) = |ai |P (X = ai ) = iP (X = i)
i=1 i=1

Entonces:

X
E(X) = iP (X = i)
i=1
X∞ Xi
= ( 1)P (X = i)
i=1 j=1
∞ X
X i
= P (X = i)
i=1 j=1
X∞ X ∞
= P (X = i)
j=1 i=j
X∞
= P (X ≥ j)
j=1

donde hemos aplicado el teorema de Tonelli para intercambiar el orden de la suma,


lo que está justificado ya que el sumando es no negativo.
Los lı́mites al intercambiar el orden de las sumas se obtienen de que:

1≤j≤i<∞

44
Ayudantı́a 5
Problema 1
Sean {Xi }∞
i=1 una sucesión de variables aleatorias independientes y


\
T = σ(Xi , Xi+1 , ...)
i=1

Sea X una variable aleatoria medible en T . Demostrar que X = c c.s con c ∈ R.

Solución:
Como X es una variable aleatoria medible según la sigma-álgebra de la cola se tiene que:

{X ≤ x} ∈ T

Luego, por ley 0 − 1 de Kolmogorov, P ({X ≤ x}) = 0 o 1 para todo x ∈ R.


Ahora llamando F (x) = P (X ≤ x), se tiene que:

lı́m F (x) = 0
x→−∞

lı́m F (x) = 1
x→∞

Entonces, F debe ’saltar’ en algún punto, es decir, existe un punto c ∈ R tal que:

F (c − ) = 0, F (c + ) = 1 ∀ > 0

donde c = ı́nf{x ∈ R : F (x) = 1}. Y con esto obtenemos:


\ 1 1
P (X = c) = P ( {c − < X ≤ c + })
n∈N
n n
1 1
= lı́m P (c − <X ≤c+ )
n→∞ n n
1 1
= lı́m (F (c + ) − F (c − ))
n→∞ n n
=1−0=1

donde hemos utilizado la continuidad de la medida de probabilidad. Concluimos que X = c


c.s.

45
Problema 2 Pn
Sean {Xi }∞
i=1 una sucesión de variables aleatorias independientes y Sn = i=1 Xi . Demostrar
que:
 Sn 
P lı́m sup >M =0 o 1
n→∞ n

Solución:
Notemos que para cualquier m ∈ N fijo:
Pn
Sn Sn − Sm i=m+1 Xi
{lı́m sup > M } = {lı́m sup > M } = {lı́m sup > M}
n→∞ n n→∞ n n→∞ n
Sm
ya que lı́m supn→∞ n
= 0. Además:

Sn − Sm
{ > M } ∈ σ(Xm+1 , . . . , Xn )
n
Luego:

Sn − Sm [ 
{lı́m sup > M } ∈ σ(Xm+1 , Xm+2 , . . . ) = σ σ(Xk )
n→∞ n k=m+1

Y esto es válido para todo m ∈ N, entonces:



Sn \
{lı́m sup > M} ∈ σ(Xm , Xm+1 , . . . )
n→∞ n m=1

Por lo que {lı́m supn→∞ Snn > M } es un evento de la sigma-álgebra de la cola de la sucesión
de variables aleatorias independientes {Xi }∞
i=1 .
Por la Ley 0 − 1 de Kolmogorov, concluimos que P ({lı́m supn→∞ Snn > M }) es igual a 0 o
1.

46
Problema 3
Sean {Xi }∞
i=1 con Xi : Ω → R una sucesión de variables aleatorias independientes. Demostrar
que:
P (sup Xn < ∞) ∈ {0, 1}
n∈N

Solución:
Notemos que:
{sup Xn < ∞} = {sup Xn < ∞} ∩ {X1 < ∞}
n∈N n∈N
n>1

Pero, {ω ∈ Ω : X1 (ω) < ∞} = Ω ya que X1 : Ω → R. Luego:

{sup Xn < ∞} = {sup Xn < ∞} ∩ {X1 < ∞} = {sup Xn < ∞} ∩ Ω = {sup Xn < ∞}
n∈N n∈N n∈N n∈N
n>1 n>1 n>1

Iterando:
{sup Xn < ∞} = {sup Xn < ∞} ∀k ∈ N
n∈N n∈N
n>k

Sabemos que:
{sup Xn < ∞} ∈ σ(X1 , X2 , . . . )
n∈N

Pero, hemos demostrado que no depende de las primeras k variables para todo k ∈ N, por
lo tanto:
{sup Xn < ∞} ∈ σ(Xk , Xk+1 , . . . ) ∀k ∈ N
n∈N

Luego:

\
{sup Xn < ∞} ∈ σ(Xk , Xk+1 , . . . )
n∈N
k=1

Como las variables aleatorias {Xi }∞


i=1 son independientes, se tiene por ley 0 − 1 de Kol-
mogorov que:
P (sup Xn < ∞) ∈ {0, 1}
n∈N

47
Problema 4
Sea Ω un conjunto numerable, F una σ-álgebra de subconjuntos de Ω y P una medida de
probabilidad en F . Muestre que NO existe una colección (Ai )i∈N de eventos independientes
en (Ω, F, P ) con P (Ai ) = 12 para todo i ∈ N.

Solución:
Supongamos, por contradicción, existe una colección (Ai )i∈N de eventos independientes en
(Ω, F, P ) con P (Ai ) = 12 para todo i ∈ N. Sea ω ∈ Ω un elemento y definamos la sucesión
de conjuntos (Bi )i∈N por: (
Ai si ω ∈ Ai
Bi =
Aci si ω 6∈ Ai
Es claro que, para todo n ∈ N se cumple que ω ∈ ni=1 Bi . También, dado que los conjuntos
T
(Ai )i∈N son independientes, se tiene que los conjuntos (Bi )i∈N son independientes.
Como P (Ai ) = 12 , entonces P (Aci ) = 12 , de donde obtenemos que P (Bi ) = 12 para todo
i ∈ N.
Por lo tanto: n
\  1
P (ω) ≤ P Bi = n ∀n ∈ N
i=1
2
De esto se deduce que P (ω) = 0. Como ω era arbitrario concluimos que P (ω) = 0 para
todo ω ∈ Ω.
Dado que Ω es numerable, podemos indexar sus elementos:
[
Ω = {ωi : i ∈ N} = {ωi }
i∈N

Pero, por σ-aditividad se tiene que:


[  X
P (Ω) = P {ωi } = P (ωi ) = 0
i∈N i∈N

lo que produce una contradicción con el axioma P (Ω) = 1.

48
Ayudantı́a 6
Recordar:

∞ [
\ ∞
lı́m sup An = Am = {An i.o.}
n→∞
n=1 m=n

Una familia de variables aleatorias (Xi )i∈I son independientes si (σ(Xi ))i∈I son inde-
pendientes.

Borel Cantelli I:
Sea (En )n una sucesión de eventos en un espacio de probabilidad (Ω, F, P ). Si
X
P (En ) < ∞
n∈N

Entonces:
P (lı́m sup En ) = 0
n→∞

Borel Cantelli II:


Sea (En )n una sucesión de eventos independientes en un espacio de probabilidad
(Ω, F, P ).
Si X
P (En ) = ∞
n∈N

Entonces:
P (lı́m sup En ) = 1
n→∞

49
Problema 1
Se lanza una moneda una cantidad infinita de veces de forma independiente. Demostrar que
la probabilidad de obtener dos caras consecutivas una cantidad infinita de veces es 1.

Solución:
Podemos modelar el lanzamiento de las monedas como una sucesión de variables aleatorias
(Xn )n∈N independientes Bernoulli de parámetro 12 . Consideremos los eventos:

An = {Xn = 1 ∧ Xn+1 = 1}

Queremos demostrar que P (An i.o.) = 1. Primero, notemos que:

{A2n i.o.} = lı́m sup A2n ⊆ lı́m sup An = {An i.o.}


n→∞ n→∞

Esto es claro ya que:


∞ [
\ ∞ ∞ [
\ ∞
lı́m sup A2n = A2m ⊆ Am = lı́m sup An
n→∞ n→∞
n=1 m=n n=1 m=n

La sucesión de eventos (A2n )n∈N son independientes. Luego:


∞ ∞
X X 1
P (A2n ) = =∞
n=1 n=1
4

Por el lema de Borel Cantelli II se obtiene que P (A2n i.o.) = 1, de donde concluimos que
P (An i.o.) = 1.

50
Problema 2
Sea (Xn )n∈N una sucesión de variables aleatorias independientes con:
1 1
P ({Xn = n2 }) = , P ({Xn = −1}) = 1 −
n2 n2
Pn
para todo n. Demostrar que i=1 Xi converge casi seguramente a −∞ cuando n → ∞.

Solución:
Se tiene que:
∞ ∞
X X
2 1
P (Xn = n ) = <∞
n=1 n=1
n2
luego P ({Xn = n2 i.o.}) = 0 por el lema de Borel Cantelli I. Similarmente,
∞ ∞
X X 1
P (Xn = −1) = 1− =∞
n=1 n=1
n2

Luego, como la sucesión de variables aleatorias (Xn )n∈N son independientes, entonces
({Xn = −1})n∈N son independientes. Ası́, por el lema de Borel Cantelli II, obtenemos
que P ({Xn = −1 i.o.}) = 1.
Ahora, por definición de Xn , P (Xn ∈ {n2 , −1}) = 1. Esto significa que, afuera de un
conjunto de probabilidad cero, Xn solo toma los valores n2 o −1.
Como P ({Xn = n2 i.o.}) = 0 y P ({Xn = −1 i.o.}) = 1, se tiene que casi seguramente para
ω ∈ Ω, existe Nω tal que Xn (ω) = −1 para todo n ≥ Nω (ojo que esto no es consecuencia
directa solamente de P ({Xn = −1 i.o.}) = 1).
Sigue que:
n
X Nw
X ∞
X
lı́m Xi (ω) = Xi (ω) + Xi (ω)
n→∞
i=1 i=1 i=Nw +1
Nw
X ∞
X
≤ i2 + −1
i=1 i=Nw +1

= −∞
Pn
Luego, lı́mn→∞ i=1 Xi = −∞ casi seguramente.

51
Problema 3: Infinite monkey theorem
Un mono pulsando teclas al azar sobre un teclado durante un periodo de tiempo infinito casi
seguramente podrá escribir cualquier texto dado.
En otras palabras, dada una cadena infinita donde cada carácter es elegido de manera aleato-
ria, cualquier cadena finita casi seguramente ocurre como subcadena de la primera en alguna
posición (de hecho, en infinitas posiciones).

Solución:
Considerar una cadena infinita de letras: a1 a2 a3 . . . producida con un alfabeto finito de
n letras eligiendo la letra en cada posición de forma independiente y uniforme sobre el
alfabeto (cada letra es elegida con probabilidad 1/n).
Fijamos una cadena finita de letras de largo m sobre el alfabeto: S = s1 . . . sm .
Sea (Ej )∞
j=1 una sucesión de eventos dada por:

Ej = {aj aj+1 . . . aj+m−1 = S}

Queremos demostrar que casi seguramente, ocurre una cantidad infinita de los Ej , esto
quiere decir que P (Ej i.o.) = 1.
Para esto, consideremos la sucesión de eventos (Emj+1 )∞
j=0 = {E1 , Em+1 , E2m+1 , . . . } y
notemos que son eventos independientes ya que los eventos:

{a1 a2 . . . am = S}, {am+1 am+2 . . . a2m = S}, . . . {amj+1 amj+2 . . . amj+m = S}

son independientes por pertenecer a ’bloques’ distintos


m del string a1 a2 a3 . . .
Además, para todo j se tiene que P (Emj+1 ) = n1 , luego:
∞ ∞  
X X 1 m
P (Emj+1 ) = =∞
j=0 j=0
n

Por lo tanto, por el lema de Borel Cantelli II, P (Emj+1 i.o.) = 1. De donde es claro que
P (Ej i.o.) = 1.

52
Problema 4
Sea X una variable aleatoria tal que E(X 2 ) = 1 y E(|X|) ≥ a > 0.
Para 0 ≤ λ ≤ 1, demostrar que P ({|X| ≥ λa}) ≥ (1 − λ)2 a2 .

Solución:
Para facilitar el trabajo escribamos A = {|X| ≥ λa}. Se tiene que:

E(|X|) = E(|X|1A ) + E(|X|1AC )

Aplicando desigualdad de Cauchy-Schwarz en L2 a E(|X|1A ):


q p p
E(|X|1A ) ≤ E(X 2 )E(12A ) = E(1A ) = P (A)

También se tiene que:


E(|X|1AC ) < E(λa1AC ) ≤ λa
Ası́: p
a ≤ E(|X|) ≤ P (A) + λa
de donde obtenemos que: p
P (A) ≥ a − λa = a(1 − λ)
Concluimos que P (A) ≥ a2 (1 − λ)2 .

Problema 5
Sea (An )n∈N una sucesión de eventos en (Ω, F, P ).
¿Puede ocurrir simultáneamente que P (An i.o.) = 1 y que P (Acn i.o.) = 1?

Solución:
Sı́. Considerar la sucesión de variables aleatorias (Xn )n∈N dadas por:
(
1, si n es par
Xn (ω) =
−1, si n es impar

Consideremos los eventos:


An = {Xn = 1},
Acn = {Xn 6= 1} = {Xn = −1}
Entonces se tiene que:
P (An i.o.) = 1
P (Acn i.o.) = 1
ya que:

{An i.o.} = {w ∈ Ω : w ∈ An para una cantidad infinita de ı́ndices n ∈ {1, 2, 3, . . . }}

53
Ayudantı́a 7
Recordar:

Teorema de Extensión de Kolmogorov

Ley débil de los números grandes versión con varianza:


Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con X1 ∈ L2 (Ω, F, P ).
Entonces, para todo  > 0:
n
1 X 
lı́m P Xk − E(X1 ) ≥  = 0
n→∞ n k=1

Demostración:
Sea  > 0. Se tiene por desigualdad de Chebyshev que:
n n Pn
1 X  1 X k=1 Xk 
P Xk − E[X1 ] ≥  = P
Xk − E[ ] ≥
n k=1 n k=1 n
Var( n1 nk=1 Xk )
P
≤ 2
1
Pn 
2 k=1 Var(Xk )
= n
2
n
2 Var(X1 )
= n
2
Var(X1 )
=
n2
n→∞
−−−→ 0

Donde hemos utilizado que:


n
X n
X
Var( Xk ) = Var(Xk )
k=1 k=1

ya que las variables aleatorias (Xn )n∈N son independientes, y por lo tanto, no correla-
cionadas.
Y también utilizamos que: Var(aX) = a2 Var(X) si a es una constante.

Ley débil de los números grandes generalizada:


Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. en (Ω, F, P ). Supongamos que:

lı́m nP (|X1 | ≥ n) = 0, an = E(X1 1{|X1 |≤n} )


n→∞

Entonces, para todo  > 0:


n
1 X 
lı́m P X k − an ≥  = 0
n→∞ n k=1

54
Problema 1: Integracion de Monte Carlo
Sea f : [0, 1] → R una función medible con
Z 1
(f (x))2 dx < ∞
0

Sean (Ui )i∈N variables aleatorias i.i.d. con distribución uniforme en [0, 1].
Demostrar que para todo  > 0 se tiene que:
n Z 1
 1 X 
lı́m P f (Ui ) − f (x)dx ≥  = 0

n→∞ n 0
i=1

Solución:
Como la sucesión de variables aleatorias (Ui )i∈N son i.i.d. y f es medible entonces (f (Ui ))i∈N
es una sucesión de variables aleatorias i.i.d. Se tiene que:
Z Z 1
2 2
E(f (Ui )) = f (Ui )dP = f 2 (x)dx < ∞
Ω 0

por enunciado y utilizando el problema 2 de la ayudantı́a 4. Luego, f (Ui ) ∈ L2 .


Con esto tenemos que (f (Ui ))i∈N es una sucesión de variables aleatorias i.i.d. con f (U1 ) ∈
L2 . Luego, por ley débil de los números grandes versión con varianza se tiene que para
todo  > 0: n
1 X 
lı́m P f (Uk ) − E(f (U1 )) ≥  = 0
n→∞ n k=1
Pero: Z 1
E(f (U1 )) = f (x)dx
0
Entonces: n
1 X
Z 1 
lı́m P f (Uk ) − f (x)dx ≥  = 0
n→∞ n k=1 0

55
Problema 2: Generalización de la Ley débil de los números grandes versión con
varianza
Sea (Xi )i∈N una sucesión de variables aleatorias
Pn dependientes idénticamente distribuidas
con varianza finita. Denotamos Sn = i=1 X i a la n-ésima suma parcial de las variables
aleatorias.
Supongamos que Cov(Xi , Xj ) ≤ c|i−j| para todo i, j ∈ N con |c| < 1. Demostrar que:
Sn 
lı́m P − E(X1 ) ≥  = 0
n→∞ n

Solución:
Sea  > 0 y n ∈ N. Se tiene por desigualdad de Chebyshev que:

Sn E(| Snn − E(X1 )|2 )


P (| − E(X1 )| ≥ ) ≤
n 2
Sn
Var( n )
=
2
donde: Pn Pn Pn Pn |i−j|
Sn Var(Sn ) i=1 j=1 Cov(X i , Xj ) i=1 j=1 c
Var( ) = 2
= 2

n n n n2
Pn Pn |i−j|
Podemos calcular i=1 j=1 c explı́citamente:

n X
X n n
X n X
X i−1
c|i−j| = c|i−i| + 2 c|i−j|
i=1 j=1 i=1 i=1 j=1
n
X n X
X i−1
= 1+2 ci−j
i=1 i=1 j=1
n
X i−1
X
=n+2 ci c−j
i=1 j=1
n
X c−1 − c−i
=n+2 ci ( )
i=1
1 − c−1
n
2c X i −1
=n+ c (c − c−i )
c − 1 i=1
n
2c X i−1
=n+ c −1
c − 1 i=1
2c 1 − cn
=n+ ( − n)
c−1 1−c
2c(cn − 1) 2nc
=n+ 2

(c − 1) c−1

56
Luego:

Sn Var( Snn )
lı́m P (| − E(X1 )| ≥ ) ≤ lı́m
n→∞ n n→∞ 2
n −1)
n + 2c(c
(c−1)2
− 2nc
c−1
≤ lı́m =0
n→∞ 2 n2
Como  es arbitrario se concluye lo pedido.

57
Problema 3
Sea X un espacio métrico y (X, B(X), P ) un espacio de probabilidad con P una medida
tensa.
Demostrar que:

a)
P (A) = sup P (K)
K⊂A
Kcompacto

b) Si Q es otra medida de probabilidad tensa en (X, B(X)) con P (K) = Q(K) para todo
conjunto compacto K, entonces P ≡ Q.

Solución:

a) Primero, sabemos que P es regular por lema visto en clase (lema 1.58 apuntes pro-
fesor Alejandro Ramı́rez) ya que P es medida de probabilidad y X es un espacio
métrico. Luego:
P (A) = sup P (C)
C⊂A
Ccerrado

Por lo tanto, dado  > 0, existe un conjunto cerrado C ⊆ A tal que:

P (A) ≤ P (C) + 

Además, como P es una medida tensa, para todo  > 0 existe un conjunto compacto
K tal que P (K) > 1 − .
Con esto tenemos que:

P (C) = P (C ∩ K) + P (C ∩ K c ) ≤ P (C ∩ K) + P (K c ) ≤ P (C ∩ K) + 

Luego:
P (A) ≤ P (C) +  ≤ P (C ∩ K) + 2
Como C ∩ K ⊆ C ⊆ A es un compacto por ser intersección de un compacto con un
cerrado y  es arbitrario concluimos que:

P (A) = sup P (K)


K⊂A
Kcompacto

b) Es un resultado inmediato de la parte a). Sea A ∈ B(X). Se tiene que:

P (A) = sup P (K) = sup Q(K) = Q(A)


K⊂A K⊂A
Kcompacto Kcompacto

58
Problema 4
Demuestre que la matriz de covarianza de un vector aleatorio siempre es simétrica y semi-
definida positiva.

Solución:
Sea X = (X1 , . . . , Xn ) un vector aleatorio. Su matriz de covarianza Σ es:

Σ = Cov(X, X)
= E((X − E(X))(X − E(X))T )
= E(XXT ) − E(X)E(X)T

Para ver que es simétrica notamos que:

Σi,j = E(Xi Xj ) − E(Xi )E(Xj ) = E(Xj Xi ) − E(Xj )E(Xi ) = Σj,i

Para ver que es semi-definida positiva debemos mostrar que ut Σu ≥ 0 para todo u ∈ Rn :

ut Σu = ut E((X − E(X))(X − E(X))T )u


= E(ut (X − E(X))(X − E(X))T u)
= E(ut (X − E(X))(X − E(X))T u)
   
X1 − E(X1 ) u
  .    .1 
= E( u1 . . . un  ..  X1 − E(X1 ) . . . Xn − E(Xn  .. )

Xn − E(Xn ) un
= E[(uT (X − E[X]))2 ] ≥ 0

59
Ayudantı́a 8
Recordar:

Ley débil de los números grandes versión con varianza:


Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con X1 ∈ L2 (Ω, F, P ).
Entonces, para todo  > 0:
n
1 X 
lı́m P Xk − E(X1 ) ≥  = 0
n→∞ n k=1

Ley débil de los números grandes generalizada:


Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. en (Ω, F, P ). Supongamos que:

lı́m nP (|X1 | ≥ n) = 0, an = E(X1 1{|X1 |≤n} )


n→∞

Entonces, para todo  > 0:


n
1 X 
lı́m P X k − an ≥  = 0
n→∞ n k=1

Desigualdad de Chebyshev:
Sea X una variable aleatoria en (Ω, F, P ). Sea f una función positiva y creciente,
entonces:
E[f (X)]
P (X ≥ a) ≤
f (a)
Desigualdad de Jensen:
Sea X una variable aleatoria integrable en (Ω, F, P ). Para toda función convexa ϕ
definida en el rango de X se tiene que:

ϕ(E[X]) ≤ E[ϕ(X)]

60
Problema 1
Demostrar que casi todo el volumen del cubo [−1, 1]n en Rn (con n grande) está concentrado
en la vecindad de una esfera.

Solución:
Sean X1 , X2 , . . . variables aleatorias i.i.d. con distribución uniforme en [-1,1], es decir:
2
P (Xi ∈ [a, b]) =
b−a
cuando a, b ∈ [−1, 1]. Ası́, el vector aleatorio X = (X1 , . . . , Xn ) esta uniformemente dis-
tribuido en el cubo [−1, 1]n . Las variables X12 , X22 , . . . también son i.i.d y por problema 2
de ayudantı́a 4: Z Z 1
2 2 1
E[Xi ] = Xi dP = x2 dx =
Ω 0 3
lo que es válido porque E(|Xi2 |) ≤ 1 < ∞.
Además se tiene que Xi2 ∈ L2 (Ω, F, P ) ya que:

E[(Xi2 )2 ] ≤ 1 < ∞

Por lo tanto, por ley débil de los grandes números versión con varianza, para todo  > 0
se tiene que:
n
1X 2 1
lı́m P (| X − | ≥ ) = 0
n→∞ n i=1 i 3
Luego:
n
X n
lı́m P (| Xi2 − | < n) = 1
n→∞
i=1
3
Entonces: n
n X 2 n
lı́m P (−n + < Xi < n + ) = 1
n→∞ 3 i=1
3

Como se cumple para todo  > 0, podemos cambiar  por 3
y ası́:
√ √
n n n→∞
P ( √ (1 − ) < ||X||2 < √ (1 + )) −−−→ 1
3 3
Lo que significa
√ que casi todo el volumen
√ del cubo está contenido en el anillo de radio
interior √n3 (1 − ) y radio exterior √n3 (1 + ), lo que es justamente la vecindad de la esfera

n
de radio √ .
3

61
Problema 2: Teorema de Aproximación de Weierstrass
Sea f : [0, 1] → R una función continua. Entonces f puede ser uniformemente aproximada
por polinomios. Es decir, para todo  > 0 existe un polinomio q tal que:

sup |f (x) − q(x)| < 


x∈[0,1]

Solución:
Consideremos la sucesión de polinomios (se llaman polinomios de Bernstein asociados a
f ):
n  
X n i i
fn (x) = x (1 − x)n−i f ( )
i=0
i n
Tomemos p ∈ [0, 1] fijo y consideremos una sucesión (Xi )i∈N de variables aleatorias i.i.d.
Bernoulli de parámetro p, es decir, Xi : Ω → {0, 1} y P (Xi = 1) = p. Luego:

E[Xi ] = 1 × P (Xi = 1) + 0 × P (Xi = 0) = p,

Var(Xi ) = E[Xi2 ] − E[Xi ]2


= 1 × P (Xi2 = 1) + 0 × P (Xi2 = 0) − p2
= p − p2
1
= p(1 − p) ≤
4
Llamando Sn = X1 + · · · + Xn se tiene por ley débil de los números grandes versión con
varianza que Snn converge en probabilidad a E(X1 ) = p. Además notemos que Sn toma
valores en {0, 1, . . . , n} y que:
 
n m
P (Sn = m) = p (1 − p)n−m
m

Suma de variables aleatorias Bernoulli i.i.d. es Binomial. Esto se puede ver ya que para
que Sn = m es necesario que m de las n variables aleatorias Bernoulli tomen el valor 1.
Luego:
n
Sn X Sn i i
E[f ( )] = P( = )f ( )
n i=0
n n n
n  
X n i i
= p (1 − p)n−i f ( )
i=0
i n
= fn (p)

Por lo que solo nos falta ver que E[f ( Snn )] converge uniformemente a f (p).

62
Dado δ > 0 se tiene por desigualdad de Chebyshev que:

Sn Var( Snn )
P (| − p| ≥ δ) ≤
n δ2
Var(Sn )
=
n2 δ 2
np(1 − p))
=
n2 δ 2
1

4nδ 2
Donde hemos utilizado que E( Snn ) = p.
Como f es una función continua en [0, 1] (que es compacto), entonces f está acotada por
algún M ∈ R. M = máx f (x). Luego:
x∈[0,1]

Sn
|f ( ) − f (p)| ≤ 2M
n
Por la misma razón, es uniformemente continua. Entonces, dado  > 0, existe δ > 0 tal
que:
|x − y| < δ =⇒ |f (x) − f (y)| < 
Por lo tanto, utilizando los resultados anteriores:
Sn
|fn (p) − f (p)| = |E[f ( )] − f (p)|
n
Sn
= |E[f ( ) − f (p)]|
n
Sn
≤ E[|f ( ) − f (p)|]
n
Sn Sn
= E[|f ( ) − f (p)|1| Sn −p|>δ ] + E[|f ( ) − f (p)|1| Sn −p|≤δ ]
n n n n

≤ E[2M 1| Sn −p|>δ ] + 
n

= 2M E[1| Sn −p|>δ ] + 
n

Sn
= 2M P (| − p| ≥ δ) + 
n
2M n→∞
≤ 2
+  −−−→ 
4nδ
Como n no depende de p y  es arbitrario e independiente de p, se concluye que fn converge
uniformemente a f .

63
Problema 3

a) Sea X una variable aleatoria integrable y positiva en (Ω, F, P ), demostrar que:


1 1
E ≥
X E[X]

X Y
b) Sean X, Y dos variables aleatorias integrables y positivas en (Ω, F, P ), tales que ,
Y X
también son integrables. Demostrar que:
X   Y 
E E ≥1
Y X

Solución:

a) Consideremos la función f (x) = x1 . Notemos que:

1
f 0 (x) = −
x2
2
f 00 (x) = > 0 ∀x > 0
x3
Por lo que f es una función convexa en (0, ∞). Por lo tanto, como la variable aleatoria
X es positiva, podemos aplicar desigualdad de Jensen para obtener:

f (E[X]) ≤ E[f (X)]

Es decir:
1 1
≤ E[ ]
E[X] X
Y
b) Consideremos la variable aleatoria W = X en (Ω, F, P ). Como X e Y son positivos
se tiene que W es una variable aleatoria positiva. Aplicando el resultado obtenido
en a) se tiene que:
1 1
≤ E[ ]
E[W ] W
Es decir:
1 1 1 X
Y
= ≤ E[ ] = E[ ]
E[ X ] E[W ] W Y
Por lo tanto:
X Y
E[ ]E[ ] ≥ 1
Y X

64
Problema 4
e
Sea (Xi )i∈N una sucesión de variables aleatorias positivas i.i.d. con P (Xi > x) = x log x
para
x ≥ e. Mostrar que E[Xi ] = ∞, pero que existe una sucesión de constantes µn → ∞ tales
que:
Sn n→∞
− µn −−−→ 0 en probabilidad
n

Solución:
Se puede demostrar que para una variable aleatoria positiva X se tiene que:
Z ∞
E[X] = P (X > x)dx
0

Con esto veamos que:


Z Z ∞
e
E[Xi ] = Xi dP ≥ dx = e log log x|∞
e = ∞
Ω e x log x
Notemos que:
e
lı́m nP (|X1 | ≥ n) = lı́m =0
n→∞ n→∞ log n

y (Xi )i∈N es una sucesión de variables aleatorias i.i.d.


Entonces por ley débil de los grandes números generalizada: Para todo  > 0:
n
1 X 
lı́m P Xk − E(X1 1{|X1 |≤n} ) ≥  = 0
n→∞ n k=1

Veamos ahora que E[X1 1{|X1 |≤n} ] es una sucesión de constantes:


Z n
e
µn = E[X1 1{|X1 |≤n} ] = dx = e log log x|ne = e log log n
e x log x

Luego:
Sn n→∞
− e log log n −−−→ 0 en probabilidad.
n

65
Ayudantı́a 9
Recordar:

Ley fuerte de los números grandes versión en L1 :


Sean (Xi )i∈N variables aleatorias i.i.d. integrables (E[|X1 |] < ∞). Entonces:
n
1X
lı́m Xi = E[X1 ] c.s.
n→∞ n
i=1

Problema 1
Sean (Xi )i variables aleatorias i.i.d. con E[X1 ] = ∞. Demostrar que:
Pn
i=1 Xi n→∞
−−−→ ∞
n
casi seguramente.

Solución:
Primero una acotación/recuerdo:
Sabemos que
E[Xi ] = E[Xi+ ] − E[Xi− ]
con
Xi+ (ω) = máx{Xi (ω), 0}, Xi− (ω) = − mı́n{Xi (ω), 0}
Para que E[Xi ] = ∞ es necesario que E[Xi+ ] = ∞ y E[Xi− ] < ∞.
Consideremos M > 0 y definimos:

XiM = Xi 1{Xi ≤M }

Con esto (XiM )i∈N son i.i.d. y

E[|XiM |] = E[XiM + ] + E[XiM − ]


≤ E[M ] + E[Xi− ]
= M + E[Xi− ] < ∞

Luego, por ley fuerte de los grandes números en L1 :


Pn M
i=1 Xi n→∞
−−−→ E[X1M ] c.s.
n
Como Xi ≥ XiM :
n n n
X Xi X XM i
X XM i
lı́m inf ≥ lı́m inf = lı́m = E[XiM ] c.s.
n→∞
i=1
n n→∞
i=1
n n→∞
i=1
n

66
M →∞
Ahora veamos que 0 ≤ XiM + ≤ XiM +1+ ≤ . . . y XiM + −−−→ Xi+ . Luego, por teorema de
convergencia monótona:
lı́m E[XiM + ] = E[Xi+ ]
M →∞

Por lo tanto:

lı́m E[XiM ] = lı́m E[XiM + ] − E[XiM − ] = E[Xi+ ] − E[Xi− ] = E[Xi ] = ∞


M →∞ M →∞

Entonces: n
X Xi
lı́m inf ≥ lı́m E[XiM ] = ∞ c.s.
n→∞
i=1
n M →∞

De donde concluimos que: Pn


i=1 Xi
lı́m = ∞ c.s.
n→∞ n

67
Problema 2
Calcular
1 1 1

Z Z Z
lı́m ··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn
n→∞ 0 0 0

Solución:
Sea Ω = [0, 1]N con la σ-álgebra B([0, 1])N y la medida producto de Lebesgue P = (λ|[0,1] )N
que es una medida de probabilidad utilizando teorema de extensión de Kolmogorov.
Sea Xn (x) = xn para x = (x1 , x2 , . . . ) ∈ Ω, ası́ tenemos que los Xn son i.i.d. con distribu-
ción uniforme en [0, 1] y:
Z 1Z 1 Z 1
√ p 1 Pn
··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = E[sin( n X1 · · · · · Xn )] = E[sin(e n k=1 ln(Xk ) )]
0 0 0

Los ln(Xk ) son i.i.d., tienen valores entre ln(0) = −∞ y ln(1) = 0. Además:
Z
E[|ln(Xk )|] = |ln(Xk )|dP
ZΩ1
= − ln(x)dx
0
= (x − x ln(x))|10
=1

ya que:
1
ln(x) x
lı́m x ln(x) = lı́m+ 1 = lı́m+ −1 = lı́m+ −x = 0
x→0+ x→0 x→0 x→0
x x2
utilizando L’hopital.
Entonces, por ley fuerte de los grandes números en L1 :
Pn
k=1 ln Xk n→∞
−−−→ E[ln(X1 )] c.s.
n
donde:
Z
E[ln(X1 )] = ln(X1 )dP
ZΩ1
= ln(x)dx
0
= (x ln(x) − x)|10
= −1

Luego: Pn
k=1 ln Xk n→∞
−−−→ −1 c.s.
n

68
Como la función ex es continua:
Pn
k=1 ln Xk n→∞
e n −−−→ e−1 c.s.

Como la función sin(x) es continua:


Pn
k=1 ln Xk n→∞
sin(e n ) −−−→ sin(e−1 ) c.s.
Pn
k=1 ln Xk
Ahora como sin(e n ) ≤ 1 para todo n ∈ N y E[|1|] = 1 (es integrable) se tiene por
teorema de convergencia dominada que:
Pn
k=1 ln Xk
lı́m E[sin(e n )] = E[sin(e−1 )] = sin(e−1 )
n→∞

Luego:
1 1 1

Z Z Z
lı́m ··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = sin(e−1 )
n→∞ 0 0 0

Problema 3
Sea f una función continua en [0, 1]. Demostrar que:
Z 1Z 1 Z 1
√ 1
lı́m ··· f ( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = f ( )
n→∞ 0 0 0 e

69
Problema 4
Sea X0 = (1, 0) y se define Xn+1 ∈ R2 inductivamente declarando que Xn+1 es elegido alea-
toriamente en la bola de radio kXn k centrada en el origen, es decir X n+1
kXn k
está uniformemente
distribuido en la bola de radio 1 y es independiente de X1 , . . . Xn . Demuestre que:

ln kXn k n→∞
−−−→ c ∈ R
n
casi seguramente y calcule el valor de c.

Solución:
Primero veamos que:
n n
Y kXi k Y
kXn k = = Ui
i=1
kXi−1 k i=1

con (Ui )i∈N i.i.d. y P (Ui ≤ r) = r2 para 0 ≤ r ≤ 1 (ya que X n+1


kXn k
está uniformemente
distribuido en la bola de radio 1).
Luego:
ln( ni=1 Ui )
Q Pn
ln(kXn k) ln(Ui )
= = i=1
n n n
Como (Ui )i∈N son i.i.d. entonces ln(Ui ) son i.i.d., además:
Z
E[|ln(U1 )|] = |ln(U1 )|dP
ZΩ1
= |ln(u)|dF (u)
0
Z 1
=− ln(u)2udu
0
u2
= ( − u2 ln(u))|10
2
1
= <∞
2
donde utilizamos que
1
2 ln(u)
lı́m u ln(u) = lı́m+ 1 = lı́m+ u
−2 = lı́m+ −2u2 = 0
u→0+ u→0 u→0 u→0
u2 u3

y que f (u) = 2u es la función densidad de la variable aleatoria U1 ya que su distribución


es: F (u) = P (U1 ≤ u) = u2 (2u es la derivada de Radon-Nikodym de F con respecto a la
medida de Lebesgue en [0, 1] y F es absolutamente continua con respecto a la medida de
Lebesgue en [0, 1]).
Entonces por ley fuerte de los grandes números:
Pn
i=1 ln(Ui ) n→∞
−−−→ E[ln(U1 )] c.s.
n

70
Donde: Z Z 1 Z 1
1
E[ln(U1 )] = ln(U1 )dP = ln(u)dF (u) = ln(u)2udu = −
Ω 0 0 2
Por lo tanto:
ln(kXn k) n→∞ 1
−−−→ − c.s.
n 2

71
Problema 5
Sea (Xi )i∈N una sucesión de variables aleatorias i.i.d. positivas con E[X1 ] = 2.
Sea (Yi )i∈N una sucesión de variables aleatorias i.i.d. positivas con E[Y1 ] = 3. Demostrar que:

X1 + · · · + X n 2
lı́m =
n→∞ Y1 + · · · + Yn 3
con probabilidad 1.

Solución:
Como (Xi )i∈N es una sucesión de variables aleatorias i.i.d. con E[|X1 |] = 2 < ∞ se tiene
por ley fuerte de los números grandes en L1 que:
X1 + · · · + Xn n→∞
−−−→ E[X1 ] = 2
n
con probabilidad 1.
De la misma forma, (Yi )i∈N es una sucesión de variables aleatorias i.i.d. con E[|Y1 |] = 3 <
∞, por ley fuerte de los números grandes en L1 se tiene que:
Y1 + · · · + Yn n→∞
−−−→ E[Y1 ] = 3
n
con probabilidad 1.
Llamando:
X1 (ω) + · · · + Xn (ω) n→∞
A = {ω ∈ Ω : −−−→ 2}
n
Y1 (ω) + · · · + Yn (ω) n→∞
B = {ω ∈ Ω : −−−→ 3}
n
Se tiene que:
P (A) = P (B) = 1
Luego:

P (A ∩ B) = 1 − P ((A ∩ B)c ) = 1 − P (Ac ∪ B c ) ≥ 1 − P (Ac ) − P (B c ) = 1

Por lo tanto:
X1 (ω) + · · · + Xn (ω) n→∞ Y1 (ω) + · · · + Yn (ω) n→∞
A ∩ B = {ω ∈ Ω : −−−→ 2 ∧ −−−→ 3}
n n
tiene probabilidad 1. Luego:
X1 (ω)+···+Xn (ω)
X1 (ω) + · · · + Xn (ω) n n→∞ 2
{ω ∈ Ω : = Y1 (ω)+···+Yn (ω)
−−−→ }
Y1 (ω) + · · · + Yn (ω) 3
n

con probabilidad 1.

72
Ayudantı́a 10
Recordar:

(Ω, F, P, T ) es un espacio ergódico si:

1. (Ω, F, P ) es un espacio de probabilidad.


2. T : Ω → Ω es medible y preserva la medida P : P (T −1 (A)) = P (A) ara todo
A ∈ F.
3. Para todo A ∈ F:
A = T −1 (A) =⇒ P (A) ∈ {0, 1}

Teorema Ergódico de Birkhoff:


Sea (Ω, F, P, T ) un espacio ergódico y X una variable aleatoria en L1 (Ω, F, P ). Enton-
ces:
n−1
1X
lı́m X(T k (ω)) = E[X] c.s.
n→∞ n
k=0

73
Problema 1
Sea (Ω, F, P ) un espacio de probabilidad y T : Ω → Ω una transformación medible que
preserva la medida P . Demostrar que los eventos invariantes bajo la transformación T forman
una σ-álgebra. (A ∈ F es invariante si T −1 (A) = A)

Solución:
Sea G = {A ∈ F : T −1 (A) = A}, demostraremos que G es σ-álgebra.

i)
T −1 (Ω) = {ω ∈ Ω : T (ω) ∈ Ω} = Ω
Luego Ω ∈ G.

ii) Sea A ∈ G. Entonces:

T −1 (Ac ) = {ω ∈ Ω : T (ω) ∈ Ac }
= {ω ∈ Ω : T (ω) ∈ A}c
= (T −1 (A))c
= Ac

Por lo que Ac ∈ G.

iii) Sea (Ai )i∈N ⊆ G. Entonces:


[ [
T −1 ( Ai ) = {ω ∈ Ω : T (ω) ∈ Ai }
i∈N i∈N
[
= {ω ∈ Ω : T (ω) ∈ Ai }
i∈N
[
= T −1 (Ai )
i∈N
[
= Ai
i∈N
S
Luego i∈N Ai ∈ G.

74
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad y T : Ω → Ω una transformación medible que
preserva la medida. Demostrar que las siguientes son equivalentes:
i) (Ω, F, P, T ) es espacio ergódico.
ii) Para todo A, B ∈ F:
n−1
1X
lı́m P (T −k (A) ∩ B) = P (A)P (B)
n→∞ n
k=0

Solución:
Veamos primero que i) =⇒ ii).
Supongamos (Ω, F, P, T ) es espacio ergódico. Como 1A ∈ L1 (Ω, F, P ) ya que E[|1A |] ≤ 1.
se tiene por teorema ergódico de Birkhoff:
n−1
1X
lı́m 1A ◦ T k = E[1A ] = P (A) c.s.
n→∞ n
k=0

Multiplicando ambos lados por 1B :


n−1
1X
lı́m 1B 1A ◦ T k = P (A)1B c.s.
n→∞ n
k=0

Ahora como:
n−1
1X
| 1B 1A ◦ T k | ≤ 1 ∀n ∈ N
n k=0

y 1 ∈ L1 (Ω, F, P ) se tiene por teorema de convergencia dominada que:


n−1 n−1 n−1
1X 1X 1X
E[ lı́m 1B 1A ◦ T k ] = lı́m E[ 1B 1A ◦ T k ] = lı́m E[1B 1A ◦ T k ]
n→∞ n n→∞ n k=0 n→∞ n k=0
k=0

Y notemos que:
n−1
X n−1
X
k
E[1B 1A ◦ T ] = P (T −k (A) ∩ B)
k=0 k=0
ya que:

1A ◦ T k = 1T −k (A) porque se tiene que:

1A ◦ T k (ω) = 1 ⇐⇒ T k (ω) ∈ A ⇐⇒ ω ∈ T −k (A) ⇐⇒ 1T −k (A) (ω) = 1

E[1B 1A ◦ T k ] = E[1B 1T −k (A) ] = E[1B∩T −k (A) ] = P (T −k (A) ∩ B)

75
Utilizando todo lo anterior:

P (A)P (B) = E[P (A)1B ]


n−1
1X
= E[ lı́m 1B 1A ◦ T k ]
n→∞ n
k=0
n−1
1X
= lı́m E[1B 1A ◦ T k ]
n→∞ n
k=0
n−1
X
= lı́m P (T −k (A) ∩ B)
n→∞
k=0

Veamos ahora que ii) =⇒ i).


Queremos demostrar que si se tiene que para todo A, B ∈ F:
n−1
1X
lı́m P (T −k (A) ∩ B) = P (A)P (B)
n→∞ n
k=0

entonces (Ω, F, P, T ) es espacio ergódico.


Ya sabemos que (Ω, F, P ) es espacio de probabilidad y que T : Ω → Ω es medible y
preserva la medida, por lo que solo nos falta probar que para todo A ∈ F:

A = T −1 (A) =⇒ P (A) ∈ {0, 1}

Sea A ∈ F. Supongamos que A = T −1 (A), entonces es claro inductivamente que A =


T −k (A) para todo k ∈ N, luego:

P (T −k (A) ∩ A) = P (A ∩ A) = P (A)

Por lo tanto:
n−1 n−1
1X 1X
lı́m P (T −k (A) ∩ A) = lı́m P (A)
n→∞ n n→∞ n
k=0 k=0
n
= lı́m P (A)
n→∞ n
= P (A)

Pero, también se tiene por ii) que:


n−1
1X
lı́m P (T −k (A) ∩ A) = P (A)P (A)
n→∞ n
k=0

Luego, necesariamente se tiene que P (A) = P (A)2 , de donde obtenemos que P (A) ∈ {0, 1}.
Concluimos que (Ω, F, P, T ) es espacio ergódico.

76
Problema 3: Demostración Teorema Ergódico de Birkhoff
Sea (Ω, F, P, T ) un espacio ergódico, es decir (Ω, F, P ) es un espacio de probabilidad, T :
Ω → Ω es medible tal que:

∀A ∈ F : P (T −1 (A)) = P (A) y además A = T −1 (A) =⇒ P (A) ∈ {0, 1}

Sea X una variable aleatoria en L1 (Ω, F, P ) queremos demostrar que:


n−1
1X
lı́m X ◦ T k = E[X] c.s.
n→∞ n
k=0

es decir,
n−1
n 1X k
o
P ω ∈ Ω : lı́m X(T (ω)) = E[X] = 1
n→∞ n
k=0

Para esto, sea  > 0. Sea f ∈ L1 (Ω, F, P ), se define:


n−1
X
Sn (f ) = f ◦ Tk
k=0

y también:
1
g = X − E[X] − , G = lı́m sup Sn (g )
n→∞ n

a) Demostrar que G ◦ T = G y concluir que P (G > 0) ∈ {0, 1}.

b) Sea Mn = máx(0, S1 (g ), S2 (g ), . . . , Sn (g )), ası́ 0 ≤ M1 ≤ M2 ≤ . . .


Para ω ∈ {Mn > 0} probar que Mn (ω)−Mn (T (ω)) ≤ g (ω) y concluir que E[g 1{Mn >0} ] ≥
0.

c) Sea A = ∞
S
n=1 {Sn (g ) > 0}, notar que {G > 0} ⊆ A.
Probar que E[g 1A ] ≥ 0, P (Ac ) > 0 y P (G > 0) < 1.
Utilizando a) esto implica que P ({G > 0}) = 0.

d) Concluir que P (lı́m supn→∞ n1 Sn (X) ≤ E[X]) = 1 para todo X ∈ L1 (Ω, F, P ).

e) Concluir que P (lı́mn→∞ n1 Sn (X) = E[X]) = 1 para todo X ∈ L1 (Ω, F, P ).

77
Solución:

a) Notemos que:
n
X
Sn+1 (g ) = g ◦ T k
k=0
n
X
= g + g ◦ T k
k=1
n
X
= g + (g ◦ T k−1 ) ◦ T
k=1
n−1
X
= g + (g ◦ T k ) ◦ T
k=0
= g + Sn (g ) ◦ T

Utilizando esto obtenemos que:


1
G (ω) = lı́m sup Sn (g )(ω)
n→∞ n
1
= lı́m sup Sn+1 (g )(ω)
n→∞ n + 1
g (ω) + Sn (g )(T ω)
= lı́m sup
n→∞ n+1
Sn (g )(T ω)
= lı́m sup
n→∞ n+1
Sn (g )(T ω)
= lı́m sup
n→∞ n
= G (T ω)

Luego G (ω) = G (T ω). Por lo tanto:

{ω ∈ Ω : G (ω) > 0} = {ω ∈ Ω : G (T ω) > 0}


= {ω ∈ Ω : T (ω) ∈ G−1
 [0, ∞)}
= {ω ∈ Ω : ω ∈ T (G−1
−1
 [0, ∞))}
−1
= T {ω ∈ Ω : G (ω) > 0}

Como (Ω, F, P, T ) es un espacio ergódico se tiene que:

{ω ∈ Ω : G (ω) > 0} = T −1 {ω ∈ Ω : G (ω) > 0} =⇒ P ({ω ∈ Ω : G (ω) > 0}) ∈ {0, 1}

78
b) Si Mn > 0 se tiene que:

Mn = máx(0, S1 (g ), S2 (g ), . . . , Sn (g ))


= máx(S1 (g ), S2 (g ), . . . , Sn (g ))
= g + máx(S1 (g ) − g , S2 (g ) − g , . . . , Sn (g ) − g )
= g + máx(0, S1 (g ) ◦ T, S2 (g ) ◦ T, . . . , Sn−1 (g ) ◦ T ) (por parte a)
= g + Mn−1 ◦ T

Luego en {Mn > 0}:

Mn − Mn ◦ T = g + Mn−1 ◦ T − Mn ◦ T ≤ g

ya que Mn ≥ Mn−1 . Con esto:

E[g 1{Mn >0} ] ≥ E[(Mn − Mn ◦ T ) 1{Mn >0} ]


= E[Mn 1{Mn >0} ] − E[Mn ◦ T 1{Mn >0} ]
= E[Mn 1{Mn ≥0} ] − E[Mn ◦ T 1{Mn >0} ]
≥ E[Mn ] − E[Mn ◦ T ]
= E[Mn ] − E[Mn ] = 0

Donde hemos utilizado que:

E[Mn ] = E[Mn ◦ T ] ya que T preserva la medida (definición equivalente).


Mn 1{Mn >0} = Mn 1{Mn ≥0} .
Como Mn ≥ 0 entonces E[Mn ◦ T 1{Mn >0} ] ≤ E[Mn ◦ T ].

c) Como 0 ≤ M1 ≤ M2 ≤ . . . entonces es claro que {Mn > 0} ⊆ {Mn+1 > 0} y que:



[
{Mn > 0} % {Sn (g ) > 0} = A
n=1

Es decir, ({Mn > 0})n∈N convergen de forma creciente a A.


Como X ∈ L1 (Ω, F, P ), por la definición de g = X − E[X] −  se tiene que g ∈
L1 (Ω, F, P ), ası́:
g 1{Mn >0} ∈ L1 (Ω, F, P )
n→∞
g 1{Mn >0} −−−→ g 1A
Utilizando convergencia dominada obtenemos que:
n→∞
E[g 1{Mn >0} ] −−−→ E[g 1A ]

Sabemos por la parte b) que E[g 1{Mn >0} ] ≥ 0 para todo n ∈ N, luego obtenemos
que E[g 1A ] ≥ 0.
Además notemos que:

E[g ] = E[X − E[X] − ] = − < 0

79
y por lo tanto:
E[g 1Ac ] = E[g ] − E[g 1A ] < 0
De esto concluimos que P (Ac ) > 0, ya que si se tuviera que P (Ac ) = 0 entonces
obtendrı́amos que E[g 1Ac ] = 0.
Como P (Ac ) > 0, entonces P (A) < 1, y notemos que:

{G > 0} ⊆ A

luego P ({G > 0}) < 1 y por parte a) obtenemos que necesariamente P ({G >
0}) = 0.

d) Por parte c) obtenemos que:


P ({G ≤ 0}) = 1
Además:
1
G = lı́m sup Sn (g )
n→∞ n
1
= lı́m sup Sn (X − E[X] − )
n→∞ n
n−1
1X
= lı́m sup (X − E[X] − ) ◦ T k
n→∞ n
k=0
n−1 n−1 n−1
1 X k
X
k
X
= lı́m sup ( X ◦T − E[X] ◦ T −  ◦ T k)
n→∞ n
k=0 k=0 k=0
n−1 n−1
1 X X
= lı́m sup (Sn (X) − E[X] − )
n→∞ n
k=0 k=0
1
= lı́m sup Sn (X) − E[X] − 
n→∞ n

Con esto, G ≤ 0 si y solo si:


1
lı́m sup Sn (X) ≤ E[X] + 
n→∞ n

Luego:

 1 \
lı́m sup Sn (X) ≤ E[X] = {G 1 ≤ 0}
n→∞ n m
m=1

Como P ({G ≤ 0}) = 1 para todo  > 0, entonces P ({G 1 ≤ 0}) = 1 para todo
m
m ∈ N, de donde se tiene que:

\
P( {G 1 ≤ 0}) = 1
m
m=1

80
y por lo tanto:
 1
P ( lı́m sup Sn (X) ≤ E[X] ) = 1
n→∞ n

para todo X ∈ L1 (Ω, F, P ).

e) Utilizando la parte d) y que si X ∈ L1 (Ω, F, P ), entonces también −X ∈ L1 (Ω, F, P )


se tiene que:
1
lı́m sup Sn (−X) ≤ E[−X] c.s.
n→∞ n

Luego:
1
− lı́m sup − Sn (X) ≥ E[X] c.s.
n→∞ n
y sabemos que − sup −A = ı́nf A de donde obtenemos que:
1
lı́m inf Sn (X) ≥ E[X] c.s.
n→∞ n
Juntándolo con lo obtenido en d) concluimos que:
1 1
E[X] ≤ lı́m inf Sn (X) ≤ lı́m sup Sn (X) ≤ E[X] c.s.
n→∞ n n→∞ n

Por lo tanto, para todo X ∈ L1 (Ω, F, P ):


1
lı́m Sn (X) = E[X] c.s.
n→∞ n

Es decir:
 1
P ( lı́m Sn (X) = E[X] ) = 1
n→∞ n

81
Problema 4
Sea Ω un espacio métrico. Encontrar una sucesión de medidas de probabilidad (Pn )n∈N en
(Ω, B(Ω)) que convergen débilmente a una medida P , pero que:

lı́m Pn (A) 6= P (A)


n→∞

para algún A ∈ B(Ω).


(Esto nos dice que Pn ⇒
= P no implica que lı́mn→∞ Pn (A) = P (A) para todo A ∈ B(Ω).)

Solución:
Consideremos Ω = R, B(Ω) = B(R) y las medidas de probabilidad dadas por:

Pn = δ 1 , P = δ0
n

es decir, si D ∈ B(R):
(
1, si n1 ∈ D
Pn (D) = δ 1 (D) =
n
0, en caso contrario
(
1, si 0 ∈ D
P (D) = δ0 (D) =
0, en caso contrario
Sea f una función continua y acotada, entonces:
Z Z
1
f dPn = f (x)δ 1 (dx) = f ( )
Ω R
n n
Z Z
f dP = f (x)δ0 (dx) = f (0)
Ω R

Esto se puede ver ya que, si definimos g ≡ f (0) (g es una función constante igual a f (0)),
entonces g = f δ0 -casi seguramente:

δ0 ({f = g}) = δ0 ({x ∈ R : f (x) = g(x)}) = 1

ya que 0 ∈ {x ∈ R : f (x) = g(x)}. Como f = f (0) δ0 -c.s. entonces:


Z Z
f (x)δ0 (dx) = f (0)δ0 (dx) = f (0)δ0 (R) = f (0)
R R

Con el mismo procedimiento concluimos que Ω f dPn = f ( n1 ). Ası́:


R

Z Z
1
lı́m f δ 1 (dx) = lı́m f ( ) = f (0) = f (x)δ0 (dx)
n→∞ R n n→∞ n R

82
donde utilizamos que f es continua. Por lo tanto, concluimos que Pn converge débilmente
a P.
Ahora tomando A = {0} se tiene que Pn (A) = 0 para todo n ∈ N, pero P (A) = 1, luego:

lı́m Pn (A) = 0 6= 1 = P (A)


n→∞

83
Ayudantı́a 11
Recordar:

Una sucesión (Pn )n∈N de medidas de probabilidad en (Ω, B(Ω)) converge débilmente a
P si para toda función f : Ω → R continua y acotada se tiene que:
Z Z
lı́m f dPn = f dP
n→∞ Ω Ω

Teorema de Portmanteau:
Sea Ω un espacio métrico y (Pn )n∈N , P medidas de probabilidad en (Ω, B(Ω)).
Entonces son equivalentes:

i) Pn ⇒
= P
ii) Para toda función f uniformemente continua y acotada:
Z Z
lı́m f dPn = f dP
n→∞ Ω Ω

iii) Para todo conjunto cerrado F ⊆ Ω:

lı́m sup Pn (F ) ≤ P (F )
n→∞

iv) Para todo conjunto abierto G ⊆ Ω:

lı́m inf Pn (G) ≥ P (G)


n→∞

v) Para todo conjunto A ∈ B(Ω) de P -continuidad (P (∂A) = 0):

lı́m Pn (A) = P (A)


n→∞

Sean (Xn )n∈N , X variables aleatorias. Xn converge en distribución a X (Xn ⇒


= X) si:

n→∞
PXn −−−→ PX

o equivalentemente:
lı́m FXn (x) = FX (x)
n→∞

para todo x ∈ R donde FX (x) es continua.

84
Teorema de Portmanteau (escrito en formato variable aleatoria):
Sea Ω un espacio métrico y (Xn )n∈N , X variables aleatorias en (Ω, B(Ω), P ).
Entonces son equivalentes:

i) Xn ⇒
= X
ii) Para toda función f continua y acotada:

lı́m E[f (Xn )] = E[f (X)]


n→∞

iii) Para todo conjunto cerrado F ⊆ Ω:

lı́m sup P (Xn ∈ F ) ≤ P (X ∈ F )


n→∞

iv) Para todo conjunto abierto G ⊆ Ω:

lı́m inf P (Xn ∈ G) ≥ P (X ∈ G)


n→∞

v) Para todo conjunto A ∈ B(Ω) tal que P (X ∈ ∂A) = 0:

lı́m P (Xn ∈ A) = P (X ∈ A)
n→∞

85
Problema 1
Sean (Xn )n∈N , X variables aleatorias tal que (Xn )n∈N converge en probabilidad a X.
Demostrar que (Xn )n∈N converge en distribución a X.

Solución:
La demostración tı́pica es: Link a demostración. Haremos una demostración distinta.
Sea f : R → R una función continua y acotada, demostraremos que:

lı́m E[f (Xn )] = E[f (X)]


n→∞

lo que implica por Portmanteau que Xn ⇒


= X.
Sea (Xnk )k∈N una subsucesión de (Xn )n∈N . Como (Xn )n∈N converge en probabilidad a X
sabemos que existe una subsubsucesión (Xnkl )l∈N tal que

l→∞
Xnkl −−−→ X c.s.

Como (f (Xnkl ))l∈N converge casi seguramente a f (X) y f es acotada (luego f ∈ L1 (Ω, F, P ))
se tiene por teorema de convergencia dominada que:
l→∞
E[f (Xnkl )] −−−→ E[f (X)]

Esto significa que para toda subsucesión (E[f (Xnk )])k∈N de (E[f (Xn )])n∈N existe una sub-
subsucesión (E[f (Xnkl )])l∈N de (E[f (Xnk )])k∈N tal que:

l→∞
E[f (Xnkl )] −−−→ E[f (X)]
n→∞
Por lo tanto, E[f (Xn )] −−−→ E[f (X)]. Como f es arbitraria concluimos por teorema de
Portmanteau que Xn ⇒ = X.

Demostración del hecho anterior:


Sea (Yn )n∈N ⊆ R y supongamos que para toda subsucesión (Ynk )k∈N de (Yn )n∈N existe una
l→∞ n→∞
subsubsucesión (Ynkl )l∈N de (Ynk )k∈N tal que Ynkl −−−→ Y , entonces Yn −−−→ Y .
Supongamos, por contradicción, que Yn 6→ Y . Entonces, existe  > 0 tal que para todo
N ∈ N existe n∗ > N tal que:
|Yn∗ − Y | > 
Por lo que podemos construir una subsucesión (Ynk )k∈N tal que:

|Ynk − Y | >  ∀k ∈ N

Pero, esta subsucesión (Ynk )k no tiene ninguna subsubsucesión (Ynkl )l que converja a Y ,
lo que es una contradicción.
n→∞
Concluimos que Yn −−−→ Y .

86
Problema 2
Sean (PXn )n∈N medidas de probabilidad en (Ω, B(Ω)).
Demostrar que PXn ⇒= PX si y solo si para todo x ∈ R donde FX (x) es continua se tiene que
FXn (x) → FX (x) cuando n → ∞.

Solución:
Primero veamos que si PXn ⇒
= PX entonces FXn (x) → FX (x) cuando n → ∞ para todo
x ∈ R donde FX (x) es continua.
Sea x ∈ R un punto de continuidad de FX (x), luego el conjunto (−∞, x] es de PX -
continuidad:
PX (∂(−∞, x]) = PX ({x}) = 0
ya que es un punto de continuidad de FX (x).
Ası́, por el teorema de Portmanteau:

lı́m FXn (x) = lı́m PXn ((−∞, x]) = PX ((−∞, x]) = FX (x)
n→∞ n→∞

Como el punto de continuidad x ∈ R es arbitrario, concluimos que:

lı́m FXn (x) = FX (x)


n→∞

para todo x ∈ R donde FX (x) es continua.


Veamos ahora que si FXn (x) → FX (x) cuando n → ∞ para todo x ∈ R donde FX (x) es
continua entonces PXn ⇒
= PX .
Por teorema de Portmanteau basta demostrar que: Para todo conjunto abierto G ⊆ Ω:

lı́m inf PXn (G) ≥ PX (G)


n→∞

Sea G un conjunto abierto, entonces existe una cantidad numerable de intervalos disjuntos
abiertos (Ik )k∈N (Link a demostración) tales que:
[
G= Ik
k∈N

Sea  > 0 y para cada intervalo Ik = (ak , bk ) elegimos un subintervalo Ik0 = (a0k , b0k ] tales
que a0k , b0k son puntos de continuidad de FX y:

PX (Ik ) ≤ PX (Ik0 ) + 2−k

Esto es posible de hacer ya que FX puede tener como máximo una cantidad numerable de

87
discontinuidades. Ası́, por lema de Fatou:

X
lı́m inf PXn (G) = lı́m inf PXn (Ik )
n→∞ n→∞
k=1

X
≥ lı́m inf PXn (Ik ) (Acá aplicamos Fatou)
n→∞
k=1
X∞
≥ lı́m inf PXn (Ik0 )
n→∞
k=1

Pero:
n→∞
PXn (Ik0 ) = FXn (b0k ) − FXn (a0k ) −−−→ FX (b0k ) − FX (a0k ) = PX (Ik0 )
ya que a0k , b0k son puntos de continuidad de FX y FXn (x) → FX (x) cuando n → ∞ para
todo x ∈ R donde FX (x) es continua.
Por lo tanto:

X
lı́m inf PXn (G) ≥ lı́m inf PXn (Ik0 )
n→∞ n→∞
k=1
X∞
≥ PX (Ik0 )
k=1

X
≥ PX (Ik ) − 2−k
k=1
= P (G) − 

Como  es arbitrario obtenemos que:

lı́m inf PXn (G) ≥ P (G)


n→∞

para todo conjunto abierto G ⊆ Ω.

Demostración de FX tiene como máximo una cantidad numerable de disconti-


nuidades.
Sea A el conjunto de discontinuidades de FX . Consideremos:
1
An = {x ∈ R : FX (x+ ) − FX (x− ) > }
n
donde FX (a+ ) = lı́mx→a+ F (x). Como FX es no decreciente y:

lı́m FX (x) = 1, lı́m FX (x) = 0


x→∞ x→−∞

necesariamente se debe tener que:

|An | < n (An tiene como máximo n − 1 elementos)

88
ya que en caso contrario obtendrı́amos que:
1 1
1 = lı́m FX (x) > |An | × ≥n× =1
x→∞ n n
Luego:

[
A= An
n=1

es la unión numerable de conjuntos finitos, por lo tanto numerable.

89
Problema 3
Sean (Xn )n variables aleatorias que convergen en distribución a una variable aleatoria cons-
tante c ∈ R. Demostrar que
P
Xn −−−→ c

Solución:
P
Queremos demostrar que Xn −−−→ c, es decir:

lı́m P (|Xn − c| ≥ ) = 0 ∀ > 0


n→∞

Sea B (c) ⊆ R la bola abierta centrada en c de radio . Se tiene que:

P (|Xn − c| ≥ ) = P (Xn ∈ B (c)c )

Como Xn ⇒
= c se tiene por teorema de Portmanteau que:

lı́m sup P (Xn ∈ B (c)c ) ≤ P (c ∈ B (c)c ) = 0


n→∞

ya que B (c)c es un conjunto cerrado en R.


Luego:

lı́m sup P (|Xn − c| ≥ ) = lı́m sup P (Xn ∈ B (c)c )


n→∞ n→∞
≤ P (c ∈ B (c)c )
=0

para todo  > 0. Finalmente, como:

0 ≤ lı́m inf P (|Xn − c| ≥ ) ≤ lı́m sup P (|Xn − c| ≥ ) ≤ 0


n→∞ n→∞

Concluimos que:
lı́m P (|Xn − c| ≥ ) = 0 ∀ > 0
n→∞

90
Problema 4
Sean (Xn )n∈N , X, (Yn )n∈N , Y variables aleatorias tales que Xn ⇒
= X y Yn ⇒
= Y.
Dar un ejemplo donde no se cumpla que Xn + Yn ⇒ = X +Y.

Solución:
Considerar (Xn )n∈N una sucesión de variables aleatorias con distribución uniforme en
[−1, 1]:
Xn ∼ U [−1, 1]
Entonces es claro que:
Xn ⇒
= X con X ∼ U [−1, 1]

Pero notemos que también se tiene que −X ∼ U [−1, 1], luego:

Xn ⇒
= −X con − X ∼ U [−1, 1]

Y con esto obtenemos que:

Xn + Xn = 2Xn ⇒
6= X + (−X) = 0

ya que 2Xn ∼ U [−2, 2].

91
Problema 5: Una parte del teorema de Slutsky
Sean (Xn )n , X, (Yn )n variables aleatorias tales que Xn ⇒
= X y Yn ⇒
= c, donde c es una variable
aleatoria constante. Demostrar que Xn + Yn ⇒ = X + c.

Solución:
Una forma de hacer este problema es demostrar que si Xn converge en distribución a X
y Yn converge en distribución a una constante c (y por lo tanto en probabilidad por el
problema 3), entonces el vector (Xn , Yn ) converge en distribución a (X, c). Luego aplicar
el teorema del mapeo continuo (problema 6) con la función g(x, y) = x + y.
Otra forma de hacerlo es la siguiente:
Como Yn ⇒= c y c es constante entonces Yn converge en probabilidad a c (problema 3).
Queremos demostrar que:

lı́m P (Xn + Yn ≤ a) = P (X + c ≤ a)
n→∞

para todo a tal que P (X + c = a) = 0 (es punto de continuidad de la función distribución).


Sea  > 0 y a un punto de continuidad de FX . Notemos que:

P (Xn + Yn ≤ a) = P (Xn + Yn ≤ a, |Yn − c| ≤ ) + P (Xn + Yn ≤ a, |Yn − c| > )


≤ P (Xn + Yn ≤ a, |Yn − c| ≤ ) + P (|Yn − c| > )
≤ P (Xn + Yn ≤ a, Yn − c ≥ −) + P (|Yn − c| > )
| {z }
n→∞
−−−→0
n→∞
Donde P (|Yn − c| > ) −−−→ 0 ya que Yn converge en probabilidad a c.
Ahora veamos que si Xn + Yn ≤ a y Yn ≥ c − , entonces:

Xn + c −  ≤ Xn + Yn ≤ a

Con esto obtenemos:

P (Xn + Yn ≤ a) ≤ P (Xn + c −  ≤ a) + P (|Yn − c| > )


| {z }
n→∞
−−−→0
Análogamente:

P (Xn ≤ a − c − ) ≤ P (Xn ≤ a − c − , |Yn − c| ≤ ) + P (Xn ≤ a − c − , |Yn − c| > )


≤ P (Xn ≤ a − c − , |Yn − c| ≤ ) + P (|Yn − c| > )
| {z }
n→∞
−−−→0
Ahora veamos que si Xn ≤ a − c −  y |Yn − c| ≤ , entonces:

Xn + Yn ≤ Xn + c +  ≤ a

92
Con esto obtenemos:

P (Xn ≤ a − c − ) ≤ P (Xn + Yn ≤ a) + P (|Yn − c| > )


| {z }
n→∞
−−−→0
Luego:

P (Xn +c+ ≤ a)−P (|Yn −c| > ) ≤ P (Xn +Yn ≤ a) ≤ P (Xn +c− ≤ a)+P (|Yn −c| > )

Por lo tanto:

lı́m (P (Xn + c +  ≤ a) − P (|Yn − c| > )) ≤ lı́m P (Xn + Yn ≤ a)


n→∞ n→∞
≤ lı́m (P (Xn + c −  ≤ a) + P (|Yn − c| > ))
n→∞

De donde obtenemos que:

lı́m P (Xn + c +  ≤ a) ≤ lı́m P (Xn + Yn ≤ a) ≤ lı́m P (Xn + c −  ≤ a)


n→∞ n→∞ n→∞

Como Xn ⇒
= X se tiene que:

lı́m P (Xn ≤ a − c − ) = P (X ≤ a − c − )
n→∞

lı́m P (Xn ≤ a − c + ) = P (X ≤ a − c + )
n→∞

Luego:
P (X + c +  ≤ a) ≤ lı́m P (Xn + Yn ≤ a) ≤ P (X + c −  ≤ a)
n→∞

Como  es arbitrario y a es punto de continuidad de FX :

P (X + c ≤ a) ≤ lı́m P (Xn + Yn ≤ a) ≤ P (X + c ≤ a)
n→∞

Por lo tanto:
lı́m P (Xn + Yn ≤ a) = P (X + c ≤ a)
n→∞

Como a es un punto de continuidad cualquiera, concluimos que:

Xn + Yn ⇒
= X +c

93
Problema 6
Sean (Xn )n , X variables aleatorias tales que Xn ⇒
= X y sea g una función continua.
Demostrar que g(Xn ) ⇒
= g(X).

Solución:
Sabemos por teorema de Portmanteau que:
n→∞
Xn ⇒
= X ⇐⇒ E[f (Xn )] −−−→ E[f (X)] ∀f continua y acotada

Luego, basta demostrar que:


n→∞
E[f (g(Xn ))] −−−→ E[f (g(X))] ∀f continua y acotada

Como g y f son funciones continuas entonces la composición f ◦ g es una función continua,


además como f es acotada entonces f ◦ g es acotada. Luego:
n→∞
E[(f ◦ g)(Xn )] −−−→ E[(f ◦ g)(X)]

ya que Xn ⇒
= X.

Problema 7: Más Teorema de Slutsky


Sean (Xn )n , X, (Yn )n variables aleatorias tales que Xn ⇒
= X y Yn ⇒
= c, donde c es una variable
aleatoria constante.

1. Demostrar que Xn Yn ⇒
= cX.

Xn X
2. Demostrar que Yn

= c
si c es invertible (distinto de cero en el caso en que las variables
aleatorias tengan a R como rango).

94
Ayudantı́a 12
Función caracterı́stica
La función caracterı́stica de la variable aleatoria X se define por:
Z Z Z
iXt itx
φX (t) = E(e ) = e dPX (x) = cos(tx)dPX (x) + i sen(tx)dPX (x)
R R R

Algunas de sus propiedades son:

1. φX (0) = 1

2. |φX (t)| ≤ 1 para todo t ∈ R

3. φX es la función caracterı́stica de la variable aleatoria −X. Es decir: φ−X = φX

4. Si X e Y son variables aleatorias independientes, entonces φX+Y = φX φY


n→∞
5. (Xn )n converge en distribución a X si y solo si φXn −−−→ φX

6. Si a, b ∈ R, entonces φaX+b (t) = eibt φX (at)

7. La función caracterı́stica es uniformemente continua en R

Fórmula de inversión
Sea X una variable aleatoria, φX su función caracterı́stica. Entonces:
Z T −iat
1 e − e−ibt 1
lı́m φX (t)dt = P (X ∈ (a, b)) + (P (X ∈ {a}) + P (X ∈ {b}))
T →∞ 2π −T it 2

Si la medida de probabilidad de X no tiene átomos:


Z T −iat
1 e − e−ibt
lı́m φX (t)dt = P (X ∈ (a, b))
T →∞ 2π −T it

95
Problema 1
Encontrar la función caracterı́stica de una variable aleatoria X con distribución uniforme en
(a, b).

Solución:

φX (t) = E(eitX )
Z
= eitX dPX (x)
ZR
= eitx fX (x)dx (donde fX es la densidad de la variable aleatoria X)
R
Z b itx
e
= dx (ya que fX es uniforme en (a, b))
a b−a
b
1 eitx
=
b − a it a
eitb − eita
=
it(b − a)

Problema 2
Sea µ una medida de probabilidad sin átomos. Sea φ la función caracterı́stica asociada a la
medida de probabilidad µ. Demuestre que µ es simétrica si y solo si φ(t) ∈ R para todo t ∈ R.
(Se dice que µ es simétrica si: ∀a < b se tiene µ(a, b) = µ(−b, −a))

Solución:
φ(t) ∈ R =⇒ simétrica:
Por fórmula de inversión tenemos que:
T
e−iat − e−ibt
Z
1
µ(a, b) = lı́m φ(t)dt
T →∞ 2π −T it

Hacemos un cambio de variable dado por t = −u. Ası́:


Z T −iat Z −T iau
1 e − e−ibt 1 e − eibu
lı́m φ(t)dt = lı́m φ(−u)(−du)
T →∞ 2π −T it T →∞ 2π T −iu

Ahora como φ(t) ∈ R para todo t ∈ R se tiene que:

φ(t) = φ(t) = φ(−t)

96
Luego:
−T Z T iau
eiau − eibu e − eibu
Z
1 1
lı́m φ(−u)(−du) = lı́m φ(u)du
T →∞ 2π T −iu T →∞ 2π −T −iu
Z T ibu
1 e − eiau
= lı́m φ(u)du
T →∞ 2π −T iu
= µ(−b, −a)
Simétrica =⇒ φ(t) ∈ R:
Sea X una variable aleatoria que induce la medida de probabilidad µ, con esto tenemos
que φX = φ.
Como µ es simétrica se tiene que:

P (X ∈ (a, b)) = P (X ∈ (−b, −a)) ∀a, b ∈ R, a < b

Pero, P (X ∈ (−b, −a)) = P (−X ∈ (a, b)), luego:

P (X ∈ (a, b)) = P (−X ∈ (a, b)) ∀a, b ∈ R, a < b

Además, es claro que P (X ∈ ∅) = P (−X ∈ ∅). Como los intervalos de la forma (a, b)
junto con ∅ son un π-sistema que genera B(R), concluimos que X y −X tienen la misma
distribución. Luego, φX = φ−X .
Pero sabemos que:
φ−X = φX
De donde concluimos que φ = φ, lo que signfica que φ(t) ∈ R para todo t ∈ R.

97
Problema 3 R
Demuestre que si R |φX (t)| < ∞ entonces la medida de probabilidad PX no tiene átomos.

Solución:
R
Suponemos que R
|φX (t)| = c. Luego:
Z T −iat
PX ({a}) + PX ({b}) 1 e − e−ibt
PX ((a, b)) + = lı́m φX (t)dt
2 T →∞ 2π −T it
Z T −iat
1 e − e−ibt
≤ | lı́m φX (t)dt|
T →∞ 2π −T it
Z T −iat
1 e − e−ibt
≤ lı́m | ||φX (t)|dt
T →∞ 2π −T it

Ahora notemos que:


Z b Z b Z b
e−iat − e−ibt −itx −itx
| |≤| e dx| ≤ |e |dx ≤ 1dx = b − a
it a a a

Luego:
T
e−iat − e−ibt b−a c(b − a)
Z Z
1
lı́m | ||φX (t)|dt ≤ |φX (t)| =
T →∞ 2π −T it 2π R 2π
Ası́:
PX ({a}) + PX ({b}) c(b − a)
0 ≤ PX ((a, b)) + ≤
2 2π
Por lo que, usando teorema del sandwich, cuando a → b se tiene que PX ((a, b)) → 0,
PX ({a}) → 0,
PX ({b}) → 0, luego no hay puntos en [a, b] que concentren masa.

98
Problema 4
Demostrar que X y −X tienen la misma distribución si y solo si φX (t) ∈ R para todo t ∈ R.

Solución:
=⇒
d
Sabemos que X = Y ⇐⇒ φX (t) = φY (t) ∀t ∈ R. Entonces:

φX (t) = φ−X (t) = φX (−t) = φX (t)

Por lo que φX (t) ∈ R para todo t ∈ R.


⇐=
φX (t) ∈ R ⇐⇒ φX (t) = φX (t)
Pero, se tiene que:
φX (t) = φX (−t) = φ−X (t)
d
Luego, X = −X.

Problema 5
Encontrar la función caracterı́stica de una variable aleatoria X con distribución Bernoulli de
parámetro p.

Solución:

ϕX (t) = E[eiXt ]
= E[eiXt 1{X=0} ] + E[eiXt 1{X=1} ]
= E[e0 1{X=0} ] + E[eit 1{X=1} ]
Z
= E[1{X=0} ] + eit 1{X=1} dPX (x)
R
= P (X = 0) + eit P (X = 1)
= (1 − p) + peit

99
Problema 6
Sea φ : R → C la función caracterı́stica de la variable aleatoria X. Demostrar que Re(φ) y
|φ|2 también son funciones caracterı́sticas.

Solución:
Si X tiene función caracterı́stica φ entonces −X tiene función caracterı́stica φ. Luego,

φ+φ
Re(φ) =
2
|φ|2 = φφ
Constuctivamente:
1
Sea B una variable aleatoria tal que P (B = 1) = P (B = −1) = 2
. Consideremos la
variable aleatoria Y = BX, se tiene que:

φY (t) = E(eitY ) = E(eitBX )


= E(eitBX | B = 1)P (B = 1) + E(eitBX | B = −1)P (B = −1)
E(eitBX | B = 1) E(eitBX | B = −1)
= +
2 2
itX −itX
E(e ) + E(e )
=
2
φX (t) + φ−X (t)
=
2
φX (t) + φX (t)
=
2
= Re(φX )

Por lo que Y tiene función caracterı́stica Re(φ).


Ahora para |φ|2 :
d d
Tomemos X1 = X, X2 = X con X1 , X2 independientes. Consideremos Z = X1 − X2 , se
tiene que:

φZ (t) = E(eitZ ) = E(eit(X1 −X2 ) )


= E(eitX1 e−itX2 )
= E(eitX1 )E(e−itX2 ) (por independencia de VA’s)
= φX1 (t)φ−X2 (t)
d
= φX (t)φ−X (t) (ya que X = Y ⇐⇒ φX (t) = φY (t))
= φX (t)φX (t)
= |φX (t)|2

Por lo que Z tiene función caracterı́stica |φX (t)|2 .

100
Problema 7
Encontrar la función caracterı́stica de una variable aleatoria X con distribución normal
estándar.

Solución:
Una forma de calcularla es la siguiente: Usando análisis complejo.
Otra opción es:
Sabemos que la función de densidad de una normal estándar es:
1 −x2
fX (x) = √ e 2

Con esto:

ϕX (t) = E[eiXt ]
Z
= eixt dPX (x)
ZR
= eixt fX (x)dx
ZR
1 −x2
= eixt √ e 2 dx
ZR∞ 2π
1 −x2
= eixt √ e 2 dx
−∞ 2π
Z ∞ Z 0
ixt 1 −x2 1 −x2
= e √ e 2 dx + eixt √ e 2 dx
2π 2π
Z0 ∞ Z−∞∞
1 −x2 1 −x2
= eixt √ e 2 dx + e−ixt √ e 2 dx
0
Z 2π 0 2π
1  ∞
Z ∞
−x2 −x2

=√ (cos(xt) + i sen(xt))e 2 dx + (cos(xt) − i sen(xt))e 2 dx
Z2π∞ 0 0
1 −x2
=2 √ e 2 cos(xt)dx
Z ∞ 0 2π
1 −x2
= √ e 2 cos(xt)dx
−∞ 2π
d
Ahora calculemos dt ϕX (t) (la calculamos por definición ası́ que en el mismo proceso mos-
tramos que existe).

d ϕX (t + h) − ϕX (t)
ϕX (t) = lı́m
dt h→0
R ix(t+h)h R
R
e dPX (x) − R eixt dPX (x)
= lı́m
h→0 h
ixh

Z
e 1
= lı́m eixt dPX (x)
h→0 R h

101
Queremos usar el teorema de convergencia dominada para poder intercambiar el orden del
lı́mite y la integral, para esto notemos que:
Si x ≥ 0: Z x Z x
ixh
ixt e −1 eixh − 1 ith
|e || |=| |=| e dt| ≤ |eith |dt
h ih 0 0
Ahora como:
0 ≤ |eith | ≤ 1
Obtenemos que: Z x Z x
ith
0≤ |e |dt ≤ 1dt
0 0
Z x
0≤ |eith |dt ≤ x
0
Es decir: Z x
|eith |dt ≤ x
0
Si x < 0: Z x Z 0
ixt eixh − 1 eixh − 1 ith
|e || |=| |=| e dt| ≤ |eith |dt
h ih 0 x
Ahora como:
0 ≤ |eith | ≤ 1
Obtenemos que: Z 0 Z 0
ith
0≤ |e |dt ≤ 1dt
x x
Z 0
0≤ |eith |dt ≤ −x
x
Es decir: Z 0
|eith |dt ≤ −x
x
Con esto concluimos que:

eixh − 1
|eixt || | ≤ |x| ∀x ∈ R
h
Y veamos que |x| es integrable según PX :
Z √
2
|x|dPX (x) = E[|X|] = √ < ∞
R π

(El valor √π2 fue obtenido ya que estamos calculando la esperanza de una Half-normal
distribution)

102
ixh −1
Luego, |eixt || e h
| ≤ |x| y |x| es integrable, por lo que usando teorema de convergencia
dominada:
ixh
−1 eixh − 1
Z Z
ixt e
lı́m e dPX (x) = eixt lı́m dPX (x)
h→0 R h h→0 h
ZR
= eixt ix dPX (x)
R

Calculamos esta integral:


Z Z
ixt
ixe dPX (x) = ixeixt fX (x)dx
R ZR
= ix(cos(tx) + i sen(tx))fX (x)dx
R
Z Z
1 −x2 1 −x2
= i x cos(tx) √ e 2 dx − x sen(tx) √ e 2 dx
R
Z 2π R 2π
1 −x2
= − x sen(tx) √ e 2 dx
R 2π
ya que Z ∞
1 −x2
x cos(tx) √ e 2 dx = 0
−∞ 2π
−x2
porque x cos(tx)e 2 es una función impar. Ahora integramos por parte, tomamos:
1 −x2
u = sen(tx), dv = −x √ e 2 dx

con lo que:
1 −x2
du = t cos(tx)dx, v=√ e 2

Ası́:
Z ∞ Z ∞
1 −x2 1 −x2 ∞ 1 −x2
− x sen(tx) √ e 2 dx = sen(tx) √ e 2 − √ e 2 t cos(tx)dx
−∞ 2π 2π −∞ −∞ 2π
Z ∞
1 −x2
= −t √ e 2 cos(tx)dx
−∞ 2π
= −tϕX (t)

De donde concluimos que:


ϕ0X (t) = −tϕX (t)
Es decir, obtenemos la ecuación diferencial:

ϕ0X (t) + tϕX (t) = 0

103
t2
Esta ecuación tiene factor integrante e 2 :
d t2
(e 2 ϕX (t)) = 0
dt
Integrando obtenemos:
t2
e 2 ϕX (t) = C (C es una constante)

Luego:
−t2
ϕX (t) = Ce 2

Ahora como sabemos que ϕX (0) = 1, se tiene que C = 1. Por lo tanto:


−t2
ϕX (t) = e 2

104
Ayudantı́a 13
Teorema del lı́mite central
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. en L2 con E[X1 ] = µ y Var(X1 ) = σ 2 .
Entonces: Pn
i=1 Xi − nµ
√ ⇒
= X
σ n
donde X es una variable aleatoria con distribución normal estándar. Esto significa que:
Pn
Xi − nµ
lı́m P ( i=1 √ ≤ z) = P (X ≤ z) ∀z ∈ R
n→∞ σ n

Función caracterı́stica de un vector aleatorio


Sea X = (X1 , . . . , Xd ) : Ω → Rd es un vector aleatorio, su función caracterı́stica está dada
por:
φX (t) = E[eit·X ]
donde t ∈ Rd y t · X es el producto interno en Rd de t y X.

Una parte del Teorema de Prokhorov


Sean (Pn )n∈N medidas de probabilidad tensas en un espacio métrico y separable Ω. Entonces
existe una subsucesión (Pnk ) y una medida de probabilidad P en Ω tal que Pnk converge
débilmente a P .

Teorema del lı́mite central versión vectorial


Sea (Xn )n∈N una sucesión de vectores aleatorios i.i.d. con E[X1 ] = µ y covarianzas finitas:

Vij = Cov(Xn,i , Xn,j ) = E[(Xn,i − µi )(Xn,j − µj )] < ∞

Entonces Pn
i=1 Xi − nµ
√ ⇒
= X
n
donde X es una vector aleatorio con distribución normal multivariada con esperanza 0 y
matriz de covarianza V .

105
Problema 1
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con E[X1 ] = 0 y 0 < E[X12 ] < ∞.
Demuestre que: Pn
i=1 Xi
lı́m sup √ = ∞ c.s.
n→∞ n

Solución:
Sea M ∈ N y consideremos el evento:
Pn
i=1 Xi
n o
AM = lı́m sup √ ≤M
n→∞ n

Dado que:
Pn  Pk−1 X Pn Pn
i=1 Xi i=k Xi Xi

i=1 i
lı́m sup √ = lı́m sup √ + √ = lı́m sup i=k

n→∞ n n→∞ n n n→∞ n

obtenemos que AM ∈ σ(Xk , Xk+1 , . . . ) para todo k ∈ N. Por lo tanto:



\
AM ∈ σ(Xk , Xk+1 , . . . )
k=1

(AM es medible según la σ-álgebra de la cola)


Como las variables aleatorias (Xn )n∈N son independientes, se tiene por ley 0 − 1 de Kol-
mogorov que P (AM ) ∈ {0, 1}. Por otro lado, tenemos por teorema del lı́mite central que:
Pn Pn
i=1 Xi Xi − nE[X1 ]
√ = i=1 √ ⇒
= Z
n n

donde Z es una variable aleatoria con distribución normal centrada y de varianza E[X12 ].
Supongamos, por contradicción, que P (AM ) = 1. Luego:
Pn
i=1 Xi
 
P lı́m sup √ ≤M =1
n→∞ n

Pero, entonces tendrı́amos que:


Pn
i=1 Xi
 
0 = P lı́m sup √ >M +1
n→∞ n
 Pn X 
i=1 i
≥ lı́m sup P √ >M +1
n→∞ n
 n X
P 
i=1 i
≥ lı́m P √ >M +1
n→∞ n
= P (Z > M + 1) > 0

106
ya que Z es una variable aleatoria normal, luego su cola siempre tiene medida.
Obteniendo ası́ una contradicción. Por lo tanto, P (AM ) = 0. Como M es arbitrario:
Pn Pn ∞ ∞
i=1 Xi i=1 Xi
[ X
P (lı́m sup √ = ∞) = 1−P (lı́m sup √ < ∞) ≥ 1−P ( AM ) ≥ 1− P (AM ) = 1
n→∞ n n→∞ n M =1 M =1

De donde concluimos que: Pn


i=1 Xi
lı́m sup √ = ∞ c.s.
n→∞ n

Problema 2
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con Xn ≥ 0 para todo n ∈ N, E[X1 ] = 1
y Var(Xn ) = σ 2 ∈ (0, ∞). Mostrar que:
p √
2( Sn − n) ⇒ = σZ
Pn
donde Sn = i=1 Xi y Z es una variable aleatoria con distribución normal estándar.

Solución:
Notemos que:
p √ p x √
P (2( Sn − n) ≤ x) = P ( Sn ≤ + n)
2
x2 √
= P (Sn ≤ + x n + n)
4
Sn − n x2
= P( √ ≤x+ √ )
n 4 n

Además:
Sn − n Sn − n x2 Sn − n
P( √ ≤ x) ≤ P ( √ ≤ x + √ ) ≤ P( √ ≤ x + )
n n 4 n n
x 2
con  > 0 y  > √ .
4 n
Por teorema del lı́mite central se tiene que:

Sn − nE[X1 ] Sn − n
√ = √ ⇒
= σZ
n n

107
donde Z es una variable aleatoria con distribución normal estándar. Luego:
Sn − n
P (σZ ≤ x) = lı́m P ( √ ≤ x)
n→∞ n
Sn − n x2
≤ lı́m inf P ( √ ≤x+ √ )
n→∞ n 4 n
Sn − n x2
≤ lı́m sup P ( √ ≤x+ √ )
n→∞ n 4 n
Sn − n
≤ lı́m P ( √ ≤ x + ) = P (σZ ≤ x + )
n→∞ n

Haciendo  ↓ 0 y utilizando que la función de distribución es continua por la derecha


obtenemos:
Sn − n x2
P (σZ ≤ x) ≤ lı́m P ( √ ≤ x + √ ) ≤ P (σZ ≤ x)
n→∞ n 4 n
Por lo tanto: p √
P (2( Sn − n) ≤ x) = P (σZ ≤ x)
√ √
Como x es arbitrario concluimos que 2( Sn − n) ⇒
= σZ.

108
Problema 3
Calcular n
X nk
lı́m e−n
n→∞
k=0
k!
Hint: Considerar la función de distribución de una variable aleatoria Poisson de parámetro
n.

Solución:
Si Nn es una variable aleatoria Poisson de parámetro n, entonces su función de distribución
es: x
X nk
P (Nn ≤ x) = e−n donde x ∈ {0, 1, 2, . . . }
k=0
k!
Luego:
n
−n
X nk
lı́m e = lı́m P (Nn ≤ n)
n→∞
k=0
k! n→∞

Por otra parte, se puede demostrar que una variable aleatoria con distribución Poisson de
parámetro n es la suma de n variables aleatorias independientes con distribución Poisson
de parámetro 1.
De forma más general:
Sean X e Y variables aleatorias independientes con distribución Poisson de parámetro λ1
y λ2 respectivamente. Veamos que Z = X + Y es una variable aleatoria con distribución
Poisson de parámetro λ1 + λ2 .
La función de masa de probabilidad de la distribución de Poisson es:

e−λ1 λk1 e−λ2 λk2


P (X = k) = P (Y = k) =
k! k!
donde k ∈ {0, 1, 2, . . . }. Demostraremos que:

e−λ1 −λ2 (λ1 + λ2 )k


P (Z = k) =
k!
lo que caracteriza completamente la distribución de Z.

109
P (Z = k) = P (X + Y = k)
k
X
= P (X = j ∧ Y = k − j)
j=0
k
X
= P (X = j)P (Y = k − j) (por independencia de X e Y )
j=0
k
X e−λ1 λj1 e−λ2 λk−j
2
=
j=0
j! (k − j)!
k
−λ1 −λ2
X λj1 λk−j
2
=e
j=0
(k − j)!j!
k
e−λ1 −λ2 X k!
= λj1 λk−j
2 (multiplicamos por k!)
k! j=0
(k − j)!j!
k  
e−λ1 −λ2 X k j k−j
= λ1 λ2
k! j=0
j
e−λ1 −λ2 (λ1 + λ2 )k
=
k!
Aplicando este resultado de forma iterativa, sumando n variables aleatorias independientes
con distribución Poisson de parámetros λ1 , . . . , λn se obtiene una variable aleatoria con
distribución Poisson de parámetro λ1 + · · · + λn .
Ası́, sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. de distribución Poisson de
parámetro 1. Luego:
X n
P (Nn ≤ n) = P ( Xi ≤ n)
i=1

Además, E[X1 ] = 1 y Var(X1 ) = 1. Entonces, por teorema del lı́mite central se tiene que:
 Pn X − nE[X ] 
i=1 i 1
lı́m P √ ≤ 0 = P (Z ≤ 0)
n→∞ n

donde Z es una variable aleatoria con distribución normal estándar. Pero, veamos que:
 Pn X − nE[X ]   Pn X − n  X n  X n 
i=1 i 1 i=1 i
P √ ≤0 =P √ ≤0 =P Xi −n ≤ 0 = P Xi ≤ n
n n i=1 i=1

Luego:
lı́m P (Nn ≤ n) = P (Z ≤ 0)
n→∞

y sabemos que la distribución normal estándar es simétrica en el punto 0, ası́ obtenemos:

1 = P (Z ∈ R) = P (Z ≤ 0) + P (Z > 0) = 2P (Z ≤ 0)

110
donde hemos utilizado que la distribución es continua. Por lo que P (Z ≤ 0) = 12 . Conclui-
mos que:
n
X nk 1
lı́m e−n = lı́m P (Nn ≤ n) =
n→∞
k=0
k! n→∞ 2

Problema 4
Sea X : Ω → R una variable aleatoria con función caracterı́stica ϕ. Calcular la función
caracterı́stica ψ del vector aleatorio Y = (X, . . . , X) : Ω → Rn en función de ϕ.

Solución:

ψ(t) = E[eit·Y ]
Pn
= E[ei j=1 tj X ]
Pn
= E[eiX j=1 tj ]
X n 
=ϕ tj
j=1

111
Problema 5
Sea (Xi )i∈N una sucesión de variables aleatorias i.i.d. con E[X1 ] = 0, E[X12 ] < ∞ y X12 > 0.
Mostrar que: Pn
Xi
pPi=1n ⇒
= Z
2
i=1 Xi

donde Z ∼ N (0, 1).

Solución:
Sea σ 2 = Var(X1 ). Luego:

σ 2 = Var(X1 ) = E[X12 ] − E[X1 ]2 = E[X12 ] < ∞

Notemos que:
Pn Pn √ Pn √
X i X i − nE[X 1 ] σ n X i − nE[X 1 ] σ2n
pPi=1
n = i=1
√ p n = i=1
√ p n
2 σ n 2 σ n 2
P P
i=1 Xi i=1 Xi i=1 Xi

Analizando la fracción izquierda:


Pn
i=1 Xi − nE[X1 ]
√ ⇒
= Z
σ n

donde Z ∼ N (0, 1), por teorema del lı́mite central.


Para la fracción derecha veamos que, por ley fuerte de los grandes números:
n
1X 2
lı́m Xi = E[X12 ] = σ 2 c.s.
n→∞ n
i=1

lo que está justificado ya que (Xi2 )i∈N son i.i.d. y E[|X12 |] = E[X12 ] < ∞. Con esto obtene-
mos que:
σ2
lı́m 1 Pn 2
= 1 c.s.
n→∞
n i=1 X i
2
Como 1 Pσ
n
Xi2
≥ 0 y la función raı́z cuadrada es continua de R+ +
0 → R0 :
n i=1

s
nσ 2
lı́m Pn 2
= 1 c.s.
i=1 Xi
n→∞

Sabemos que convergencia casi segura implica convergencia en probabilidad, luego:


s
nσ 2
lı́m Pn 2
= 1 en probabilidad
i=1 Xi
n→∞

112
Finalmente, aplicando teorema de Slutsky (problema 7 ayudantı́a 11) obtenemos que:
Pn Pn √
X i X i − nE[X 1 ] σ2n
pPi=1
n = i=1
√ p n ⇒
= 1Z = Z
2 σ n 2
P
i=1 Xi i=1 Xi

donde Z ∼ N (0, 1).

113
Problema 6: Teorema de Kac
Sean X, Y : Ω → Rn vectores aleatorios. Demostrar que son equivalentes:

i) X e Y son independientes.

ii) ∀ η, ξ ∈ Rn se tiene que:

E[ei(X,Y )·(ξ,η) ] = E[eiX·ξ ] · E[eiY ·η ]

Es decir: φX,Y ((ξ, η)) = φX (ξ)φY (η).

Solución:
i) =⇒ ii):
Como X, Y son independientes sabemos que:

E[f (X) g(Y )] = E[f (X)]E[g(Y )]

para toda f, g : R → R medible con f (X), g(Y ) ∈ L1 (Ω, F, P ). Ahora como:

E[ei(X,Y )·(ξ,η) ] = E[eiX·ξ+iY ·η ]


= E[eiX·ξ · eiY ·η ]
= E[(cos(X · ξ) + i sen(X · ξ))(cos(Y · η) + i sen(Y · η))]
= E[cos(X · ξ) cos(Y · η)] + iE[sen(X · ξ) cos(Y · η)]
+ iE[cos(X · ξ) sen(Y · η)] − E[sen(X · ξ) sen(Y · η)]

Aplicamos el resultado a cos : R → R y sen : R → R las cuales cumplen las hipótesis


necesarias:

E[cos(X · ξ) cos(Y · η)] + iE[sen(X · ξ) cos(Y · η)] + iE[cos(X · ξ) sen(Y · η)] − E[sen(X · ξ) sen(Y · η)]
= E[cos(X · ξ)]E[cos(Y · η)] + iE[sen(X · ξ)]E[cos(Y · η)]
+ iE[cos(X · ξ)]E[sen(Y · η)] − E[sen(X · ξ)]E[sen(Y · η)]
= (E[cos(X · ξ)] + iE[sen(X · ξ)])(E[cos(Y · η)] + iE[sen(Y · η)])
= E[eiX·ξ ] · E[eiY ·η ]

ii) =⇒ i):
Sean X̃, Ỹ independientes tales que X̃ ∼ X, Ỹ ∼ Y . Ası́:

E[ei(X,Y )·(ξ,η) ] = E[eiX·ξ ] · E[eiY ·η ] = E[eiX̃·ξ ] · E[eiỸ ·η ] = E[ei(X̃,Ỹ )·(ξ,η) ] ∀ η, ξ ∈ Rn

Lo que significa que las funciones caracterı́sticas de (X, Y ) y (X̃, Ỹ ) coinciden:

φX,Y ≡ φX̃,Ỹ

114
Sabemos que la función caracterı́stica determina completamente la distribución, luego:

PX,Y = PX̃,Ỹ = PX̃ × PỸ = PX × PY

de donde concluimos que X e Y son independientes.

Problema 7
Sea X = (X1 , . . . , Xd ) un vector aleatorio con distribución normal multivariada de media θ y
matriz de covarianza Γ. Mostrar que X1 , . . . , Xd son independientes si y solo si Γ es diagonal.

Solución:
Primero, veamos que si X1 , . . . , Xd son independientes entonces, si i 6= j:

Γij = Cov(Xi , Xj ) = E[(Xi − θi )(Xj − θj )]


= E[Xi Xj ] − θj E[Xi ] − θi E[Xj ] + θi θj
= E[Xi ]E[Xj ] − θi θj
= θi θj − θi θj
=0

de donde obtenemos que Γ es diagonal.


Ahora, supongamos que Γ es diagonal:
 
λ1 0 0 ... 0
 0 λ2 0 ... 0
 
Γ =  0 0 λ3 ... 0


 .. ... .. 
. 0 0 .
0 ... 0 0 λd

Entonces:
1 T
φX (t) = eit·θ− 2 t Γt
Pd 1 Pd
j=1 tj θj − 2 λj t2j
= ei j=1

d
1 2
Y
= eitj θj − 2 λj tj
j=1
d
Y
= φXj (tj )
j=1

y aplicando Teorema de Kac (problema 6) concluimos que X1 , . . . , Xd son independientes.

115
Ayudantı́a 14
Probabilidad condiconal
Toda versión de una probabilidad condicional P (A|G) satisface las siguientes tres propiedades:

i) P (A|G) es G-medible e integrable.

ii) Para todo conjunto G ∈ G:


Z
P (A ∩ G) = P (A|G)dP
G

iii) Si A ∈ G:
P (A|G)(ω) = 1A (ω)
salvo por un conjunto G-medible de P medida 0.

Esperanza condicional
Sea X una variable aleatoria de esperanza finita en un espacio de probabilidad (Ω, M, P ), G
una σ-álgebra en M. La variable aleatoria E(X|G) es una versión de la esperanza condicional
de X dado G si:

i) E(X|G) es G-medible.

ii) Para todo G ∈ G se tiene que:


Z Z
E(X|G)dP = XdP
G G

En algunas fuentes agregan que además se debe cumplir que E(X|G) sea integrable. Pero esto
se puede obtener como resultado de las 2 propiedades anteriores y de que X tiene esperanza
finita:

Definiciones alternativas
En algunos lugares, definen primero la esperanza condicional cumpliendo las definiciones
anteriores, demuestran su existencia para variables aleatorias integrables (una forma es
usando teorema de Radon Nikodym) y luego definen la probabilidad condicional como:
P (A|G) = E[1A |G].

116
Problema 1
Consideremos el espacio de probabilidad ([0, 1], B([0, 1]), P ) con P la medida de Lebesgue
restringida a [0, 1] (que es una medida de probabilidad).
Sea X : [0, 1] → R una variable aleatoria dada por X(ω) = ω y:
1 1 2 2 2 1 1 2
G = {∅, [0, ), [ , ), [ , 1], [0, ), [ , 1], [0, ) ∪ [ , 1], [0, 1]}
3 3 3 3 3 3 3 3
G ⊂ B([0, 1]) es una σ-álgebra. Calcular la esperanza condicional E(X|G).

Solución:
Sea A1 = [0, 13 ), A2 = [ 13 , 23 ), A3 = [ 32 , 1]. Se tiene que G = σ(A1 , A2 , A3 ) y A1 , A2 , A3 es una
partición. Notemos que una variable aleatoria G-medible debe ser constante en A1 , A2 y
A3 .
Entonces, E[X|G](ω) = ck para ω ∈ Ak , k = 1, 2, 3 y c1 , c2 , c3 ∈ R. Luego:
Z Z
ck
E[X|G]dP = ck dP = ck P (Ak ) =
Ak Ak 3
1
ya que P (Ak ) = 3
para k = 1, 2, 3. Pero, también:
Z Z
E[X|G]dP = XdP
Ak Ak

Utilizando esto obtenemos:


1
ω 2 13
Z Z
3 1 1 1
c1 = 3 XdP = 3 ωdω = 3 |0 = 3 · · =
A1 0 2 2 9 6
2
ω 2 32
Z Z
3 1 4 1 1
c2 = 3 XdP = 3 ωdω = 3 |1 = 3 · ( − ) =
A2 1
3
2 3 2 9 9 2
1
ω2 1
Z Z
1 4 5
c3 = 3 XdP = 3 ωdω = 3 | 2 = 3 · (1 − ) =
A3 2
3
2 3 2 9 6
Por lo tanto:

1 1
 6 si 0 ≤ ω < 3

1 1 5
E[X|G](ω) = 12 si 13 ≤ ω < 32 = 1[0, 1 ) + 1[ 1 , 2 ) + 1[ 2 ,1]

5 6 3 2 33 6 3
6
si 23 ≤ ω ≤ 1

117
Problema 2
Sean Y e Ỹ versiones de E(X|G). Demostrar que Y = Ỹ c.s.

Solución:
Como Y e Ỹ son versiones de E(X|G) se tiene que:
Z Z Z
Y dP = XdP = Ỹ dP ∀G ∈ G
G G G

Consideremos A = {Y − Ỹ ≥ }, como Y e Ỹ son G-medibles, entonces A ∈ G. Luego:


Z Z Z
Y dP = XdP = Ỹ dP
A A A

Lo que significa que: Z


(Y − Ỹ )dP = 0
A

Pero, dado que Y − Ỹ ≥  en A :


Z Z
0= (Y − Ỹ )dP ≥ dP = P (A )
A A

Por lo tanto, P (A ) = 0 para todo  > 0. Entonces,


[  X
P ({Y − Ỹ > 0}) = P A1 ≤ P (A 1 ) = 0
n n
n∈N n∈N

Por lo que P ({Y − Ỹ > 0}) = 0. Repitiendo el mismo procedimiento con A = {Ỹ −Y ≥ }
obtenemos P ({Ỹ − Y > 0}) = 0. Luego

P ({|Ỹ − Y | > 0}) = P ({Y − Ỹ > 0}) + P ({Ỹ − Y > 0}) = 0

Entonces, P ({|Ỹ − Y | = 0}) = 1, lo que signfica que Y = Ỹ c.s.

118
Problema 3
Sea X una variable aleatoria en (Ω, M, P ).
Demostrar que si X es independiente de la σ-álgebra G entonces E(X|G) = E(X) c.s.

Solución:
Debemos verificar las 2 condiciones para ser una versión de la esperanza condicional:

i) E[X] es G-medible por ser una constante: E[X]−1 (c) ∈ {∅, Ω} ⊆ G para todo c ∈ R.

ii) Sea A ∈ G, entonces: Z Z


XdP = 1A XdP
A Ω
Como X es independiente de G, entonces X es independiente de 1A . Esto implica
que E[X1A ] = E[X]E[1A ], luego:
Z Z Z Z Z
XdP = 1A XdP = 1A dP XdP = P (A)E(X) = E(X)dP
A Ω Ω Ω A

Como se cumplen las 2 condiciones se tiene que E(X|G) = E(X) c.s.

119
Problema 4
Sean X, Y variables aleatorias tales que X ≥ Y . Entonces:

E(X|G) ≥ E(Y |G) c.s.

Solución:
Sea A = {E(Y |G) − E(X|G) > }. Como X ≥ Y :
Z Z
XdP ≥ Y dP
A A

Como A es un evento G-medible:


Z Z Z Z
E(X|G)dP = XdP ≥ Y dP = E(Y |G)dP
A A A A

Luego:
Z Z Z Z
0≥ E(Y |G)dP − E(X|G)dP = (E(Y |G) − E(X|G))dP ≥ dP = P (A )
A A A A

Por lo que P (A ) = 0 para todo  > 0. Luego:


[  X
P (E(Y |G) − E(X|G) > 0) = P A1 ≤ P (A 1 ) = 0
n n
n∈N n∈N

Lo que signfica que P (E(Y |G) − E(X|G) > 0) = 0, luego P (E(Y |G) − E(X|G) ≤ 0) = 1
que es lo que querı́amos demostrar.

120
Problema 5
Sea (Ω, F, P ) un espacio de probabilidad y F0 un sub σ-álgebra. Sean X, Y variables alea-
torias que cumplen E(|X|) < ∞, E(|Y |) < ∞, E(|XY |) < ∞. Asuma que X es F0 -medible.
Demuestre que:
E(XY |F0 ) = XE(Y |F0 ) c.s.

Solución:
Dado que X y E(Y |F0 ) son ambos F0 medibles se tiene que XE(Y |F0 ) es F0 medible. Por
lo que solo falta demostrar que:
Z Z
XY dP = XE(Y |F0 )dP ∀A ∈ F0
A A

Primero, consideremos X = 1B con B ∈ F0 , se tiene que:


Z Z Z Z
1B Y dP = Y dP = E(Y |F0 )dP = 1B E(Y |F0 )dP
A A∩B A∩B A
R
Donde
R utilizamos que A ∩ B ∈ F0 por ser σ-álgebra y que E(Y |F0 ) cumple A
Y dP =
A
E(Y |F 0 )dP para todo A ∈ F0 . Ahora, tomando X una función simple:

n
X
X= α i 1A i con Ai ∈ F0 ∀i = 1, ..., n
i=1

Se sigue cumpliendo el resultado por la linealidad de la esperanza condicional.


Finalmente, consideramos X = X + − X − y como X es integrable, podemos tomar una
sucesión de funciones simples {Xn+ } que convergen a X + y que cumplen |Xn+ | ≤ |X + | y
una sucesión de funciones simples {Xn− } que convergen a X − y que cumplen |Xn− | ≤ |X − |.
Luego |Xn+ Y | ≤ |X + Y | y como X + Y es integrable se tiene por el teorema de convergencia
dominada para la esperanza condicional que:

E(X + Y |F0 ) = lı́m E(Xn+ Y |F0 ) = lı́m Xn+ E(Y |F0 ) = X + E(Y |F0 )
n→∞ n→∞

De la misma forma:

E(X − Y |F0 ) = lı́m E(Xn− Y |F0 ) = lı́m Xn− E(Y |F0 ) = X − E(Y |F0 )
n→∞ n→∞

De donde obtenemos que:

E(XY |F0 ) = E(X + Y |F0 ) − E(X − Y |F0 ) = X + E(Y |F0 ) − X − E(Y |F0 ) = XE(Y |F0 )

121
Otra manera similar de terminar el problema serı́a tomar una sucesión de funciones simples
crecientes que aproximan a la parte positiva de la variable aleatoria X y una sucesión de
funciones simples crecientes que aproximan a la parte negativa de la variable aleatoria X y
utilizar el teorema de convergencia monótona para la esperanza condicional y la linealidad:

E(X|F0 ) = E(X + |F0 ) − E(X − |F0 )

Problema 6
Definimos:
V ar(X|F) = E(X 2 |F) − (E(X|F))2
Demostrar que:
V ar(X) = E(V ar(X|F)) + V ar(E(X|F))

Solución:
Primero, notemos que si E(X|F) es la esperanza condicional de X dado F entonces:
Z Z
E(X|F)dP = XdP ∀F ∈ F
F F

En particular, como F es una σ-álgebra, Ω (el dominio de la variable aleatoria X) pertenece


a F. Luego: Z Z
E(X|F)dP = XdP
Ω Ω

Lo que signfica que E(E(X|F)) = E(X).


Utilizando lo anterior tenemos que:

E(E(X 2 |F)) = E(X 2 )

Entonces:

E(V ar(X|F)) = E(E(X 2 |F) − E(X|F)2 ) = E(X 2 ) − E(E(X|F)2 ) (2)

También se tiene que:

V ar(E(X|F)) = E(E(X|F)2 ) − E(E(X|F))2 = E(E(X|F)2 ) − E(X)2 (3)

Ası́, sumando (2) y (3) y utilizando que V ar(X) = E(X 2 ) − E(X)2 :

V ar(X) = E(X 2 ) − E(E(X|F)2 ) + E(E(X|F)2 ) − E(X)2


= E(V ar(X|F)) + V ar(E(X|F))

122
Problema 7
Sean X, Y variables aleatorias tales que E(Y |G) = X y E(Y 2 ) = E(X 2 ) < ∞.
Demostrar que X = Y c.s.

Solución:
Primero, veamos que como E(Y 2 ) = E(X 2 ) < ∞, y el espacio de probabilidad tiene medida
1:
Z Z
E|X| = |X|dP = 1|X|dP
Ω Ω
Z  21  Z  12
2
≤ 1 dP |X|2 dP
Ω Ω
1 1
2
= P (Ω) E(X ) 2 2

1
= E(X 2 ) 2
<∞

Z
E|XY | = |XY |dP

Z  12  Z  12
2 2
≤ |X| dP |Y | dP
Ω Ω
1 1
2 2
= E(X ) E(Y ) 2 2

<∞

donde hemos utilizado la desigualdad de Cauchy Schwarz.


Luego, E(|Y |) < ∞, E(|X|) < ∞, E(|XY |) < ∞.
Ahora, notemos que:

E[(X − Y )2 ] = E(X 2 − 2XY + Y 2 )


= E(X 2 ) − 2E(XY ) + E(Y 2 )
= 2E(X 2 ) − 2E(XY )

Pero, como E(Y |G) = X:

E(XY ) = E(E(XY |G)) (demostrado en el problema anterior)


= E(XE(Y |G)) (por problema 5 ya que: E(|Y |), E(|X|), E(|XY |) < ∞ y X es G-medible)
= E(X 2 )

Luego, combinando lo anterior:


E[(X − Y )2 ] = 0
Por lo que X − Y = 0 c.s., o equivalentemente, X = Y c.s.

123
Problema 8
Sea X, Y variables aleatorias independientes en (Ω, M, P ) con X, Y ∈ L2 (Ω, M, P ). Sea G
un sub σ-álgebra. Encuentre un ejemplo donde

E(XY |G) 6= E(X|G)E(Y |G)

Solución:
Sean Z1 : [0, 1] → {−1, 1}, Z2 : [0, 1] → {−1, 1} variables aleatorias i.i.d. tales que:
1 1
{Z1 = 1} = [0, ), {Z1 = −1} = [ , 1]
2 2
1 3 1 3
{Z2 = 1} = [0, ) ∪ [ , 1], {Z2 = −1} = [ , )
4 4 4 4
Con Ω = [0, 1], M = B([0, 1]) y P la medida de Lebesgue restringida a [0, 1] (que es
medida de probabilidad). Ası́:
1
P (Z1 = 1) = P (Z1 = −1) =
2
1
P (Z2 = 1) = P (Z2 = −1) =
2
Se puede ver que Z1 y Z2 son independientes:
1 1
σ(Z1 ) = {∅, [0, ), [ , 1], [0, 1]}
2 2
1 3 1 3
σ(Z2 ) = {∅, [0, ) ∪ [ , 1], [ , ), [0, 1]}
4 4 4 4
Por ejemplo:
1 3 1 1 1 3 1
P (([0, ) ∪ [ , 1]) ∩ [0, )) = = P ([0, ) ∪ [ , 1])P ([0, ))
4 4 2 4 4 4 2
Ahora consideremos X = Z1 Z2 , Y = Z1 y G = σ(Z2 ). Entonces:
1 1 3
{X = 1} = [0, ) ∪ [ , )
4 2 4
1 1 3
{X = −1} = [ , ) ∪ [ , 1]
4 2 4

124
X es independiente de Y (demostrarlo) y:

E(XY |G) = E(Z1 Z2 Z1 |G) = E(Z2 |G) = Z2

Pero, se tiene que:


E(Y |G) = E(Y ) = 0
Luego, E(XY |G) 6= E(X|G)E(Y |G).

125
Problema 9
Sea X, Y variables aleatorias i.i.d en (Ω, F, P ) con E(X) < ∞. Demuestre que:

X +Y
E(X|X + Y ) = E(Y |X + Y ) =
2

Solución:
Primero veamos que:
E(X|X + Y ) = E(Y |X + Y )
Sea µXY la medida en R2 inducida por la distribución conjunta (X, Y ). Es decir,

µXY (B) = P ({w ∈ Ω : (X(w), Y (w)) ∈ B})

Sean µX y µY las medidas en R inducidas por X e Y respectivamente. Como X e Y son


independientes se tiene que µXY = µX × µY , además como son idénticamente distribuidas,
µX = µY .
Denotamos µ = µX = µY .
Sea A ∈ σ(X + Y ), luego existe boreliano B ⊆ R tal que A = (X + Y )−1 (B), entonces:

1A (w) = 1B (X(w) + Y (w)) ∀w ∈ Ω

Ası́, se tiene que:


Z Z
E(X|X + Y ))dP = XdP
A ZA
= 1A XdP
ZΩ
= 1B (X(w) + Y (w))XdP
ZΩ
= 1B (x + y)xdµXY (x, y)
2
ZRZ
= 1B (x + y)xdµX (x)dµY (y)
ZZ
= 1B (x + y)xdµ(x)dµ(y)

Equivalentemente, podemos obtener:


Z ZZ
E(Y |X + Y ))dP = 1B (x + y)ydµ(x)dµ(y)
A

Ahora, como E(X|X + Y )) es integrable, podemos hacer el cambio de variable x = y y


aplicar el teorema de Fubini para finalmente obtener:

E(X|X + Y ) = E(Y |X + Y )

126
Además, sabemos que:
E(X|X) = X
Luego:

2E(X|X + Y ) = E(X|X + Y ) + E(Y |X + Y ) = E(X + Y |X + Y ) = X + Y

De donde obtenemos el resultado.

No basta con que X, Y tengan la misma distribución para que E(X|X +Y ) = E(Y |X +Y ).
Por ejemplo: Considerar Ω = {a, b, c}, F = 2Ω y P tal que:
1
P (a) = P (b) = P (c) =
3
Considerar las variables aleatorias X, Y : Ω → {0, 1, 2} dadas por:

X(a) = 0, X(b) = 1, X(c) = 2

Y (a) = 1, Y (b) = 2, Y (c) = 0


Entonces, X e Y están uniformemente distribuidos en {0, 1, 2}, por lo que tienen la misma
distribución.
Pero, veamos que:

(X + Y )(a) = 1, (X + Y )(b) = 3, (X + Y )(c) = 2

Luego, σ(X + Y ) = F, por lo que X, Y son σ(X + Y ) medibles. Por lo tanto:

E[X|X + Y ] = X

E[Y |X + Y ] = Y
Y no es cierto que X = Y c.s., luego E[X|X + Y ] 6= E[Y |X + Y ].

127

También podría gustarte