Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Facultad de Matemáticas
Departamento de Matemática
MAT2805/MAT380I - Teorı́a de Probabilidades
Problemas Resueltos de
Teorı́a de Probabilidades
Ian Butelmann
Agosto 2021
Agradecimientos a quienes me han enseñado teorı́a de probabilidades. En particular, a los
profesores Gregorio Moreno, Manuel Cabezas y Christian Sadel.
No reclamo la autorı́a de los problemas de este documento. Varios ejercicios han sido tomados
del libro Probability: Theory and Examples de Durrett, los apuntes del profesor Alejandro
Ramı́rez, pruebas, tareas o ayudantı́as antiguas (créditos a Ignacio Labarca, quien fue mi
ayudante cuando hice el curso).
Pueden haber errores en algunas soluciones.
1
Índice
Ayudantı́a 1 3
Ayudantı́a 2 12
Ayudantı́a 3 24
Ayudantı́a 4 35
Ayudantı́a 5 45
Ayudantı́a 6 49
Ayudantı́a 7 54
Ayudantı́a 8 60
Ayudantı́a 9 66
Ayudantı́a 10 73
Ayudantı́a 11 84
Ayudantı́a 12 95
Ayudantı́a 13 105
Ayudantı́a 14 116
2
Ayudantı́a 1
Recordar:
1. Convergencia puntual de funciones:
Sea (fn )n una sucesión de funciones de X a (Y, k·kY ). Se dice que la sucesión (fn )n
converge puntualmente a una función f : X → (Y, k·kY ) si, para todo x ∈ X, para todo
> 0, existe N ∈ N tal que si n ≥ N entonces kfn (x) − f (x)kY < .
2. Convergencia uniforme de funciones:
Sea (fn )n una sucesión de funciones de X a (Y, k·kY ). Se dice que la sucesión (fn )n
converge uniformemente a una función f : X → (Y, k·kY ) si, para todo > 0, existe
N ∈ N, tal que, para todo x ∈ X, si n ≥ N , entonces kfn (x) − f (x)kY < . También
se dice que converge con respecto a la métrica uniforme:
En otras palabras, convergencia c.t.p. signfica que la sucesión (fn )n converge puntual-
mente a f afuera de un conjunto de medida cero.
4. Teorema de convergencia monótona:
Sea (X, Σ, µ) un espacio de medida, D ∈ Σ.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : D → [0, ∞], tales que:
a) 0 ≤ f1 (x) ≤ f2 (x) ≤ ... para todo x ∈ D.
b) fn −−−→ f (convergencia puntual).
Entonces, f es Σ-medible y
Z Z
lı́m fn dµ = f dµ.
n→∞ D D
5. Lema de Fatou:
Sea (X, Σ, µ) un espacio de medida, D ∈ Σ.
Sea (fn )n una sucesión de funciones Σ-medibles, fn : D → [0, ∞].
Entonces, lı́m inf n→∞ fn es Σ-medible y
Z Z
lı́m inf fn dµ ≤ lı́m inf fn dµ.
D n→∞ n→∞ D
3
a) fn −−−→ f (convergencia puntual).
b) Existe una función g : X → R integrable tal que |fn (x)| ≤ g(x) para todo n y
para todo x ∈ X.
Entonces f es integrable y Z Z
lı́m fn dµ = f dµ.
n→∞ X X
d) (
1 si x ∈ A
1A (x) =
0 si x ∈
/A
4
Problema 1
Sea (An ) una sucesión de eventos. Entonces
lı́m inf An ⊆ lı́m sup An
n→∞ n→∞
Solución:
Tomaremos un elemento del S lado
T∞izquierdo y demostremos que está en elTlado derecho.
Sea x ∈ lı́m inf n→∞ An = ∞n=1 A
m=n m . Entonces
S∞ existe n 0 tal que x ∈ ∞
m=n0 Am .
Luego, x ∈ Am ∀m ≥Tn0 yS por lo tanto x ∈ m=n Am para todo n.
Se concluye que x ∈ n=1 ∞
∞
m=n Am = lı́m supn→∞ An .
Problema 2
Sea (An )n ⊆ X una sucesión de eventos. Demostrar que:
1lı́m inf An = lı́m inf 1An
n→∞ n→∞
Solución:
Demostraremos primero la primera afirmación.
Debemos demostrar que para todo x ∈ X,
Demostraremos que si 1lı́m inf An (x) = 1 entonces lı́m inf 1An (x) = 1
n→∞ n→∞
y si 1lı́m inf An (x) = 0 entonces lı́m inf 1An (x) = 0.
n→∞ n→∞
S∞ T∞
Sea x ∈ X tal que 1lı́m inf An (x) = 1, entonces x ∈ lı́m inf n→∞ An = n=1 m=n Am .
n→∞
Entonces existe n0 tal que x ∈ ∞
T
m=n para todo n ≥ n0 .
Por lo que existe n0 tal que x ∈ An para todo n ≥ n0 . Luego,
1An (x) = 1 ∀n ≥ n0
Ahora como
1 = ı́nf 1An (x) ≤ ı́nf 1An (x) ≤ 1
n≥n0 n≥n0 +1
Obtenemos que
lı́m ı́nf 1An (x) = 1
n0 →∞ n≥n0
Es decir,
lı́m inf 1An (x) = 1
n→∞
5
El caso x ∈ X tal que 1lı́m inf An (x) = 0 es análogo:
n→∞
/ lı́m inf n→∞ An = ∞
S T∞
Si 1lı́m inf An (x) = 0 entonces x ∈ n=1 m=n Am .
n→∞ T∞
/ ∞
T
Luego, no existe n tal que x ∈ m=n Am , o equivalentemente, x ∈ m=n Am para todo n.
Por lo tanto, para todo n0 ∈ N, existe n ≥ n0 tal que x ∈ / An . Es decir, para todo n0 ∈ N,
existe n ≥ n0 tal que 1An (x) = 0.
Entonces, ı́nf n≥n0 1An (x) = 0 para todo n0 . Ası́:
También que:
1A + 1Ac = 1 para todo conjunto A
Utilizando lo anterior:
6
Problema 3
Sea Ω un conjunto numerable infinito. Sea F el álgebra de todos los subconjuntos finitos de
Ω y sus complementos. Definimos
(
0 si A es finito
µ(A) =
1 si Ac es finito
Solución:
Primero, demostraremos que µ es finitamente aditiva.
Debemos demostrar que para todo A, B ∈ F con A ∩ B = ∅ se tiene que µ(A ∪ B) =
µ(A) + µ(B).
Sean A, B ∈ F con A ∩ B = ∅, tenemos 3 casos:
2. Uno tiene una cantidad finita de elementos y el otro una cantidad infinita.
Sin pérdida de generalidad, supongamos que A tiene una cantidad finita de elementos
y B una cantidad infinita de elementos. Como B ∈ F, necesariamente B c es finito.
Entonces µ(A) = 0, µ(B) = 1 y A ∪ B tiene una cantidad infinita de elementos (y
su complemento una cantidad finita), luego µ(A ∪ B) = 1. Por lo tanto, µ(A ∪ B) =
µ(A) + µ(B).
Si µ fuese σ-aditiva:
[ X X
1 = µ(Ω) = µ( {xi }) = µ({xi }) = 0=0
i∈N i∈N i∈N
7
Problema 4
Sea (Ω, F, P) un espacio de probabilidad y (An ) ⊆ F una sucesión de eventos. Demostrar
que:
P(lı́m inf An ) ≤ lı́m inf P(An )
n→∞ n→∞
Solución:
Primero demostraremos la primera afirmación.
Notemos que:
Z
P(lı́m inf An ) = 1lı́m inf An dP
n→∞ Ω
n→∞
Z
= lı́m inf 1An dP (por el problema 2)
Ω n→∞ Z
≤ lı́m inf 1An dP (por lema de Fatou: 1An ≥ 0 ∀n)
n→∞ Ω
= lı́m inf P(An )
n→∞
8
Problema 5
Demostrar que
lı́m [n, ∞) = ∅
n→∞
Solución:
Al igual que para sucesiones de valores reales, el lı́mite de una sucesión de conjuntos existe
si su lı́mite superior e inferior son iguales.
Ahora como ∞ [
∞ ∞
\ [
lı́m sup[n, ∞) = [m, ∞) ⊆ [m, ∞)
n→∞
n=1 m=n m=dxe+1
Concluimos que:
x∈
/ lı́m sup[n, ∞)
n→∞
Luego
lı́m inf An = ∅
n→∞
lı́m [n, ∞) = ∅
n→∞
9
Problema 6: Equivalencia en las definiciones de un λ-sistema
Sea Ω un conjunto. M ⊆ P (Ω) = 2Ω . M se llama un λ-sistema si cumple:
1.i) Ω ∈ M
1.ii) A, B ∈ M ∧ A ⊆ B =⇒ B \ A ∈ M
S
1.iii) (An )n ⊆ M ∧ An ⊆ An+1 ∀n ∈ N =⇒ n∈N An ∈ M
2.i) Ω ∈ M
2.ii) A ∈ M =⇒ Ac ∈ M
S
2.iii) (An )n ⊆ M ∀n ∈ N tales que Ai ∩ Aj = ∅ ∀i 6= j =⇒ n∈N An ∈ M
Solución:
Demostraremos que la primera definición implica la segunda y viceversa.
Sea M un λ-sistema cumpliendo la primera definición. Demostraremos que cumple las 3
propiedades de la segunda definición.
2.i) Ω ∈ M : Sabido.
10
Sea M un λ-sistema cumpliendo la segunda definición. Demostraremos que cumple las 3
propiedades de la primera definición.
1.i) Ω ∈ M : Sabido.
B c ∪ A = B c ∪ A ∪ ∅ ∪ ∅ ∪ ... ∈ M
B1 = A1 , Bi = Ai \ Ai−1
11
Ayudantı́a 2
Teorema de extensión de Carathéodory
Sea Ω un espacio y F un álgebra en Ω. Si µ0 : F → [0, ∞] es una función σ-aditiva sobre F,
entonces existe una medida µ definida en (Ω, σ(F)) tal que µ = µ0 en F. Además, si µ0 es
σ-finita, entonces la extensión µ es única. Video de la demostración acá.
En palabras simples para una medida de probabilidad: Permite extender de forma única una
’medida de probabilidad’ desde un álgebra a una σ-álgebra. (’medida de probabilidad’ con
comillas ya que para que sea medida de probabilidad debe estar definida en una σ-álgebra)
Recordatorio:
µ
fn −−−→ f ⇐⇒ ∀ε > 0 µ(|fn − f | ≥ ε) → 0 cuando n → ∞
fn −−−→ f ctp ⇐⇒ µ({ lı́m fn = f }c ) = 0
n→∞
Borel Cantelli 1: Sea (En )n una sucesión de conjuntos en un espacio de medida (X, F, µ).
Si X
µ(En ) < ∞
n∈N
Entonces:
µ(lı́m sup En ) = 0
n→∞
12
Problema 1
a) Sea (Ω, F, µ) un espacio de medida.
µ
Si fn −−−→ f entonces existe una subsucesión (fnk ) ⊆ (fn ) tal que fnk −−−→ f ctp.
(Esto aplica para espacios de probabilidad)
b) Encuentre una sucesión de funciones que converge en medida, pero no converge ctp.
µ
c) Suponiendo que µ(Ω) < ∞. Demuestre que fn −−−→ f ctp implica que fn −−−→ f . Esto
se cumple en un espacio de probabilidad ya que P(Ω) = 1.
Solución:
µ
a) Como fn −−−→ f : ∀ε > 0 µ(|fn − f | ≥ ε) → 0 cuando n → ∞, existe una subsucesión
(fnk ) ⊆ (fn ) tal que:
1
µ(|fnk − f | > ) < 2−k
k
para cada fnk de la subsucesión. Entonces:
∞
X 1
µ(|fnk − f | > )<∞
k=1
k
f5 = 1[ 2 ,1] , f6 = 1[0, 1 ] , f 7 = 1[ 1 , 2 ] , . . .
3 4 4 4
λ
Esta sucesión cumple que fn −−−→ 0 (converge en medida al cero), pero no converge en
ningún punto, luego no converge ctp.
13
Problema 2
Sea E una familia arbitraria de subconjuntos de Ω y B ⊆ Ω. Denotamos σ(E) al σ-álgebra
más pequeño que contiene a E y
E ∩∗ B := {A ∩ B : A ∈ E}
Demuestre que:
σ(E ∩∗ B) = σ(E) ∩∗ B
donde σ(E) ∩∗ B = {A ∩ B : A ∈ σ(E)}.
(En este problema estamos considerando a σ(E ∩∗ B) como σ-álgebra con B el conjunto
’total’)
Solución:
Demostraremos que σ(E ∩∗ B) ⊆ σ(E) ∩∗ B y que σ(E) ∩∗ B ⊆ σ(E ∩∗ B).
Como E ⊆ σ(E) se tiene que:
E ∩∗ B ⊆ σ(E) ∩∗ B
Como σ(E) ∩∗ B es una σ-álgebra (σ-algebra visto desde el conjunto B):
i) B = Ω ∩ B ∈ σ(E) ∩∗ B.
Por lo tanto: ∞ ∞ ∞
[ [ [
Cn = (An ∩ B) = An ∩ B ∈ σ(E) ∩∗ B
n=1 n=1 n=1
i) ∅ ∈ σ(E) y ∅ ∩ B = ∅ ∈ σ(E ∩∗ B) =⇒ ∅ ∈ F .
14
ii) Sea A ∈ F . Luego A ∈ σ(E) por lo que Ac ∈ σ(E). Nos falta ver que Ac ∩ B ∈
σ(E ∩∗ B).
Como A ∩ B ∈ σ(E ∩∗ B) y σ(E ∩∗ B) es una σ-álgebra (mirado desde B), entonces
B \ (A ∩ B) = Ac ∩ B ∈ σ(E ∩∗ B).
Luego Ac ∈ F .
S
iii) Sea (Ai )i∈N ⊆ F . =⇒ (Ai )i∈N ⊆ σ(E), como σ(E) es σ-álgebra se tiene que i∈N Ai ∈
σ(E).
Además, (Ai ∩ B)i∈N ⊆ σ(E ∩∗ B) y como σ(E ∩∗ B) es σ-álgebra:
[ [
Ai ∩ B = (Ai ∩ B) ∈ σ(E ∩∗ B)
i∈N i∈N
S
Luego, i∈N Ai ∈ F .
E ⊆ F ⊆ σ(E)
Obtenemos que:
σ(E) ⊆ σ(F ) = F ⊆ σ(E)
Por lo que F = σ(E). Concluimos que σ(E) ∩∗ B ⊆ σ(E ∩∗ B).
15
Problema 3: Podemos aproximar a los eventos del σ-álgebra por eventos del
álgebra
Sea (Ω, F, P ) un espacio de probabilidad y A un álgebra de eventos que satisface σ(A) = F.
Muestre que para todo > 0 y B ∈ F existe A ∈ A tal que:
P (A 4 B) ≤
donde A 4 B = A \ B ∪ B \ A.
Solución:
Consideremos el conjunto:
Los elementos de G son los eventos en F que cumplen la propiedad deseada, luego nos
basta demostrar que G = F.
Es claro que todo A ∈ A pertenece a G ya que P (A 4 A) = 0, luego A ⊆ G.
También es claro que G ⊆ F. Luego A ⊆ G ⊆ F, por lo que nos basta demostrar que G
es una σ-álgebra para obtener que:
de donde concluimos G = F.
G es σ-álgebra:
i) Como A ⊆ G y ∅ ∈ A =⇒ ∅ ∈ G
P (Ac 4 B c ) = P (A 4 B) ≤
16
Como (Bi )i∈N ⊆ G, para cada i ∈ N existe Ai ∈ A tal que:
P (Ai 4 Bi ) ≤
2i
Además: [ [ [
Bi 4 Ai ⊆ (Bi 4 Ai )
i∈N i∈N i∈N
Luego:
[ [ [
P( Bi 4 Ai ) ≤ P ( (Bi 4 Ai ))
i∈N i∈N i∈N
X
≤ P (Bi 4 Ai )
i∈N
≤
S
Pero, i∈N Ai es una unión numerable infinita, por lo que no necesariamente perte-
nece a A, que es un álgebra. Como N
S
i=1 Ai ∈ A para todo N ∈ N, quizás eso nos
puede salvar.
Notemos que ∀N ∈ N:
[ N
[ [ [ [ N
[
Bi 4 Ai ⊆ ( Bi 4 Ai ) ∪ ( Ai 4 Ai )
i∈N i=1 i∈N i∈N i∈N i=1
Ya que si x ∈ i∈N Bi 4 N
S S
i=1 Ai tenemos los siguientes casos:
/ N
S S
x ∈ i∈N Bi , pero x ∈ A:
S i
i=1
Si x ∈ Si∈N Ai =⇒ x ∈ Si∈N Ai 4 SN
S S
i=1 Ai
Si x ∈/ i∈N Ai =⇒ x ∈ i∈N Bi 4 i∈N Ai
SN S S S
/ i∈N Bi =⇒ x ∈ i∈N Bi 4 i∈N Ai
x ∈ i=1 Ai , pero x ∈
Utilizando esto:
[ N
[ [ [ [ N
[
P( Bi 4 Ai ) ≤ P (( Bi 4 Ai ) ∪ ( Ai 4 Ai ))
i∈N i=1 i∈N i∈N i∈N i=1
[ [ [ N
[
≤ P( Bi 4 Ai ) + P ( Ai 4 Ai )
i∈N i∈N i∈N i=1
[ N
[
≤ + P( Ai 4 Ai )
i∈N i=1
17
Por lo que solamente nos falta controlar a este último término. Para esto, conside-
remos la sucesión de conjuntos dada por:
i−1
[
C1 = A1 , C i = Ai \ Ak si i ≥ 2
k=1
Además:
[ N
[ ∞
[
Ci 4 Ci = Ci
i∈N i=1 i=N +1
Ası́:
[ N
[ [ N
[
P( Ai 4 Ai ) = P ( Ci 4 Ci )
i∈N i=1 i∈N i=1
∞
[
= P( Ci )
i=N +1
∞
N →∞
X
= P (Ci ) −−−→ 0
i=N +1
por lo que ∞
P
i=1 P (Ci ) es una serie convergente, luego su cola debe irse a cero.
Por lo tanto, existe N ∈ N tal que:
[ N
[
P( Ai 4 Ai ) ≤
i∈N i=1
[ N
[
P( Bi 4 Ai ) ≤ 2
i∈N i=1
donde N
S
S Ai ∈ A.
i=1
Entonces i∈N Bi ∈ G.
18
Problema 4
Sea (Ω, F, P ) un espacio de probabilidad y (Aα )α∈I ⊆ F una familia de eventos disjuntos.
Muestre que si P (Aα ) > 0 para todo α ∈ I entonces I es a lo más numerable.
Solución:
Dado n ∈ N, consideremos el conjunto:
1
In = {α ∈ I : P (Aα ) > }
n
Supongamos, por contradicción, que In es de cardinalidad infinita.
Entonces existe un subconjunto Jn ⊆ In que es de cardinalidad infinita numerable, es
decir, |Jn | = ∞
Ası́, se tendrı́a que (como los eventos son disjuntos):
[ X 1
P Aj = P (Aj ) ≥ |Jn | = ∞
j∈Jn j∈J
n
n
Por lo que obtenemos una contradicción. Concluimos que In es finito para todo n ∈ N.
Entonces escribiendo: [
I= In
n∈N
que es una unión numerable de conjuntos finitos, obtenemos que I es numerable o finito.
19
Problema 5
Sea (Ω, F, P ) un espacio de probabilidad y A ∈ F. Demuestre que el conjunto de los B ∈ F
tales que:
P (A ∩ B) = P (A)P (B)
es un λ-sistema.
Solución:
Demostraremos las 3 propiedades de la definición de un λ-sistema para el conjunto:
M = {B ∈ F : P (A ∩ B) = P (A)P (B)}
2.i) Ω ∈ M :
P (A ∩ Ω) = P (A) = P (A)P (Ω) =⇒ Ω ∈ M
2.ii) B ∈ M =⇒ B c ∈ M :
Sabemos que P (A ∩ B) = P (A)P (B), luego:
Por lo que B c ∈ M .
S
2.iii) (Bn )n ⊆ M ∀n ∈ N tales que Bi ∩ Bj = ∅ ∀i 6= j =⇒ n∈N Bn ∈ M
Sabemos que P (Bn ∩ A) = P (Bn )P (A) para todo n ∈ N, luego:
[ X
P Bn P (A) = P (Bn ) P (A)
n∈N n∈N
X
= P (Bn )P (A)
n∈N
X
= P (Bn ∩ A)
n∈N
[
= P( (Bn ∩ A))
n∈N
[
=P Bn ∩ A
n∈N
20
ya que los Bn son disjuntos y que:
[ X
P (Bn ∩ A) = P (Bn ∩ A)
n∈N n∈N
21
Problema 6
Sea (An )n una sucesión de eventos en un espacio de probabilidad que satisface:
lı́m P (An ) = 0,
n→∞
∞
X
P (An ∩ Acn+1 ) < ∞
n=1
Solución:
Primero, notemos que:
∞
[ ∞
[ ∞ \
[ ∞
An ⊆ (An ∩ Acn+1 ) ∪ An
n=k n=k N =k n=N
para todo
S∞k ∈ N. Veamos por qué esto es cierto:
Sea x ∈ n=k An . Tenemos dos casos:
S∞ T∞
Existe N ≥ k tal que x ∈ An para todo n ≥ N . En cuyo caso, x ∈ N =k n=N An .
Luego:
∞
[ ∞
[ ∞ \
[ ∞
An ⊆ (An ∩ Acn+1 ) ∪ An
n=k n=k N =k n=N
[∞ [∞ \ ∞
= (An ∩ Acn+1 ) ∪ An
n=k N =1 n=N
[∞
= (An ∩ Acn+1 ) ∪ lı́m inf An
n→∞
n=k
22
Ası́, concluimos que:
∞ [
\ ∞
P( An ) = P (lı́m sup An )
n→∞
k=1 n=k
≤ P (lı́m sup(An ∩ Acn+1 ) ∪ lı́m inf An )
n→∞ n→∞
Como ∞ c
P
n=1 P (An ∩ An+1 ) < ∞, si aplicamos el lema de Borel Cantelli 1 a la sucesión de
c
conjuntos (An ∩ An+1 )n , obtenemos que:
Además,
lı́m inf P (An ) ≤ lı́m P (An ) = 0
n→∞ n→∞
23
Ayudantı́a 3
Recordar:
Problema 1
Sea Ω = {1, 2, 3, 4, 5, 6}. Consideremos la variable aleatoria X : Ω → R dada por:
Solución:
Para esto debemos tomar cada B ∈ B(R) y mirar a X −1 (B). Entonces:
∅ si 0∈
/ B∧1∈
/B
{1, 3, 5} si 0∈B∧1∈/B
X −1 (B) =
{2, 4, 6} si 0∈
/ B∧1∈B
0∈B∧1∈B
Ω si
Luego:
σ(X) = {∅, {1, 3, 5}, {2, 4, 6}, Ω}
24
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad con Ω = {1, 2, 3, 4, 5, 6} y F = {∅, {1, 3, 5}, {2, 4, 6}, Ω}.
Demostrar que Y : Ω → R con
Solución:
Notemos que:
Y −1 ({1}) = {1, 2, 3} ∈
/F
Por lo que Y no es medible en (Ω, F, P ), luego no es una variable aleatoria en (Ω, F, P ).
con Ai eventos que forman una partición de Ω y ai , i = 1, ..., n son números reales distintos.
Encontrar σ(X).
Solución:
Tomemos B ∈ B(R):
X −1 (B) = {X ∈ B} = {ω ∈ Ω : X(ω) ∈ B}
Xn
= {ω ∈ Ω : ai 1Ai (ω) ∈ B}
i=1
Pn
Con esto podemos notar que si ai ∈ B para algún i ∈ {1, ..., n}, entonces i=1 ai 1Ai (ω) ∈
B para todo ω ∈ Ai . Luego:
n
X [
X −1 (B) = {ω ∈ Ω : ai 1Ai (ω) ∈ B} = Ai
i=1 1≤i≤n
ai ∈B
X −1 ({ai }) = Ai
X −1 (R) = Ω
25
Por lo tanto:
σ(X) = σ(A1 , . . . , An )
[
= { Ai : I ⊆ {1, ..., n}}
i∈I
Problema 4
n+1
Sean {Xi }i=1 variables aleatorias. Demostrar que
Solución:
Sea A ∈ σ(X1 , ..., Xn ).
Luego:
A = (X1 , . . . , Xn )−1 (B) = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ B)}
con B ∈ B(Rn ) (un boreliano de Rn ). Pero, notemos que:
A = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ B)} = {ω ∈ Ω : (X1 (ω), . . . , Xn (ω), Xn+1 (ω)) ∈ B×R)}
26
Problema 5
Sean {Xi }∞
i=1 una sucesión de variables aleatorias.
S∞
a) Demostrar que σ(X1 , X2 , ..., Xn ) es un álgebra.
n=1
Solución:
S∞
Demostrando que n=1 σ(X1 , X2 , ..., Xn ) es un álgebra.
27
Consideremos la sucesión de
S∞conjuntos: (An )n∈N = ({2n})n∈N .
Es claro que An = {2n} ∈ n=1 Sσ(X 1 , X2 , ..., Xn ) para todo n ∈ N ya que
∞
An = {2n} ∈ σ(X1 , ..., X
S∞ 2n ) ⊆ n=1 σ(X 1 , X2 , ..., Xn ).
Entonces,
S para
S que n=1 σ(X1 , X2 , ..., Xn ) sea una σ-álgebra,
S∞ necesitarı́amos que
n∈N An = n∈N {2n}
S = {2, 4, 6, 8, . . . } pertenezca a n=1 σ(X1 , X2 , ..., Xn ).
Pero, veamos que n∈N {2n} ∈ / σ(X1 , X2 , ..., XN ) para todo N ∈ N, luego:
[ ∞
[
{2n} ∈
/ σ(X1 , X2 , ..., Xn )
n∈N n=1
∞
[
Por lo que, con esta elección de variables aleatorias, σ(X1 , X2 , ..., Xn ) no es una
n=1
σ-álgebra.
28
Problema 6: Teorema de la clase monótona para funciones
Sea Ω un conjunto. Sea A un π-sistema (en Ω) que contiene a Ω.
Sea H una colección de funciones de Ω → R con las siguientes propiedades:
i) Si A ∈ A, entonces 1A ∈ H.
iii) Si (fn ) es una sucesión no decreciente con fn ≥ 0 tal que lı́mn→∞ fn = f , con f una
función acotada, entonces f ∈ H.
Entonces H contiene a todas las funciones acotadas que son medibles con respecto a σ(A).
Solución:
Consideremos:
G = {A ∈ σ(A) : 1A ∈ H}
Demostraremos que G es un λ-sistema.
Por la propiedad (i), se tiene que A ⊆ G. Como Ω ∈ A, entonces Ω ∈ G.
Sean A, B ∈ G con A ⊆ B. Luego 1A ∈ H y 1B ∈ H. Por la propiedad (ii) obtenemos
que:
1B − 1A = 1B\A ∈ H
y es claro que B \ A ∈ σ(A). Por lo tanto B \ A ∈ G.
Sea (An )n∈N ⊆ G tales que Ai ⊆ Ai+1 ∀i ≥ 1. Entonces:
para cualquier elección de (Ai )ni=1 ⊆ σ(A). Esto significa que H contiene a todas las
funciones simples medibles con respecto a σ(A).
Ahora, sea f una función acotada y medible en σ(A). Podemos escribir:
f = f+ − f−
29
Sabemos que podemos aproximar cualquier función σ(A)-medible, acotada, no negativa,
de forma creciente mediante funciones simples. Ası́, como las funciones simples están en
H, utilizamos la propiedad (iii) y obtenemos que f + , f − ∈ H.
Problema 7
Sean X, Y variables aleatorias.
X:Ω→R
Y :Ω→R
Demostrar que σ(Y ) ⊆ σ(X) si y solo si existe f : R → R borel-medible tal que Y = f (X).
(Y (w) = f (X(w)))
Solución:
⇐=
Supongamos existe f : R → R borel-medible tal que Y = f (X). Sea B ∈ σ(Y ), luego:
El objetivo es demostrar que H contiene a todas las variables aleatorias acotadas σ(X)-
medibles, para esto utilizaremos el teorema de la clase monótona para funciones (problema
6).
Sea A ∈ σ(X). Queremos ver que 1A ∈ H. Sabemos que:
30
Por lo tanto A = X −1 (B) para algún B ∈ B(R). Entonces:
(
1 si ω ∈ X −1 (B)
1A (ω) = 1X −1 (B) (ω) =
0 / X −1 (B)
si ω ∈
(
1 si X(ω) ∈ B
=
0 si X(ω) ∈
/B
= 1B (X(ω))
De donde concluimos que 1A (ω) = 1B (X(ω)), lo que significa que 1A puede escribirse
de la forma 1A = f (X) con f borel-medible y acotada (1B es borel-medible y acotada).
Luego 1A ∈ H para todo A ∈ σ(X).
Sean Y1 , Y2 ∈ H. Queremos demostrar que cY1 + Y2 ∈ H.
Como Y1 , Y2 ∈ H, existen f1 , f2 : R → R borel-medibles acotadas tales que Y1 = f1 (X),
Y2 = f2 (X), entonces:
cY1 + Y2 = cf1 (X) + f2 (X) = F (X)
De esta forma, cY1 + Y2 : Ω → R es acotada ya que Y1 , Y2 son acotadas y existe F
borel-medible acotada tal que cY1 + Y2 = F (X). Por lo tanto, cY1 + Y2 ∈ H.
Sea (Yn ) ⊆ H una sucesión no decreciente con Yn ≥ 0 tal que lı́mn→∞ Yn = Y ∗ , con Y ∗
acotada. Queremos ver que Y ∗ ∈ H.
Como Y ∗ es acotada, existe K < ∞ tal que Y ∗ (ω) < K para todo ω ∈ Ω, luego como
Yn es una sucesión no decreciente que converge a Y ∗ entonces 0 ≤ Yn (ω) < K para todo
ω ∈ Ω y para todo n ∈ N. Dado que (Yn ) ⊆ H, existe (fn ) con fn : R → R borel-medibles
acotadas tales que Yn = fn (X).
Debemos tener cuidado con un detalle, podrı́a ocurrir que la funciones fn estén acotadas,
pero su lı́mite no (vamos a necesitar el lı́mite de estas funciones después). Para solucionarlo,
truncamos cada fn . Esto quiere decir que vamos a considerar la sucesión de funciones (f˜n )
dadas por:
0 si fn (x) < 0
˜
fn (x) = fn (x) si 0 ≤ fn (x) ≤ K
K si K < fn (x)
Ası́, se obtiene que 0 ≤ fn ≤ K para todo n ∈ N. Y se sigue cumpliendo que Yn = f˜n (X).
Ahora, definimos:
f = lı́m sup f˜n
n→∞
La razón por la que tomamos el lı́m sup y no el lı́m es porque el lı́mite podrı́a no existir en
algunos puntos (los puntos en los que podrı́a no existir son los que no pertenecen al rango
de X).
Se tiene que f es borel-medible y además 0 ≤ f ≤ K. Sigue que:
Por lo tanto, Y ∗ ∈ H.
31
Ahora, como σ(X) es una σ-álgebra, es en particular un π-sistema que contiene a Ω.
Luego, por el teorema de la clase monótona para funciones, H contiene a todas las funciones
acotadas que son σ(X)-medibles. Esto quiere decir que cualquier variable aleatoria acotada
Y : Ω → R que sea σ(X)-medible (esto es equivalente a decir σ(Y ) ⊆ σ(X)) es de la forma
Y = f (X) con f una función borel-medible.
Consideremos ahora el caso general, sea Y : Ω → R una variable aleatoria (no necesaria-
mente acotada) con σ(Y ) ⊆ σ(X).
En este caso podemos aplicar la función:
π π
arctan : R → (− , )
2 2
y haciendo
Ỹ = arctan(Y )
obtenemos una variable aleatoria acotada. Ỹ es σ(X)-medible por ser composición de una
variable aleatoria σ(X)-medible con una función borel-medible (arctan es continua y por
lo tanto borel-medible).
Luego, por lo demostrado anteriormente, existe f˜ acotada y borel-medible tal que:
f˜(X) = Ỹ
Entonces:
Y = tan(Ỹ ) = tan(f˜(X)) = f (X)
con f = tan ◦f˜ que es borel-medible por ser composición de medibles.
32
Problema 8: Convergencia casi segura implica convergencia en probabilidad
Sean (Xn )n∈N , X variables aleatorias en el espacio de probabilidad (Ω, F, P ).
P
Demuestre que si Xn −−−→ X casi seguramente entonces Xn −−−→ X.
Solución:
Supongamos Xn −−−→ X casi seguramente. Sea > 0. Se tiene que:
Problema 9
Sean (Xn )n∈N , X variables aleatorias en el espacio de probabilidad (Ω, F, P ). Demuestre que
las siguientes condiciones son equivalentes:
ii) Toda subsucesión (Xnk )k de (Xn ) tiene una subsubsucesión (Xnkm )m que converge c.s.
a X.
Solución:
i) =⇒ ii):
Supongamos (Xn ) converge a X en probabilidad. Entonces toda subsucesión (Xnk )k de
(Xn ) tiende a X en probabilidad. Por problema 1 de la ayudantı́a 2, sabemos que (Xnk )k
tiene una subsucesión (Xnkm )m que converge casi seguramente a X.
ii) =⇒ i):
Supongamos toda subsucesión (Xnk )k de (Xn ) tiene una subsubsucesión (Xnkm )m que
converge c.s. a X. Entonces la subsubsucesión (Xnkm )m converge a X en probabilidad
(por problema 8).
Ahora, supongamos, por contradicción, que (Xn ) no converge a X en probabilidad.
33
Entonces existe > 0 tal que:
P (|Xn − X| > ) 6→ 0
Luego, existe δ > 0 tal que para todo N ∈ N existe n∗ > N tal que
P (|Xn∗ − X| > ) ≥ δ
P (|Xnk − X| > ) ≥ δ ∀k
Pero, esta subsucesión (Xnk )k no tiene ninguna subsubsucesión (Xnkm )m que converja a
X en probabilidad, lo que es una contradicción.
Concluimos que Xn converge a X en probabilidad.
¿Por qué existe este δ?
Supongamos se tiene una sucesión de números reales (an )n ⊆ R tal que an ≥ 0 para todo
n ∈ N. La definición de an → 0 cuando n → ∞ es:
34
Ayudantı́a 4
Problema 1
Sea (Ω, F, P ) un espacio de probabilidad. Sea X : Ω → R una función que asume una
cantidad numerable de valores a1 , a2 , a3 , · · · ∈ R.
Solución:
a) =⇒
X es una variable aleatoria, luego:
X −1 (B) ∈ F ∀B ∈ B(R)
Esto significa que X −1 (B) ∈ F. Como B ∈ B(R) era arbitrario, se concluye que X
es F-medible, por lo tanto X es una variable aleatoria.
35
b) Como X : Ω → asume una cantidad numerable de valores a1 , a2 , a3 , · · · ∈ R,
S∞R y −1
entonces Ω = k=1 X {ak }. Utilizando esto:
Z
E(|X|) = |X|dP
ZΩ
= S |X|dP
∞ −1 {a }
k=1 X k
Z
= 1S ∞ −1 {a } |X|dP
k=1 X k
Ω
1S ∞
k=1 X
−1 {a } = 1lı́m
k n→∞
Sn
k=1 X
−1 {a }
k
Luego:
Z ∞
Z X
1S ∞
k=1 X −1 {ak } |X|dP = 1X −1 {ak } |X|dP
Ω Ω k=1
∞
X
de donde obtenemos E(|X|) = |ak |P (X = ak ), que es lo que se querı́a demostrar.
k=1
36
c) Hacemos la descomposición:
X = X+ − X−
Aplicamos lo demostrado en b) para X + y X − :
∞
X ∞
X
+ +
+ +
E(X ) = E(|X |) = +
|ak |P (X = ak ) = a+ + +
k P (X = ak )
k=1 k=1
∞
X ∞
X
− −
E(X ) = E(|X |) = |a−
k |P (X
−
= a−
k) = a− − −
k P (X = ak )
k=1 k=1
37
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad. Sea X : Ω → R una variable aleatoria. Sea µX la
distribución de X, es decir, la medida de probabilidad inducida por X:
Solución:
Primero, supongamos que X ≥ 0. Para n, k ∈ N se define el conjunto:
k−1 k k−1 k
Ak,n = {ω ∈ Ω : ≤ X(ω) < } = X −1 [ , )
n n n n
Ahora, consideremos la variable aleatoria Xn : Ω → { nk : k ∈ N} dada por:
∞
X k
Xn = 1Ak,n
k=1
n
Ası́:
1
Xn (ω) − ≤ X(ω) ≤ Xn (ω) ∀ω ∈ Ω
n
Luego:
1 1
E(Xn − ) = E(Xn ) − ≤ E(X) ≤ E(Xn )
n n
De donde obtenemos que:
lı́m E(Xn ) = E(X)
n→∞
38
∞ ∞ Z ∞
X k−1 X X k
P (Ak,n ) ≤ xdµX ≤ P (Ak,n )
k=1
n k=1 [ k−1
n
k
,n ) k=1
n
Utilizando el teorema de convergencia monótona en:
∞ Z
X ∞ Z
X
xdµX = 1[ k−1 , k ) xdµX
n n
k=1 [ k−1
n
k
,n ) k=1 R
M Z
X
= lı́m 1[ k−1 , k ) xdµX
M →∞ R
n n
k=1
M
Z X
= lı́m 1[ k−1 , k ) xdµX
M →∞ R k=1
n n
ya que ( M
P
k=1 1[ k−1
n
k x)M ∈N es una sucesión de funciones no negativas y crecientes (x será
,n )
siempre no negativo ya que asumimos que la variable aleatoria X ≥ 0) que converge a
1[0,∞) x.
Entonces:
∞ Z
X M
Z X
xdµX = lı́m 1[ k−1 , k ) xdµX
[ k−1 k
,n ) M →∞ R k=1
n n
k=1 n
Z XM
= lı́m 1[ k−1 , k ) xdµX
R M →∞ k=1
n n
Z X ∞
= 1[ k−1 , k ) xdµX
n n
R k=1
Z
= 1[0,∞) xdµX
ZR
= xdµX
[0,∞)
39
Para el caso general de una variable aleatoria cualquiera (no necesariamente no negativa),
descomponemos la variable aleatoria:
X = X+ − X−
E(X) = E(X + − X − )
= E(X + ) − E(X − )
Z Z
= xdµX + − xdµX −
[0,∞) [0,∞)
Z Z
= xdµX + − xdµX −
[0,∞) (0,∞)
Z Z
= xdµX + xdµX
[0,∞) (−∞,0)
Z
= xdµX
R
Problema 3
Sea (Xn ) una sucesión de variables aleatorias y X una variable aleatoria. Demuestre que si
L2
Xn −−−→ X
Solución:
Sea > 0. Se tiene que:
40
Problema 4
Sea X : Ω → R una variable aleatoria tal que X ≥ 0 y E(X) = 0. Demostrar que X = 0 c.s.
Solución:
Sea n ∈ N. Se tiene que:
1 1
P (X ≥ ) = P (|X| ≥ )
n n
≤ nE(|X|)
= nE(X) = 0
Por lo tanto:
P (X = 0) = 1 − P (X 6= 0) = 1
de donde se concluye que X = 0 c.s.
Problema 5
P
a) Si Xn −−−→ c, con c ∈ R y h : R → R es una función continua en c.
P
Demostrar que h(Xn ) −−−→ h(c).
P P
b) Si Xn −−−→ X y h : R → R es una función continua. Demostrar que h(Xn ) −−−→ h(X).
Solución:
a) Como h es continua en c:
Entonces:
∀ > 0 ∃δ > 0 tal que |c − Xn (ω)| < δ =⇒ |h(c) − h(Xn (ω))| <
∃δ > 0 tal que |c − Xn (ω)| < δ =⇒ |h(c) − h(Xn (ω))| <
41
Luego:
Por lo que:
P (|c − Xn (ω)| < δ ) ≤ P (|h(c) − h(Xn (ω))| < )
Ahora como Xn converge en probabilidad a c:
Entonces:
lı́m P (|h(c) − h(Xn (ω))| < ) = 1
n→∞
Por lo tanto,
lı́m P (|h(c) − h(Xn (ω))| ≥ ) = 0
n→∞
P
Como era arbitrario, se concluye que h(Xn ) −−−→ h(c).
42
Problema 6
Sea X : Ω → N una variable aleatoria. Demuestre que:
∞
X
E(X) = P (X ≥ i)
i=1
Solución:
Forma 1: Aplicar el lema 1.33 de los apuntes del profesor Alejando Ramı́rez con
p = 1:
Z ∞
E(X) = P (X > x)dx
Z0
= 1[0,∞) P (X > x)dx
R
∞
Z X
= 1[k−1,k) P (X > x)dx
R k=1
∞
Z X
= 1[k−1,k) P (X > x)dx
R k=1
Z n
X
= lı́m 1[k−1,k) P (X > x)dx
R n→∞ k=1
Ası́:
n
Z X
E(X) = lı́m 1[k−1,k) P (X > x)dx
n→∞ R k=1
∞ Z
X
= 1[k−1,k) P (X > x)dx
k=1 R
X∞ Z k
= P (X > x)dx
k=1 k−1
43
luego:
∞ Z
X k ∞ Z
X k ∞
X ∞
X
P (X > x)dx = P (X > k−1)dx = P (X > k−1) = P (X ≥ k)
k=1 k−1 k=1 k−1 k=1 k=1
Forma 2:
Como X : Ω → N es una variable aleatoria positiva, entonces X = |X|, luego
sabemos por el problema 1.b) que:
∞
X ∞
X
E(X) = E(|X|) = |ai |P (X = ai ) = iP (X = i)
i=1 i=1
Entonces:
∞
X
E(X) = iP (X = i)
i=1
X∞ Xi
= ( 1)P (X = i)
i=1 j=1
∞ X
X i
= P (X = i)
i=1 j=1
X∞ X ∞
= P (X = i)
j=1 i=j
X∞
= P (X ≥ j)
j=1
1≤j≤i<∞
44
Ayudantı́a 5
Problema 1
Sean {Xi }∞
i=1 una sucesión de variables aleatorias independientes y
∞
\
T = σ(Xi , Xi+1 , ...)
i=1
Solución:
Como X es una variable aleatoria medible según la sigma-álgebra de la cola se tiene que:
{X ≤ x} ∈ T
lı́m F (x) = 0
x→−∞
lı́m F (x) = 1
x→∞
Entonces, F debe ’saltar’ en algún punto, es decir, existe un punto c ∈ R tal que:
F (c − ) = 0, F (c + ) = 1 ∀ > 0
45
Problema 2 Pn
Sean {Xi }∞
i=1 una sucesión de variables aleatorias independientes y Sn = i=1 Xi . Demostrar
que:
Sn
P lı́m sup >M =0 o 1
n→∞ n
Solución:
Notemos que para cualquier m ∈ N fijo:
Pn
Sn Sn − Sm i=m+1 Xi
{lı́m sup > M } = {lı́m sup > M } = {lı́m sup > M}
n→∞ n n→∞ n n→∞ n
Sm
ya que lı́m supn→∞ n
= 0. Además:
Sn − Sm
{ > M } ∈ σ(Xm+1 , . . . , Xn )
n
Luego:
∞
Sn − Sm [
{lı́m sup > M } ∈ σ(Xm+1 , Xm+2 , . . . ) = σ σ(Xk )
n→∞ n k=m+1
Por lo que {lı́m supn→∞ Snn > M } es un evento de la sigma-álgebra de la cola de la sucesión
de variables aleatorias independientes {Xi }∞
i=1 .
Por la Ley 0 − 1 de Kolmogorov, concluimos que P ({lı́m supn→∞ Snn > M }) es igual a 0 o
1.
46
Problema 3
Sean {Xi }∞
i=1 con Xi : Ω → R una sucesión de variables aleatorias independientes. Demostrar
que:
P (sup Xn < ∞) ∈ {0, 1}
n∈N
Solución:
Notemos que:
{sup Xn < ∞} = {sup Xn < ∞} ∩ {X1 < ∞}
n∈N n∈N
n>1
{sup Xn < ∞} = {sup Xn < ∞} ∩ {X1 < ∞} = {sup Xn < ∞} ∩ Ω = {sup Xn < ∞}
n∈N n∈N n∈N n∈N
n>1 n>1 n>1
Iterando:
{sup Xn < ∞} = {sup Xn < ∞} ∀k ∈ N
n∈N n∈N
n>k
Sabemos que:
{sup Xn < ∞} ∈ σ(X1 , X2 , . . . )
n∈N
Pero, hemos demostrado que no depende de las primeras k variables para todo k ∈ N, por
lo tanto:
{sup Xn < ∞} ∈ σ(Xk , Xk+1 , . . . ) ∀k ∈ N
n∈N
Luego:
∞
\
{sup Xn < ∞} ∈ σ(Xk , Xk+1 , . . . )
n∈N
k=1
47
Problema 4
Sea Ω un conjunto numerable, F una σ-álgebra de subconjuntos de Ω y P una medida de
probabilidad en F . Muestre que NO existe una colección (Ai )i∈N de eventos independientes
en (Ω, F, P ) con P (Ai ) = 12 para todo i ∈ N.
Solución:
Supongamos, por contradicción, existe una colección (Ai )i∈N de eventos independientes en
(Ω, F, P ) con P (Ai ) = 12 para todo i ∈ N. Sea ω ∈ Ω un elemento y definamos la sucesión
de conjuntos (Bi )i∈N por: (
Ai si ω ∈ Ai
Bi =
Aci si ω 6∈ Ai
Es claro que, para todo n ∈ N se cumple que ω ∈ ni=1 Bi . También, dado que los conjuntos
T
(Ai )i∈N son independientes, se tiene que los conjuntos (Bi )i∈N son independientes.
Como P (Ai ) = 12 , entonces P (Aci ) = 12 , de donde obtenemos que P (Bi ) = 12 para todo
i ∈ N.
Por lo tanto: n
\ 1
P (ω) ≤ P Bi = n ∀n ∈ N
i=1
2
De esto se deduce que P (ω) = 0. Como ω era arbitrario concluimos que P (ω) = 0 para
todo ω ∈ Ω.
Dado que Ω es numerable, podemos indexar sus elementos:
[
Ω = {ωi : i ∈ N} = {ωi }
i∈N
48
Ayudantı́a 6
Recordar:
∞ [
\ ∞
lı́m sup An = Am = {An i.o.}
n→∞
n=1 m=n
Una familia de variables aleatorias (Xi )i∈I son independientes si (σ(Xi ))i∈I son inde-
pendientes.
Borel Cantelli I:
Sea (En )n una sucesión de eventos en un espacio de probabilidad (Ω, F, P ). Si
X
P (En ) < ∞
n∈N
Entonces:
P (lı́m sup En ) = 0
n→∞
Entonces:
P (lı́m sup En ) = 1
n→∞
49
Problema 1
Se lanza una moneda una cantidad infinita de veces de forma independiente. Demostrar que
la probabilidad de obtener dos caras consecutivas una cantidad infinita de veces es 1.
Solución:
Podemos modelar el lanzamiento de las monedas como una sucesión de variables aleatorias
(Xn )n∈N independientes Bernoulli de parámetro 12 . Consideremos los eventos:
An = {Xn = 1 ∧ Xn+1 = 1}
Por el lema de Borel Cantelli II se obtiene que P (A2n i.o.) = 1, de donde concluimos que
P (An i.o.) = 1.
50
Problema 2
Sea (Xn )n∈N una sucesión de variables aleatorias independientes con:
1 1
P ({Xn = n2 }) = , P ({Xn = −1}) = 1 −
n2 n2
Pn
para todo n. Demostrar que i=1 Xi converge casi seguramente a −∞ cuando n → ∞.
Solución:
Se tiene que:
∞ ∞
X X
2 1
P (Xn = n ) = <∞
n=1 n=1
n2
luego P ({Xn = n2 i.o.}) = 0 por el lema de Borel Cantelli I. Similarmente,
∞ ∞
X X 1
P (Xn = −1) = 1− =∞
n=1 n=1
n2
Luego, como la sucesión de variables aleatorias (Xn )n∈N son independientes, entonces
({Xn = −1})n∈N son independientes. Ası́, por el lema de Borel Cantelli II, obtenemos
que P ({Xn = −1 i.o.}) = 1.
Ahora, por definición de Xn , P (Xn ∈ {n2 , −1}) = 1. Esto significa que, afuera de un
conjunto de probabilidad cero, Xn solo toma los valores n2 o −1.
Como P ({Xn = n2 i.o.}) = 0 y P ({Xn = −1 i.o.}) = 1, se tiene que casi seguramente para
ω ∈ Ω, existe Nω tal que Xn (ω) = −1 para todo n ≥ Nω (ojo que esto no es consecuencia
directa solamente de P ({Xn = −1 i.o.}) = 1).
Sigue que:
n
X Nw
X ∞
X
lı́m Xi (ω) = Xi (ω) + Xi (ω)
n→∞
i=1 i=1 i=Nw +1
Nw
X ∞
X
≤ i2 + −1
i=1 i=Nw +1
= −∞
Pn
Luego, lı́mn→∞ i=1 Xi = −∞ casi seguramente.
51
Problema 3: Infinite monkey theorem
Un mono pulsando teclas al azar sobre un teclado durante un periodo de tiempo infinito casi
seguramente podrá escribir cualquier texto dado.
En otras palabras, dada una cadena infinita donde cada carácter es elegido de manera aleato-
ria, cualquier cadena finita casi seguramente ocurre como subcadena de la primera en alguna
posición (de hecho, en infinitas posiciones).
Solución:
Considerar una cadena infinita de letras: a1 a2 a3 . . . producida con un alfabeto finito de
n letras eligiendo la letra en cada posición de forma independiente y uniforme sobre el
alfabeto (cada letra es elegida con probabilidad 1/n).
Fijamos una cadena finita de letras de largo m sobre el alfabeto: S = s1 . . . sm .
Sea (Ej )∞
j=1 una sucesión de eventos dada por:
Queremos demostrar que casi seguramente, ocurre una cantidad infinita de los Ej , esto
quiere decir que P (Ej i.o.) = 1.
Para esto, consideremos la sucesión de eventos (Emj+1 )∞
j=0 = {E1 , Em+1 , E2m+1 , . . . } y
notemos que son eventos independientes ya que los eventos:
Por lo tanto, por el lema de Borel Cantelli II, P (Emj+1 i.o.) = 1. De donde es claro que
P (Ej i.o.) = 1.
52
Problema 4
Sea X una variable aleatoria tal que E(X 2 ) = 1 y E(|X|) ≥ a > 0.
Para 0 ≤ λ ≤ 1, demostrar que P ({|X| ≥ λa}) ≥ (1 − λ)2 a2 .
Solución:
Para facilitar el trabajo escribamos A = {|X| ≥ λa}. Se tiene que:
Problema 5
Sea (An )n∈N una sucesión de eventos en (Ω, F, P ).
¿Puede ocurrir simultáneamente que P (An i.o.) = 1 y que P (Acn i.o.) = 1?
Solución:
Sı́. Considerar la sucesión de variables aleatorias (Xn )n∈N dadas por:
(
1, si n es par
Xn (ω) =
−1, si n es impar
53
Ayudantı́a 7
Recordar:
Demostración:
Sea > 0. Se tiene por desigualdad de Chebyshev que:
n n Pn
1 X 1 X k=1 Xk
P Xk − E[X1 ] ≥ = P
Xk − E[ ] ≥
n k=1 n k=1 n
Var( n1 nk=1 Xk )
P
≤ 2
1
Pn
2 k=1 Var(Xk )
= n
2
n
2 Var(X1 )
= n
2
Var(X1 )
=
n2
n→∞
−−−→ 0
ya que las variables aleatorias (Xn )n∈N son independientes, y por lo tanto, no correla-
cionadas.
Y también utilizamos que: Var(aX) = a2 Var(X) si a es una constante.
54
Problema 1: Integracion de Monte Carlo
Sea f : [0, 1] → R una función medible con
Z 1
(f (x))2 dx < ∞
0
Sean (Ui )i∈N variables aleatorias i.i.d. con distribución uniforme en [0, 1].
Demostrar que para todo > 0 se tiene que:
n Z 1
1 X
lı́m P f (Ui ) − f (x)dx ≥ = 0
n→∞ n 0
i=1
Solución:
Como la sucesión de variables aleatorias (Ui )i∈N son i.i.d. y f es medible entonces (f (Ui ))i∈N
es una sucesión de variables aleatorias i.i.d. Se tiene que:
Z Z 1
2 2
E(f (Ui )) = f (Ui )dP = f 2 (x)dx < ∞
Ω 0
55
Problema 2: Generalización de la Ley débil de los números grandes versión con
varianza
Sea (Xi )i∈N una sucesión de variables aleatorias
Pn dependientes idénticamente distribuidas
con varianza finita. Denotamos Sn = i=1 X i a la n-ésima suma parcial de las variables
aleatorias.
Supongamos que Cov(Xi , Xj ) ≤ c|i−j| para todo i, j ∈ N con |c| < 1. Demostrar que:
Sn
lı́m P − E(X1 ) ≥ = 0
n→∞ n
Solución:
Sea > 0 y n ∈ N. Se tiene por desigualdad de Chebyshev que:
n X
X n n
X n X
X i−1
c|i−j| = c|i−i| + 2 c|i−j|
i=1 j=1 i=1 i=1 j=1
n
X n X
X i−1
= 1+2 ci−j
i=1 i=1 j=1
n
X i−1
X
=n+2 ci c−j
i=1 j=1
n
X c−1 − c−i
=n+2 ci ( )
i=1
1 − c−1
n
2c X i −1
=n+ c (c − c−i )
c − 1 i=1
n
2c X i−1
=n+ c −1
c − 1 i=1
2c 1 − cn
=n+ ( − n)
c−1 1−c
2c(cn − 1) 2nc
=n+ 2
−
(c − 1) c−1
56
Luego:
Sn Var( Snn )
lı́m P (| − E(X1 )| ≥ ) ≤ lı́m
n→∞ n n→∞ 2
n −1)
n + 2c(c
(c−1)2
− 2nc
c−1
≤ lı́m =0
n→∞ 2 n2
Como es arbitrario se concluye lo pedido.
57
Problema 3
Sea X un espacio métrico y (X, B(X), P ) un espacio de probabilidad con P una medida
tensa.
Demostrar que:
a)
P (A) = sup P (K)
K⊂A
Kcompacto
b) Si Q es otra medida de probabilidad tensa en (X, B(X)) con P (K) = Q(K) para todo
conjunto compacto K, entonces P ≡ Q.
Solución:
a) Primero, sabemos que P es regular por lema visto en clase (lema 1.58 apuntes pro-
fesor Alejandro Ramı́rez) ya que P es medida de probabilidad y X es un espacio
métrico. Luego:
P (A) = sup P (C)
C⊂A
Ccerrado
P (A) ≤ P (C) +
Además, como P es una medida tensa, para todo > 0 existe un conjunto compacto
K tal que P (K) > 1 − .
Con esto tenemos que:
P (C) = P (C ∩ K) + P (C ∩ K c ) ≤ P (C ∩ K) + P (K c ) ≤ P (C ∩ K) +
Luego:
P (A) ≤ P (C) + ≤ P (C ∩ K) + 2
Como C ∩ K ⊆ C ⊆ A es un compacto por ser intersección de un compacto con un
cerrado y es arbitrario concluimos que:
58
Problema 4
Demuestre que la matriz de covarianza de un vector aleatorio siempre es simétrica y semi-
definida positiva.
Solución:
Sea X = (X1 , . . . , Xn ) un vector aleatorio. Su matriz de covarianza Σ es:
Σ = Cov(X, X)
= E((X − E(X))(X − E(X))T )
= E(XXT ) − E(X)E(X)T
Para ver que es semi-definida positiva debemos mostrar que ut Σu ≥ 0 para todo u ∈ Rn :
59
Ayudantı́a 8
Recordar:
Desigualdad de Chebyshev:
Sea X una variable aleatoria en (Ω, F, P ). Sea f una función positiva y creciente,
entonces:
E[f (X)]
P (X ≥ a) ≤
f (a)
Desigualdad de Jensen:
Sea X una variable aleatoria integrable en (Ω, F, P ). Para toda función convexa ϕ
definida en el rango de X se tiene que:
ϕ(E[X]) ≤ E[ϕ(X)]
60
Problema 1
Demostrar que casi todo el volumen del cubo [−1, 1]n en Rn (con n grande) está concentrado
en la vecindad de una esfera.
Solución:
Sean X1 , X2 , . . . variables aleatorias i.i.d. con distribución uniforme en [-1,1], es decir:
2
P (Xi ∈ [a, b]) =
b−a
cuando a, b ∈ [−1, 1]. Ası́, el vector aleatorio X = (X1 , . . . , Xn ) esta uniformemente dis-
tribuido en el cubo [−1, 1]n . Las variables X12 , X22 , . . . también son i.i.d y por problema 2
de ayudantı́a 4: Z Z 1
2 2 1
E[Xi ] = Xi dP = x2 dx =
Ω 0 3
lo que es válido porque E(|Xi2 |) ≤ 1 < ∞.
Además se tiene que Xi2 ∈ L2 (Ω, F, P ) ya que:
E[(Xi2 )2 ] ≤ 1 < ∞
Por lo tanto, por ley débil de los grandes números versión con varianza, para todo > 0
se tiene que:
n
1X 2 1
lı́m P (| X − | ≥ ) = 0
n→∞ n i=1 i 3
Luego:
n
X n
lı́m P (| Xi2 − | < n) = 1
n→∞
i=1
3
Entonces: n
n X 2 n
lı́m P (−n + < Xi < n + ) = 1
n→∞ 3 i=1
3
Como se cumple para todo > 0, podemos cambiar por 3
y ası́:
√ √
n n n→∞
P ( √ (1 − ) < ||X||2 < √ (1 + )) −−−→ 1
3 3
Lo que significa
√ que casi todo el volumen
√ del cubo está contenido en el anillo de radio
interior √n3 (1 − ) y radio exterior √n3 (1 + ), lo que es justamente la vecindad de la esfera
√
n
de radio √ .
3
61
Problema 2: Teorema de Aproximación de Weierstrass
Sea f : [0, 1] → R una función continua. Entonces f puede ser uniformemente aproximada
por polinomios. Es decir, para todo > 0 existe un polinomio q tal que:
Solución:
Consideremos la sucesión de polinomios (se llaman polinomios de Bernstein asociados a
f ):
n
X n i i
fn (x) = x (1 − x)n−i f ( )
i=0
i n
Tomemos p ∈ [0, 1] fijo y consideremos una sucesión (Xi )i∈N de variables aleatorias i.i.d.
Bernoulli de parámetro p, es decir, Xi : Ω → {0, 1} y P (Xi = 1) = p. Luego:
Suma de variables aleatorias Bernoulli i.i.d. es Binomial. Esto se puede ver ya que para
que Sn = m es necesario que m de las n variables aleatorias Bernoulli tomen el valor 1.
Luego:
n
Sn X Sn i i
E[f ( )] = P( = )f ( )
n i=0
n n n
n
X n i i
= p (1 − p)n−i f ( )
i=0
i n
= fn (p)
Por lo que solo nos falta ver que E[f ( Snn )] converge uniformemente a f (p).
62
Dado δ > 0 se tiene por desigualdad de Chebyshev que:
Sn Var( Snn )
P (| − p| ≥ δ) ≤
n δ2
Var(Sn )
=
n2 δ 2
np(1 − p))
=
n2 δ 2
1
≤
4nδ 2
Donde hemos utilizado que E( Snn ) = p.
Como f es una función continua en [0, 1] (que es compacto), entonces f está acotada por
algún M ∈ R. M = máx f (x). Luego:
x∈[0,1]
Sn
|f ( ) − f (p)| ≤ 2M
n
Por la misma razón, es uniformemente continua. Entonces, dado > 0, existe δ > 0 tal
que:
|x − y| < δ =⇒ |f (x) − f (y)| <
Por lo tanto, utilizando los resultados anteriores:
Sn
|fn (p) − f (p)| = |E[f ( )] − f (p)|
n
Sn
= |E[f ( ) − f (p)]|
n
Sn
≤ E[|f ( ) − f (p)|]
n
Sn Sn
= E[|f ( ) − f (p)|1| Sn −p|>δ ] + E[|f ( ) − f (p)|1| Sn −p|≤δ ]
n n n n
≤ E[2M 1| Sn −p|>δ ] +
n
= 2M E[1| Sn −p|>δ ] +
n
Sn
= 2M P (| − p| ≥ δ) +
n
2M n→∞
≤ 2
+ −−−→
4nδ
Como n no depende de p y es arbitrario e independiente de p, se concluye que fn converge
uniformemente a f .
63
Problema 3
X Y
b) Sean X, Y dos variables aleatorias integrables y positivas en (Ω, F, P ), tales que ,
Y X
también son integrables. Demostrar que:
X Y
E E ≥1
Y X
Solución:
1
f 0 (x) = −
x2
2
f 00 (x) = > 0 ∀x > 0
x3
Por lo que f es una función convexa en (0, ∞). Por lo tanto, como la variable aleatoria
X es positiva, podemos aplicar desigualdad de Jensen para obtener:
Es decir:
1 1
≤ E[ ]
E[X] X
Y
b) Consideremos la variable aleatoria W = X en (Ω, F, P ). Como X e Y son positivos
se tiene que W es una variable aleatoria positiva. Aplicando el resultado obtenido
en a) se tiene que:
1 1
≤ E[ ]
E[W ] W
Es decir:
1 1 1 X
Y
= ≤ E[ ] = E[ ]
E[ X ] E[W ] W Y
Por lo tanto:
X Y
E[ ]E[ ] ≥ 1
Y X
64
Problema 4
e
Sea (Xi )i∈N una sucesión de variables aleatorias positivas i.i.d. con P (Xi > x) = x log x
para
x ≥ e. Mostrar que E[Xi ] = ∞, pero que existe una sucesión de constantes µn → ∞ tales
que:
Sn n→∞
− µn −−−→ 0 en probabilidad
n
Solución:
Se puede demostrar que para una variable aleatoria positiva X se tiene que:
Z ∞
E[X] = P (X > x)dx
0
Luego:
Sn n→∞
− e log log n −−−→ 0 en probabilidad.
n
65
Ayudantı́a 9
Recordar:
Problema 1
Sean (Xi )i variables aleatorias i.i.d. con E[X1 ] = ∞. Demostrar que:
Pn
i=1 Xi n→∞
−−−→ ∞
n
casi seguramente.
Solución:
Primero una acotación/recuerdo:
Sabemos que
E[Xi ] = E[Xi+ ] − E[Xi− ]
con
Xi+ (ω) = máx{Xi (ω), 0}, Xi− (ω) = − mı́n{Xi (ω), 0}
Para que E[Xi ] = ∞ es necesario que E[Xi+ ] = ∞ y E[Xi− ] < ∞.
Consideremos M > 0 y definimos:
XiM = Xi 1{Xi ≤M }
66
M →∞
Ahora veamos que 0 ≤ XiM + ≤ XiM +1+ ≤ . . . y XiM + −−−→ Xi+ . Luego, por teorema de
convergencia monótona:
lı́m E[XiM + ] = E[Xi+ ]
M →∞
Por lo tanto:
Entonces: n
X Xi
lı́m inf ≥ lı́m E[XiM ] = ∞ c.s.
n→∞
i=1
n M →∞
67
Problema 2
Calcular
1 1 1
√
Z Z Z
lı́m ··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn
n→∞ 0 0 0
Solución:
Sea Ω = [0, 1]N con la σ-álgebra B([0, 1])N y la medida producto de Lebesgue P = (λ|[0,1] )N
que es una medida de probabilidad utilizando teorema de extensión de Kolmogorov.
Sea Xn (x) = xn para x = (x1 , x2 , . . . ) ∈ Ω, ası́ tenemos que los Xn son i.i.d. con distribu-
ción uniforme en [0, 1] y:
Z 1Z 1 Z 1
√ p 1 Pn
··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = E[sin( n X1 · · · · · Xn )] = E[sin(e n k=1 ln(Xk ) )]
0 0 0
Los ln(Xk ) son i.i.d., tienen valores entre ln(0) = −∞ y ln(1) = 0. Además:
Z
E[|ln(Xk )|] = |ln(Xk )|dP
ZΩ1
= − ln(x)dx
0
= (x − x ln(x))|10
=1
ya que:
1
ln(x) x
lı́m x ln(x) = lı́m+ 1 = lı́m+ −1 = lı́m+ −x = 0
x→0+ x→0 x→0 x→0
x x2
utilizando L’hopital.
Entonces, por ley fuerte de los grandes números en L1 :
Pn
k=1 ln Xk n→∞
−−−→ E[ln(X1 )] c.s.
n
donde:
Z
E[ln(X1 )] = ln(X1 )dP
ZΩ1
= ln(x)dx
0
= (x ln(x) − x)|10
= −1
Luego: Pn
k=1 ln Xk n→∞
−−−→ −1 c.s.
n
68
Como la función ex es continua:
Pn
k=1 ln Xk n→∞
e n −−−→ e−1 c.s.
Luego:
1 1 1
√
Z Z Z
lı́m ··· sin( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = sin(e−1 )
n→∞ 0 0 0
Problema 3
Sea f una función continua en [0, 1]. Demostrar que:
Z 1Z 1 Z 1
√ 1
lı́m ··· f ( n x1 · x2 . . . xn )dx1 dx2 . . . dxn = f ( )
n→∞ 0 0 0 e
69
Problema 4
Sea X0 = (1, 0) y se define Xn+1 ∈ R2 inductivamente declarando que Xn+1 es elegido alea-
toriamente en la bola de radio kXn k centrada en el origen, es decir X n+1
kXn k
está uniformemente
distribuido en la bola de radio 1 y es independiente de X1 , . . . Xn . Demuestre que:
ln kXn k n→∞
−−−→ c ∈ R
n
casi seguramente y calcule el valor de c.
Solución:
Primero veamos que:
n n
Y kXi k Y
kXn k = = Ui
i=1
kXi−1 k i=1
70
Donde: Z Z 1 Z 1
1
E[ln(U1 )] = ln(U1 )dP = ln(u)dF (u) = ln(u)2udu = −
Ω 0 0 2
Por lo tanto:
ln(kXn k) n→∞ 1
−−−→ − c.s.
n 2
71
Problema 5
Sea (Xi )i∈N una sucesión de variables aleatorias i.i.d. positivas con E[X1 ] = 2.
Sea (Yi )i∈N una sucesión de variables aleatorias i.i.d. positivas con E[Y1 ] = 3. Demostrar que:
X1 + · · · + X n 2
lı́m =
n→∞ Y1 + · · · + Yn 3
con probabilidad 1.
Solución:
Como (Xi )i∈N es una sucesión de variables aleatorias i.i.d. con E[|X1 |] = 2 < ∞ se tiene
por ley fuerte de los números grandes en L1 que:
X1 + · · · + Xn n→∞
−−−→ E[X1 ] = 2
n
con probabilidad 1.
De la misma forma, (Yi )i∈N es una sucesión de variables aleatorias i.i.d. con E[|Y1 |] = 3 <
∞, por ley fuerte de los números grandes en L1 se tiene que:
Y1 + · · · + Yn n→∞
−−−→ E[Y1 ] = 3
n
con probabilidad 1.
Llamando:
X1 (ω) + · · · + Xn (ω) n→∞
A = {ω ∈ Ω : −−−→ 2}
n
Y1 (ω) + · · · + Yn (ω) n→∞
B = {ω ∈ Ω : −−−→ 3}
n
Se tiene que:
P (A) = P (B) = 1
Luego:
Por lo tanto:
X1 (ω) + · · · + Xn (ω) n→∞ Y1 (ω) + · · · + Yn (ω) n→∞
A ∩ B = {ω ∈ Ω : −−−→ 2 ∧ −−−→ 3}
n n
tiene probabilidad 1. Luego:
X1 (ω)+···+Xn (ω)
X1 (ω) + · · · + Xn (ω) n n→∞ 2
{ω ∈ Ω : = Y1 (ω)+···+Yn (ω)
−−−→ }
Y1 (ω) + · · · + Yn (ω) 3
n
con probabilidad 1.
72
Ayudantı́a 10
Recordar:
73
Problema 1
Sea (Ω, F, P ) un espacio de probabilidad y T : Ω → Ω una transformación medible que
preserva la medida P . Demostrar que los eventos invariantes bajo la transformación T forman
una σ-álgebra. (A ∈ F es invariante si T −1 (A) = A)
Solución:
Sea G = {A ∈ F : T −1 (A) = A}, demostraremos que G es σ-álgebra.
i)
T −1 (Ω) = {ω ∈ Ω : T (ω) ∈ Ω} = Ω
Luego Ω ∈ G.
T −1 (Ac ) = {ω ∈ Ω : T (ω) ∈ Ac }
= {ω ∈ Ω : T (ω) ∈ A}c
= (T −1 (A))c
= Ac
Por lo que Ac ∈ G.
74
Problema 2
Sea (Ω, F, P ) un espacio de probabilidad y T : Ω → Ω una transformación medible que
preserva la medida. Demostrar que las siguientes son equivalentes:
i) (Ω, F, P, T ) es espacio ergódico.
ii) Para todo A, B ∈ F:
n−1
1X
lı́m P (T −k (A) ∩ B) = P (A)P (B)
n→∞ n
k=0
Solución:
Veamos primero que i) =⇒ ii).
Supongamos (Ω, F, P, T ) es espacio ergódico. Como 1A ∈ L1 (Ω, F, P ) ya que E[|1A |] ≤ 1.
se tiene por teorema ergódico de Birkhoff:
n−1
1X
lı́m 1A ◦ T k = E[1A ] = P (A) c.s.
n→∞ n
k=0
Ahora como:
n−1
1X
| 1B 1A ◦ T k | ≤ 1 ∀n ∈ N
n k=0
Y notemos que:
n−1
X n−1
X
k
E[1B 1A ◦ T ] = P (T −k (A) ∩ B)
k=0 k=0
ya que:
75
Utilizando todo lo anterior:
P (T −k (A) ∩ A) = P (A ∩ A) = P (A)
Por lo tanto:
n−1 n−1
1X 1X
lı́m P (T −k (A) ∩ A) = lı́m P (A)
n→∞ n n→∞ n
k=0 k=0
n
= lı́m P (A)
n→∞ n
= P (A)
Luego, necesariamente se tiene que P (A) = P (A)2 , de donde obtenemos que P (A) ∈ {0, 1}.
Concluimos que (Ω, F, P, T ) es espacio ergódico.
76
Problema 3: Demostración Teorema Ergódico de Birkhoff
Sea (Ω, F, P, T ) un espacio ergódico, es decir (Ω, F, P ) es un espacio de probabilidad, T :
Ω → Ω es medible tal que:
es decir,
n−1
n 1X k
o
P ω ∈ Ω : lı́m X(T (ω)) = E[X] = 1
n→∞ n
k=0
y también:
1
g = X − E[X] − , G = lı́m sup Sn (g )
n→∞ n
c) Sea A = ∞
S
n=1 {Sn (g ) > 0}, notar que {G > 0} ⊆ A.
Probar que E[g 1A ] ≥ 0, P (Ac ) > 0 y P (G > 0) < 1.
Utilizando a) esto implica que P ({G > 0}) = 0.
77
Solución:
a) Notemos que:
n
X
Sn+1 (g ) = g ◦ T k
k=0
n
X
= g + g ◦ T k
k=1
n
X
= g + (g ◦ T k−1 ) ◦ T
k=1
n−1
X
= g + (g ◦ T k ) ◦ T
k=0
= g + Sn (g ) ◦ T
78
b) Si Mn > 0 se tiene que:
Mn − Mn ◦ T = g + Mn−1 ◦ T − Mn ◦ T ≤ g
Sabemos por la parte b) que E[g 1{Mn >0} ] ≥ 0 para todo n ∈ N, luego obtenemos
que E[g 1A ] ≥ 0.
Además notemos que:
79
y por lo tanto:
E[g 1Ac ] = E[g ] − E[g 1A ] < 0
De esto concluimos que P (Ac ) > 0, ya que si se tuviera que P (Ac ) = 0 entonces
obtendrı́amos que E[g 1Ac ] = 0.
Como P (Ac ) > 0, entonces P (A) < 1, y notemos que:
{G > 0} ⊆ A
luego P ({G > 0}) < 1 y por parte a) obtenemos que necesariamente P ({G >
0}) = 0.
Luego:
∞
1 \
lı́m sup Sn (X) ≤ E[X] = {G 1 ≤ 0}
n→∞ n m
m=1
Como P ({G ≤ 0}) = 1 para todo > 0, entonces P ({G 1 ≤ 0}) = 1 para todo
m
m ∈ N, de donde se tiene que:
∞
\
P( {G 1 ≤ 0}) = 1
m
m=1
80
y por lo tanto:
1
P ( lı́m sup Sn (X) ≤ E[X] ) = 1
n→∞ n
Luego:
1
− lı́m sup − Sn (X) ≥ E[X] c.s.
n→∞ n
y sabemos que − sup −A = ı́nf A de donde obtenemos que:
1
lı́m inf Sn (X) ≥ E[X] c.s.
n→∞ n
Juntándolo con lo obtenido en d) concluimos que:
1 1
E[X] ≤ lı́m inf Sn (X) ≤ lı́m sup Sn (X) ≤ E[X] c.s.
n→∞ n n→∞ n
Es decir:
1
P ( lı́m Sn (X) = E[X] ) = 1
n→∞ n
81
Problema 4
Sea Ω un espacio métrico. Encontrar una sucesión de medidas de probabilidad (Pn )n∈N en
(Ω, B(Ω)) que convergen débilmente a una medida P , pero que:
Solución:
Consideremos Ω = R, B(Ω) = B(R) y las medidas de probabilidad dadas por:
Pn = δ 1 , P = δ0
n
es decir, si D ∈ B(R):
(
1, si n1 ∈ D
Pn (D) = δ 1 (D) =
n
0, en caso contrario
(
1, si 0 ∈ D
P (D) = δ0 (D) =
0, en caso contrario
Sea f una función continua y acotada, entonces:
Z Z
1
f dPn = f (x)δ 1 (dx) = f ( )
Ω R
n n
Z Z
f dP = f (x)δ0 (dx) = f (0)
Ω R
Esto se puede ver ya que, si definimos g ≡ f (0) (g es una función constante igual a f (0)),
entonces g = f δ0 -casi seguramente:
Z Z
1
lı́m f δ 1 (dx) = lı́m f ( ) = f (0) = f (x)δ0 (dx)
n→∞ R n n→∞ n R
82
donde utilizamos que f es continua. Por lo tanto, concluimos que Pn converge débilmente
a P.
Ahora tomando A = {0} se tiene que Pn (A) = 0 para todo n ∈ N, pero P (A) = 1, luego:
83
Ayudantı́a 11
Recordar:
Una sucesión (Pn )n∈N de medidas de probabilidad en (Ω, B(Ω)) converge débilmente a
P si para toda función f : Ω → R continua y acotada se tiene que:
Z Z
lı́m f dPn = f dP
n→∞ Ω Ω
Teorema de Portmanteau:
Sea Ω un espacio métrico y (Pn )n∈N , P medidas de probabilidad en (Ω, B(Ω)).
Entonces son equivalentes:
i) Pn ⇒
= P
ii) Para toda función f uniformemente continua y acotada:
Z Z
lı́m f dPn = f dP
n→∞ Ω Ω
lı́m sup Pn (F ) ≤ P (F )
n→∞
n→∞
PXn −−−→ PX
o equivalentemente:
lı́m FXn (x) = FX (x)
n→∞
84
Teorema de Portmanteau (escrito en formato variable aleatoria):
Sea Ω un espacio métrico y (Xn )n∈N , X variables aleatorias en (Ω, B(Ω), P ).
Entonces son equivalentes:
i) Xn ⇒
= X
ii) Para toda función f continua y acotada:
lı́m P (Xn ∈ A) = P (X ∈ A)
n→∞
85
Problema 1
Sean (Xn )n∈N , X variables aleatorias tal que (Xn )n∈N converge en probabilidad a X.
Demostrar que (Xn )n∈N converge en distribución a X.
Solución:
La demostración tı́pica es: Link a demostración. Haremos una demostración distinta.
Sea f : R → R una función continua y acotada, demostraremos que:
l→∞
Xnkl −−−→ X c.s.
Como (f (Xnkl ))l∈N converge casi seguramente a f (X) y f es acotada (luego f ∈ L1 (Ω, F, P ))
se tiene por teorema de convergencia dominada que:
l→∞
E[f (Xnkl )] −−−→ E[f (X)]
Esto significa que para toda subsucesión (E[f (Xnk )])k∈N de (E[f (Xn )])n∈N existe una sub-
subsucesión (E[f (Xnkl )])l∈N de (E[f (Xnk )])k∈N tal que:
l→∞
E[f (Xnkl )] −−−→ E[f (X)]
n→∞
Por lo tanto, E[f (Xn )] −−−→ E[f (X)]. Como f es arbitraria concluimos por teorema de
Portmanteau que Xn ⇒ = X.
|Ynk − Y | > ∀k ∈ N
Pero, esta subsucesión (Ynk )k no tiene ninguna subsubsucesión (Ynkl )l que converja a Y ,
lo que es una contradicción.
n→∞
Concluimos que Yn −−−→ Y .
86
Problema 2
Sean (PXn )n∈N medidas de probabilidad en (Ω, B(Ω)).
Demostrar que PXn ⇒= PX si y solo si para todo x ∈ R donde FX (x) es continua se tiene que
FXn (x) → FX (x) cuando n → ∞.
Solución:
Primero veamos que si PXn ⇒
= PX entonces FXn (x) → FX (x) cuando n → ∞ para todo
x ∈ R donde FX (x) es continua.
Sea x ∈ R un punto de continuidad de FX (x), luego el conjunto (−∞, x] es de PX -
continuidad:
PX (∂(−∞, x]) = PX ({x}) = 0
ya que es un punto de continuidad de FX (x).
Ası́, por el teorema de Portmanteau:
lı́m FXn (x) = lı́m PXn ((−∞, x]) = PX ((−∞, x]) = FX (x)
n→∞ n→∞
Sea G un conjunto abierto, entonces existe una cantidad numerable de intervalos disjuntos
abiertos (Ik )k∈N (Link a demostración) tales que:
[
G= Ik
k∈N
Sea > 0 y para cada intervalo Ik = (ak , bk ) elegimos un subintervalo Ik0 = (a0k , b0k ] tales
que a0k , b0k son puntos de continuidad de FX y:
Esto es posible de hacer ya que FX puede tener como máximo una cantidad numerable de
87
discontinuidades. Ası́, por lema de Fatou:
∞
X
lı́m inf PXn (G) = lı́m inf PXn (Ik )
n→∞ n→∞
k=1
∞
X
≥ lı́m inf PXn (Ik ) (Acá aplicamos Fatou)
n→∞
k=1
X∞
≥ lı́m inf PXn (Ik0 )
n→∞
k=1
Pero:
n→∞
PXn (Ik0 ) = FXn (b0k ) − FXn (a0k ) −−−→ FX (b0k ) − FX (a0k ) = PX (Ik0 )
ya que a0k , b0k son puntos de continuidad de FX y FXn (x) → FX (x) cuando n → ∞ para
todo x ∈ R donde FX (x) es continua.
Por lo tanto:
∞
X
lı́m inf PXn (G) ≥ lı́m inf PXn (Ik0 )
n→∞ n→∞
k=1
X∞
≥ PX (Ik0 )
k=1
∞
X
≥ PX (Ik ) − 2−k
k=1
= P (G) −
88
ya que en caso contrario obtendrı́amos que:
1 1
1 = lı́m FX (x) > |An | × ≥n× =1
x→∞ n n
Luego:
∞
[
A= An
n=1
89
Problema 3
Sean (Xn )n variables aleatorias que convergen en distribución a una variable aleatoria cons-
tante c ∈ R. Demostrar que
P
Xn −−−→ c
Solución:
P
Queremos demostrar que Xn −−−→ c, es decir:
Como Xn ⇒
= c se tiene por teorema de Portmanteau que:
Concluimos que:
lı́m P (|Xn − c| ≥ ) = 0 ∀ > 0
n→∞
90
Problema 4
Sean (Xn )n∈N , X, (Yn )n∈N , Y variables aleatorias tales que Xn ⇒
= X y Yn ⇒
= Y.
Dar un ejemplo donde no se cumpla que Xn + Yn ⇒ = X +Y.
Solución:
Considerar (Xn )n∈N una sucesión de variables aleatorias con distribución uniforme en
[−1, 1]:
Xn ∼ U [−1, 1]
Entonces es claro que:
Xn ⇒
= X con X ∼ U [−1, 1]
Xn ⇒
= −X con − X ∼ U [−1, 1]
Xn + Xn = 2Xn ⇒
6= X + (−X) = 0
91
Problema 5: Una parte del teorema de Slutsky
Sean (Xn )n , X, (Yn )n variables aleatorias tales que Xn ⇒
= X y Yn ⇒
= c, donde c es una variable
aleatoria constante. Demostrar que Xn + Yn ⇒ = X + c.
Solución:
Una forma de hacer este problema es demostrar que si Xn converge en distribución a X
y Yn converge en distribución a una constante c (y por lo tanto en probabilidad por el
problema 3), entonces el vector (Xn , Yn ) converge en distribución a (X, c). Luego aplicar
el teorema del mapeo continuo (problema 6) con la función g(x, y) = x + y.
Otra forma de hacerlo es la siguiente:
Como Yn ⇒= c y c es constante entonces Yn converge en probabilidad a c (problema 3).
Queremos demostrar que:
lı́m P (Xn + Yn ≤ a) = P (X + c ≤ a)
n→∞
Xn + c − ≤ Xn + Yn ≤ a
Xn + Yn ≤ Xn + c + ≤ a
92
Con esto obtenemos:
P (Xn +c+ ≤ a)−P (|Yn −c| > ) ≤ P (Xn +Yn ≤ a) ≤ P (Xn +c− ≤ a)+P (|Yn −c| > )
Por lo tanto:
Como Xn ⇒
= X se tiene que:
lı́m P (Xn ≤ a − c − ) = P (X ≤ a − c − )
n→∞
lı́m P (Xn ≤ a − c + ) = P (X ≤ a − c + )
n→∞
Luego:
P (X + c + ≤ a) ≤ lı́m P (Xn + Yn ≤ a) ≤ P (X + c − ≤ a)
n→∞
P (X + c ≤ a) ≤ lı́m P (Xn + Yn ≤ a) ≤ P (X + c ≤ a)
n→∞
Por lo tanto:
lı́m P (Xn + Yn ≤ a) = P (X + c ≤ a)
n→∞
Xn + Yn ⇒
= X +c
93
Problema 6
Sean (Xn )n , X variables aleatorias tales que Xn ⇒
= X y sea g una función continua.
Demostrar que g(Xn ) ⇒
= g(X).
Solución:
Sabemos por teorema de Portmanteau que:
n→∞
Xn ⇒
= X ⇐⇒ E[f (Xn )] −−−→ E[f (X)] ∀f continua y acotada
ya que Xn ⇒
= X.
1. Demostrar que Xn Yn ⇒
= cX.
Xn X
2. Demostrar que Yn
⇒
= c
si c es invertible (distinto de cero en el caso en que las variables
aleatorias tengan a R como rango).
94
Ayudantı́a 12
Función caracterı́stica
La función caracterı́stica de la variable aleatoria X se define por:
Z Z Z
iXt itx
φX (t) = E(e ) = e dPX (x) = cos(tx)dPX (x) + i sen(tx)dPX (x)
R R R
1. φX (0) = 1
Fórmula de inversión
Sea X una variable aleatoria, φX su función caracterı́stica. Entonces:
Z T −iat
1 e − e−ibt 1
lı́m φX (t)dt = P (X ∈ (a, b)) + (P (X ∈ {a}) + P (X ∈ {b}))
T →∞ 2π −T it 2
95
Problema 1
Encontrar la función caracterı́stica de una variable aleatoria X con distribución uniforme en
(a, b).
Solución:
φX (t) = E(eitX )
Z
= eitX dPX (x)
ZR
= eitx fX (x)dx (donde fX es la densidad de la variable aleatoria X)
R
Z b itx
e
= dx (ya que fX es uniforme en (a, b))
a b−a
b
1 eitx
=
b − a it a
eitb − eita
=
it(b − a)
Problema 2
Sea µ una medida de probabilidad sin átomos. Sea φ la función caracterı́stica asociada a la
medida de probabilidad µ. Demuestre que µ es simétrica si y solo si φ(t) ∈ R para todo t ∈ R.
(Se dice que µ es simétrica si: ∀a < b se tiene µ(a, b) = µ(−b, −a))
Solución:
φ(t) ∈ R =⇒ simétrica:
Por fórmula de inversión tenemos que:
T
e−iat − e−ibt
Z
1
µ(a, b) = lı́m φ(t)dt
T →∞ 2π −T it
96
Luego:
−T Z T iau
eiau − eibu e − eibu
Z
1 1
lı́m φ(−u)(−du) = lı́m φ(u)du
T →∞ 2π T −iu T →∞ 2π −T −iu
Z T ibu
1 e − eiau
= lı́m φ(u)du
T →∞ 2π −T iu
= µ(−b, −a)
Simétrica =⇒ φ(t) ∈ R:
Sea X una variable aleatoria que induce la medida de probabilidad µ, con esto tenemos
que φX = φ.
Como µ es simétrica se tiene que:
Además, es claro que P (X ∈ ∅) = P (−X ∈ ∅). Como los intervalos de la forma (a, b)
junto con ∅ son un π-sistema que genera B(R), concluimos que X y −X tienen la misma
distribución. Luego, φX = φ−X .
Pero sabemos que:
φ−X = φX
De donde concluimos que φ = φ, lo que signfica que φ(t) ∈ R para todo t ∈ R.
97
Problema 3 R
Demuestre que si R |φX (t)| < ∞ entonces la medida de probabilidad PX no tiene átomos.
Solución:
R
Suponemos que R
|φX (t)| = c. Luego:
Z T −iat
PX ({a}) + PX ({b}) 1 e − e−ibt
PX ((a, b)) + = lı́m φX (t)dt
2 T →∞ 2π −T it
Z T −iat
1 e − e−ibt
≤ | lı́m φX (t)dt|
T →∞ 2π −T it
Z T −iat
1 e − e−ibt
≤ lı́m | ||φX (t)|dt
T →∞ 2π −T it
Luego:
T
e−iat − e−ibt b−a c(b − a)
Z Z
1
lı́m | ||φX (t)|dt ≤ |φX (t)| =
T →∞ 2π −T it 2π R 2π
Ası́:
PX ({a}) + PX ({b}) c(b − a)
0 ≤ PX ((a, b)) + ≤
2 2π
Por lo que, usando teorema del sandwich, cuando a → b se tiene que PX ((a, b)) → 0,
PX ({a}) → 0,
PX ({b}) → 0, luego no hay puntos en [a, b] que concentren masa.
98
Problema 4
Demostrar que X y −X tienen la misma distribución si y solo si φX (t) ∈ R para todo t ∈ R.
Solución:
=⇒
d
Sabemos que X = Y ⇐⇒ φX (t) = φY (t) ∀t ∈ R. Entonces:
Problema 5
Encontrar la función caracterı́stica de una variable aleatoria X con distribución Bernoulli de
parámetro p.
Solución:
ϕX (t) = E[eiXt ]
= E[eiXt 1{X=0} ] + E[eiXt 1{X=1} ]
= E[e0 1{X=0} ] + E[eit 1{X=1} ]
Z
= E[1{X=0} ] + eit 1{X=1} dPX (x)
R
= P (X = 0) + eit P (X = 1)
= (1 − p) + peit
99
Problema 6
Sea φ : R → C la función caracterı́stica de la variable aleatoria X. Demostrar que Re(φ) y
|φ|2 también son funciones caracterı́sticas.
Solución:
Si X tiene función caracterı́stica φ entonces −X tiene función caracterı́stica φ. Luego,
φ+φ
Re(φ) =
2
|φ|2 = φφ
Constuctivamente:
1
Sea B una variable aleatoria tal que P (B = 1) = P (B = −1) = 2
. Consideremos la
variable aleatoria Y = BX, se tiene que:
100
Problema 7
Encontrar la función caracterı́stica de una variable aleatoria X con distribución normal
estándar.
Solución:
Una forma de calcularla es la siguiente: Usando análisis complejo.
Otra opción es:
Sabemos que la función de densidad de una normal estándar es:
1 −x2
fX (x) = √ e 2
2π
Con esto:
ϕX (t) = E[eiXt ]
Z
= eixt dPX (x)
ZR
= eixt fX (x)dx
ZR
1 −x2
= eixt √ e 2 dx
ZR∞ 2π
1 −x2
= eixt √ e 2 dx
−∞ 2π
Z ∞ Z 0
ixt 1 −x2 1 −x2
= e √ e 2 dx + eixt √ e 2 dx
2π 2π
Z0 ∞ Z−∞∞
1 −x2 1 −x2
= eixt √ e 2 dx + e−ixt √ e 2 dx
0
Z 2π 0 2π
1 ∞
Z ∞
−x2 −x2
=√ (cos(xt) + i sen(xt))e 2 dx + (cos(xt) − i sen(xt))e 2 dx
Z2π∞ 0 0
1 −x2
=2 √ e 2 cos(xt)dx
Z ∞ 0 2π
1 −x2
= √ e 2 cos(xt)dx
−∞ 2π
d
Ahora calculemos dt ϕX (t) (la calculamos por definición ası́ que en el mismo proceso mos-
tramos que existe).
d ϕX (t + h) − ϕX (t)
ϕX (t) = lı́m
dt h→0
R ix(t+h)h R
R
e dPX (x) − R eixt dPX (x)
= lı́m
h→0 h
ixh
−
Z
e 1
= lı́m eixt dPX (x)
h→0 R h
101
Queremos usar el teorema de convergencia dominada para poder intercambiar el orden del
lı́mite y la integral, para esto notemos que:
Si x ≥ 0: Z x Z x
ixh
ixt e −1 eixh − 1 ith
|e || |=| |=| e dt| ≤ |eith |dt
h ih 0 0
Ahora como:
0 ≤ |eith | ≤ 1
Obtenemos que: Z x Z x
ith
0≤ |e |dt ≤ 1dt
0 0
Z x
0≤ |eith |dt ≤ x
0
Es decir: Z x
|eith |dt ≤ x
0
Si x < 0: Z x Z 0
ixt eixh − 1 eixh − 1 ith
|e || |=| |=| e dt| ≤ |eith |dt
h ih 0 x
Ahora como:
0 ≤ |eith | ≤ 1
Obtenemos que: Z 0 Z 0
ith
0≤ |e |dt ≤ 1dt
x x
Z 0
0≤ |eith |dt ≤ −x
x
Es decir: Z 0
|eith |dt ≤ −x
x
Con esto concluimos que:
eixh − 1
|eixt || | ≤ |x| ∀x ∈ R
h
Y veamos que |x| es integrable según PX :
Z √
2
|x|dPX (x) = E[|X|] = √ < ∞
R π
√
(El valor √π2 fue obtenido ya que estamos calculando la esperanza de una Half-normal
distribution)
102
ixh −1
Luego, |eixt || e h
| ≤ |x| y |x| es integrable, por lo que usando teorema de convergencia
dominada:
ixh
−1 eixh − 1
Z Z
ixt e
lı́m e dPX (x) = eixt lı́m dPX (x)
h→0 R h h→0 h
ZR
= eixt ix dPX (x)
R
103
t2
Esta ecuación tiene factor integrante e 2 :
d t2
(e 2 ϕX (t)) = 0
dt
Integrando obtenemos:
t2
e 2 ϕX (t) = C (C es una constante)
Luego:
−t2
ϕX (t) = Ce 2
104
Ayudantı́a 13
Teorema del lı́mite central
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. en L2 con E[X1 ] = µ y Var(X1 ) = σ 2 .
Entonces: Pn
i=1 Xi − nµ
√ ⇒
= X
σ n
donde X es una variable aleatoria con distribución normal estándar. Esto significa que:
Pn
Xi − nµ
lı́m P ( i=1 √ ≤ z) = P (X ≤ z) ∀z ∈ R
n→∞ σ n
Entonces Pn
i=1 Xi − nµ
√ ⇒
= X
n
donde X es una vector aleatorio con distribución normal multivariada con esperanza 0 y
matriz de covarianza V .
105
Problema 1
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con E[X1 ] = 0 y 0 < E[X12 ] < ∞.
Demuestre que: Pn
i=1 Xi
lı́m sup √ = ∞ c.s.
n→∞ n
Solución:
Sea M ∈ N y consideremos el evento:
Pn
i=1 Xi
n o
AM = lı́m sup √ ≤M
n→∞ n
Dado que:
Pn Pk−1 X Pn Pn
i=1 Xi i=k Xi Xi
i=1 i
lı́m sup √ = lı́m sup √ + √ = lı́m sup i=k
√
n→∞ n n→∞ n n n→∞ n
donde Z es una variable aleatoria con distribución normal centrada y de varianza E[X12 ].
Supongamos, por contradicción, que P (AM ) = 1. Luego:
Pn
i=1 Xi
P lı́m sup √ ≤M =1
n→∞ n
106
ya que Z es una variable aleatoria normal, luego su cola siempre tiene medida.
Obteniendo ası́ una contradicción. Por lo tanto, P (AM ) = 0. Como M es arbitrario:
Pn Pn ∞ ∞
i=1 Xi i=1 Xi
[ X
P (lı́m sup √ = ∞) = 1−P (lı́m sup √ < ∞) ≥ 1−P ( AM ) ≥ 1− P (AM ) = 1
n→∞ n n→∞ n M =1 M =1
Problema 2
Sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. con Xn ≥ 0 para todo n ∈ N, E[X1 ] = 1
y Var(Xn ) = σ 2 ∈ (0, ∞). Mostrar que:
p √
2( Sn − n) ⇒ = σZ
Pn
donde Sn = i=1 Xi y Z es una variable aleatoria con distribución normal estándar.
Solución:
Notemos que:
p √ p x √
P (2( Sn − n) ≤ x) = P ( Sn ≤ + n)
2
x2 √
= P (Sn ≤ + x n + n)
4
Sn − n x2
= P( √ ≤x+ √ )
n 4 n
Además:
Sn − n Sn − n x2 Sn − n
P( √ ≤ x) ≤ P ( √ ≤ x + √ ) ≤ P( √ ≤ x + )
n n 4 n n
x 2
con > 0 y > √ .
4 n
Por teorema del lı́mite central se tiene que:
Sn − nE[X1 ] Sn − n
√ = √ ⇒
= σZ
n n
107
donde Z es una variable aleatoria con distribución normal estándar. Luego:
Sn − n
P (σZ ≤ x) = lı́m P ( √ ≤ x)
n→∞ n
Sn − n x2
≤ lı́m inf P ( √ ≤x+ √ )
n→∞ n 4 n
Sn − n x2
≤ lı́m sup P ( √ ≤x+ √ )
n→∞ n 4 n
Sn − n
≤ lı́m P ( √ ≤ x + ) = P (σZ ≤ x + )
n→∞ n
108
Problema 3
Calcular n
X nk
lı́m e−n
n→∞
k=0
k!
Hint: Considerar la función de distribución de una variable aleatoria Poisson de parámetro
n.
Solución:
Si Nn es una variable aleatoria Poisson de parámetro n, entonces su función de distribución
es: x
X nk
P (Nn ≤ x) = e−n donde x ∈ {0, 1, 2, . . . }
k=0
k!
Luego:
n
−n
X nk
lı́m e = lı́m P (Nn ≤ n)
n→∞
k=0
k! n→∞
Por otra parte, se puede demostrar que una variable aleatoria con distribución Poisson de
parámetro n es la suma de n variables aleatorias independientes con distribución Poisson
de parámetro 1.
De forma más general:
Sean X e Y variables aleatorias independientes con distribución Poisson de parámetro λ1
y λ2 respectivamente. Veamos que Z = X + Y es una variable aleatoria con distribución
Poisson de parámetro λ1 + λ2 .
La función de masa de probabilidad de la distribución de Poisson es:
109
P (Z = k) = P (X + Y = k)
k
X
= P (X = j ∧ Y = k − j)
j=0
k
X
= P (X = j)P (Y = k − j) (por independencia de X e Y )
j=0
k
X e−λ1 λj1 e−λ2 λk−j
2
=
j=0
j! (k − j)!
k
−λ1 −λ2
X λj1 λk−j
2
=e
j=0
(k − j)!j!
k
e−λ1 −λ2 X k!
= λj1 λk−j
2 (multiplicamos por k!)
k! j=0
(k − j)!j!
k
e−λ1 −λ2 X k j k−j
= λ1 λ2
k! j=0
j
e−λ1 −λ2 (λ1 + λ2 )k
=
k!
Aplicando este resultado de forma iterativa, sumando n variables aleatorias independientes
con distribución Poisson de parámetros λ1 , . . . , λn se obtiene una variable aleatoria con
distribución Poisson de parámetro λ1 + · · · + λn .
Ası́, sea (Xn )n∈N una sucesión de variables aleatorias i.i.d. de distribución Poisson de
parámetro 1. Luego:
X n
P (Nn ≤ n) = P ( Xi ≤ n)
i=1
Además, E[X1 ] = 1 y Var(X1 ) = 1. Entonces, por teorema del lı́mite central se tiene que:
Pn X − nE[X ]
i=1 i 1
lı́m P √ ≤ 0 = P (Z ≤ 0)
n→∞ n
donde Z es una variable aleatoria con distribución normal estándar. Pero, veamos que:
Pn X − nE[X ] Pn X − n X n X n
i=1 i 1 i=1 i
P √ ≤0 =P √ ≤0 =P Xi −n ≤ 0 = P Xi ≤ n
n n i=1 i=1
Luego:
lı́m P (Nn ≤ n) = P (Z ≤ 0)
n→∞
1 = P (Z ∈ R) = P (Z ≤ 0) + P (Z > 0) = 2P (Z ≤ 0)
110
donde hemos utilizado que la distribución es continua. Por lo que P (Z ≤ 0) = 12 . Conclui-
mos que:
n
X nk 1
lı́m e−n = lı́m P (Nn ≤ n) =
n→∞
k=0
k! n→∞ 2
Problema 4
Sea X : Ω → R una variable aleatoria con función caracterı́stica ϕ. Calcular la función
caracterı́stica ψ del vector aleatorio Y = (X, . . . , X) : Ω → Rn en función de ϕ.
Solución:
ψ(t) = E[eit·Y ]
Pn
= E[ei j=1 tj X ]
Pn
= E[eiX j=1 tj ]
X n
=ϕ tj
j=1
111
Problema 5
Sea (Xi )i∈N una sucesión de variables aleatorias i.i.d. con E[X1 ] = 0, E[X12 ] < ∞ y X12 > 0.
Mostrar que: Pn
Xi
pPi=1n ⇒
= Z
2
i=1 Xi
Solución:
Sea σ 2 = Var(X1 ). Luego:
Notemos que:
Pn Pn √ Pn √
X i X i − nE[X 1 ] σ n X i − nE[X 1 ] σ2n
pPi=1
n = i=1
√ p n = i=1
√ p n
2 σ n 2 σ n 2
P P
i=1 Xi i=1 Xi i=1 Xi
lo que está justificado ya que (Xi2 )i∈N son i.i.d. y E[|X12 |] = E[X12 ] < ∞. Con esto obtene-
mos que:
σ2
lı́m 1 Pn 2
= 1 c.s.
n→∞
n i=1 X i
2
Como 1 Pσ
n
Xi2
≥ 0 y la función raı́z cuadrada es continua de R+ +
0 → R0 :
n i=1
s
nσ 2
lı́m Pn 2
= 1 c.s.
i=1 Xi
n→∞
112
Finalmente, aplicando teorema de Slutsky (problema 7 ayudantı́a 11) obtenemos que:
Pn Pn √
X i X i − nE[X 1 ] σ2n
pPi=1
n = i=1
√ p n ⇒
= 1Z = Z
2 σ n 2
P
i=1 Xi i=1 Xi
113
Problema 6: Teorema de Kac
Sean X, Y : Ω → Rn vectores aleatorios. Demostrar que son equivalentes:
i) X e Y son independientes.
Solución:
i) =⇒ ii):
Como X, Y son independientes sabemos que:
E[cos(X · ξ) cos(Y · η)] + iE[sen(X · ξ) cos(Y · η)] + iE[cos(X · ξ) sen(Y · η)] − E[sen(X · ξ) sen(Y · η)]
= E[cos(X · ξ)]E[cos(Y · η)] + iE[sen(X · ξ)]E[cos(Y · η)]
+ iE[cos(X · ξ)]E[sen(Y · η)] − E[sen(X · ξ)]E[sen(Y · η)]
= (E[cos(X · ξ)] + iE[sen(X · ξ)])(E[cos(Y · η)] + iE[sen(Y · η)])
= E[eiX·ξ ] · E[eiY ·η ]
ii) =⇒ i):
Sean X̃, Ỹ independientes tales que X̃ ∼ X, Ỹ ∼ Y . Ası́:
φX,Y ≡ φX̃,Ỹ
114
Sabemos que la función caracterı́stica determina completamente la distribución, luego:
Problema 7
Sea X = (X1 , . . . , Xd ) un vector aleatorio con distribución normal multivariada de media θ y
matriz de covarianza Γ. Mostrar que X1 , . . . , Xd son independientes si y solo si Γ es diagonal.
Solución:
Primero, veamos que si X1 , . . . , Xd son independientes entonces, si i 6= j:
Entonces:
1 T
φX (t) = eit·θ− 2 t Γt
Pd 1 Pd
j=1 tj θj − 2 λj t2j
= ei j=1
d
1 2
Y
= eitj θj − 2 λj tj
j=1
d
Y
= φXj (tj )
j=1
115
Ayudantı́a 14
Probabilidad condiconal
Toda versión de una probabilidad condicional P (A|G) satisface las siguientes tres propiedades:
iii) Si A ∈ G:
P (A|G)(ω) = 1A (ω)
salvo por un conjunto G-medible de P medida 0.
Esperanza condicional
Sea X una variable aleatoria de esperanza finita en un espacio de probabilidad (Ω, M, P ), G
una σ-álgebra en M. La variable aleatoria E(X|G) es una versión de la esperanza condicional
de X dado G si:
i) E(X|G) es G-medible.
En algunas fuentes agregan que además se debe cumplir que E(X|G) sea integrable. Pero esto
se puede obtener como resultado de las 2 propiedades anteriores y de que X tiene esperanza
finita:
Definiciones alternativas
En algunos lugares, definen primero la esperanza condicional cumpliendo las definiciones
anteriores, demuestran su existencia para variables aleatorias integrables (una forma es
usando teorema de Radon Nikodym) y luego definen la probabilidad condicional como:
P (A|G) = E[1A |G].
116
Problema 1
Consideremos el espacio de probabilidad ([0, 1], B([0, 1]), P ) con P la medida de Lebesgue
restringida a [0, 1] (que es una medida de probabilidad).
Sea X : [0, 1] → R una variable aleatoria dada por X(ω) = ω y:
1 1 2 2 2 1 1 2
G = {∅, [0, ), [ , ), [ , 1], [0, ), [ , 1], [0, ) ∪ [ , 1], [0, 1]}
3 3 3 3 3 3 3 3
G ⊂ B([0, 1]) es una σ-álgebra. Calcular la esperanza condicional E(X|G).
Solución:
Sea A1 = [0, 13 ), A2 = [ 13 , 23 ), A3 = [ 32 , 1]. Se tiene que G = σ(A1 , A2 , A3 ) y A1 , A2 , A3 es una
partición. Notemos que una variable aleatoria G-medible debe ser constante en A1 , A2 y
A3 .
Entonces, E[X|G](ω) = ck para ω ∈ Ak , k = 1, 2, 3 y c1 , c2 , c3 ∈ R. Luego:
Z Z
ck
E[X|G]dP = ck dP = ck P (Ak ) =
Ak Ak 3
1
ya que P (Ak ) = 3
para k = 1, 2, 3. Pero, también:
Z Z
E[X|G]dP = XdP
Ak Ak
117
Problema 2
Sean Y e Ỹ versiones de E(X|G). Demostrar que Y = Ỹ c.s.
Solución:
Como Y e Ỹ son versiones de E(X|G) se tiene que:
Z Z Z
Y dP = XdP = Ỹ dP ∀G ∈ G
G G G
Por lo que P ({Y − Ỹ > 0}) = 0. Repitiendo el mismo procedimiento con A = {Ỹ −Y ≥ }
obtenemos P ({Ỹ − Y > 0}) = 0. Luego
118
Problema 3
Sea X una variable aleatoria en (Ω, M, P ).
Demostrar que si X es independiente de la σ-álgebra G entonces E(X|G) = E(X) c.s.
Solución:
Debemos verificar las 2 condiciones para ser una versión de la esperanza condicional:
i) E[X] es G-medible por ser una constante: E[X]−1 (c) ∈ {∅, Ω} ⊆ G para todo c ∈ R.
119
Problema 4
Sean X, Y variables aleatorias tales que X ≥ Y . Entonces:
Solución:
Sea A = {E(Y |G) − E(X|G) > }. Como X ≥ Y :
Z Z
XdP ≥ Y dP
A A
Luego:
Z Z Z Z
0≥ E(Y |G)dP − E(X|G)dP = (E(Y |G) − E(X|G))dP ≥ dP = P (A )
A A A A
Lo que signfica que P (E(Y |G) − E(X|G) > 0) = 0, luego P (E(Y |G) − E(X|G) ≤ 0) = 1
que es lo que querı́amos demostrar.
120
Problema 5
Sea (Ω, F, P ) un espacio de probabilidad y F0 un sub σ-álgebra. Sean X, Y variables alea-
torias que cumplen E(|X|) < ∞, E(|Y |) < ∞, E(|XY |) < ∞. Asuma que X es F0 -medible.
Demuestre que:
E(XY |F0 ) = XE(Y |F0 ) c.s.
Solución:
Dado que X y E(Y |F0 ) son ambos F0 medibles se tiene que XE(Y |F0 ) es F0 medible. Por
lo que solo falta demostrar que:
Z Z
XY dP = XE(Y |F0 )dP ∀A ∈ F0
A A
n
X
X= α i 1A i con Ai ∈ F0 ∀i = 1, ..., n
i=1
E(X + Y |F0 ) = lı́m E(Xn+ Y |F0 ) = lı́m Xn+ E(Y |F0 ) = X + E(Y |F0 )
n→∞ n→∞
De la misma forma:
E(X − Y |F0 ) = lı́m E(Xn− Y |F0 ) = lı́m Xn− E(Y |F0 ) = X − E(Y |F0 )
n→∞ n→∞
E(XY |F0 ) = E(X + Y |F0 ) − E(X − Y |F0 ) = X + E(Y |F0 ) − X − E(Y |F0 ) = XE(Y |F0 )
121
Otra manera similar de terminar el problema serı́a tomar una sucesión de funciones simples
crecientes que aproximan a la parte positiva de la variable aleatoria X y una sucesión de
funciones simples crecientes que aproximan a la parte negativa de la variable aleatoria X y
utilizar el teorema de convergencia monótona para la esperanza condicional y la linealidad:
Problema 6
Definimos:
V ar(X|F) = E(X 2 |F) − (E(X|F))2
Demostrar que:
V ar(X) = E(V ar(X|F)) + V ar(E(X|F))
Solución:
Primero, notemos que si E(X|F) es la esperanza condicional de X dado F entonces:
Z Z
E(X|F)dP = XdP ∀F ∈ F
F F
Entonces:
122
Problema 7
Sean X, Y variables aleatorias tales que E(Y |G) = X y E(Y 2 ) = E(X 2 ) < ∞.
Demostrar que X = Y c.s.
Solución:
Primero, veamos que como E(Y 2 ) = E(X 2 ) < ∞, y el espacio de probabilidad tiene medida
1:
Z Z
E|X| = |X|dP = 1|X|dP
Ω Ω
Z 21 Z 12
2
≤ 1 dP |X|2 dP
Ω Ω
1 1
2
= P (Ω) E(X ) 2 2
1
= E(X 2 ) 2
<∞
Z
E|XY | = |XY |dP
Ω
Z 12 Z 12
2 2
≤ |X| dP |Y | dP
Ω Ω
1 1
2 2
= E(X ) E(Y ) 2 2
<∞
123
Problema 8
Sea X, Y variables aleatorias independientes en (Ω, M, P ) con X, Y ∈ L2 (Ω, M, P ). Sea G
un sub σ-álgebra. Encuentre un ejemplo donde
Solución:
Sean Z1 : [0, 1] → {−1, 1}, Z2 : [0, 1] → {−1, 1} variables aleatorias i.i.d. tales que:
1 1
{Z1 = 1} = [0, ), {Z1 = −1} = [ , 1]
2 2
1 3 1 3
{Z2 = 1} = [0, ) ∪ [ , 1], {Z2 = −1} = [ , )
4 4 4 4
Con Ω = [0, 1], M = B([0, 1]) y P la medida de Lebesgue restringida a [0, 1] (que es
medida de probabilidad). Ası́:
1
P (Z1 = 1) = P (Z1 = −1) =
2
1
P (Z2 = 1) = P (Z2 = −1) =
2
Se puede ver que Z1 y Z2 son independientes:
1 1
σ(Z1 ) = {∅, [0, ), [ , 1], [0, 1]}
2 2
1 3 1 3
σ(Z2 ) = {∅, [0, ) ∪ [ , 1], [ , ), [0, 1]}
4 4 4 4
Por ejemplo:
1 3 1 1 1 3 1
P (([0, ) ∪ [ , 1]) ∩ [0, )) = = P ([0, ) ∪ [ , 1])P ([0, ))
4 4 2 4 4 4 2
Ahora consideremos X = Z1 Z2 , Y = Z1 y G = σ(Z2 ). Entonces:
1 1 3
{X = 1} = [0, ) ∪ [ , )
4 2 4
1 1 3
{X = −1} = [ , ) ∪ [ , 1]
4 2 4
124
X es independiente de Y (demostrarlo) y:
125
Problema 9
Sea X, Y variables aleatorias i.i.d en (Ω, F, P ) con E(X) < ∞. Demuestre que:
X +Y
E(X|X + Y ) = E(Y |X + Y ) =
2
Solución:
Primero veamos que:
E(X|X + Y ) = E(Y |X + Y )
Sea µXY la medida en R2 inducida por la distribución conjunta (X, Y ). Es decir,
E(X|X + Y ) = E(Y |X + Y )
126
Además, sabemos que:
E(X|X) = X
Luego:
No basta con que X, Y tengan la misma distribución para que E(X|X +Y ) = E(Y |X +Y ).
Por ejemplo: Considerar Ω = {a, b, c}, F = 2Ω y P tal que:
1
P (a) = P (b) = P (c) =
3
Considerar las variables aleatorias X, Y : Ω → {0, 1, 2} dadas por:
E[X|X + Y ] = X
E[Y |X + Y ] = Y
Y no es cierto que X = Y c.s., luego E[X|X + Y ] 6= E[Y |X + Y ].
127