Está en la página 1de 41

Estadística Aplicada 2

Esperanza Condicional

Loretta Gasco Campos


Condicionando sobre un evento
Definición
Sea ( Ω, ℱ,P) un espacio de probabilidad. Sea X una variable aleatoria integrable
y B ∈ ℱ con P(B) ≠ 0.
La esperanza condicional de X dado B se define como

1
E[X|B] = ‫׬‬ X dP
P(B) B

Propiedades:
• E[X|Ω] = E[X]
• E[1A |B] = P[A|B]
Se lanzan tres monedas legales de 10um, 20um y 50um (el valor solo aparece en la cara
respectiva de la moneda). Los valores que aparecen suman la cantidad total X. ¿Cuál es la
cantidad total esperada de X dado que dos monedas mostraron valores?

B = [dos monedas mostraron valores]


B = { CCS, CSC,SCC} donde P({ CCS}) = 1/8 = P({CSC}) = P({SCC})
P(B) = 3/8
X(CCS) = 10+20 = 30; X(CSC) = 10+50 = 60; X(SCC) = 20+50 = 70

1 160
E[X|B] = ( 30 x 1/8 +60 x 1/8 + 70 x 1/8) =
3/8 3
Condicionando sobre una variable aleatoria discreta
Definición
Sea ( Ω, ℱ,P) un espacio de probabilidad. Sean X variable aleatoria integrable
e Y una variable aleatoria discreta definidas sobre ( Ω,ℱ,P).

La esperanza condicional de X dado Y es


la variable aleatoria E[X|Y] definida mediante

E[X|Y]: Ω → ℝ
E[X|Y](ω) = E[X|[Y = yk ]] si Y(ω)= yk con k = 1,2,….

1
donde E[X|[Y = yk ]] = P([Y = y ]) ‫[׬‬Y = y ] X dP
k k
Se lanzan tres monedas legales de 10um, 20um y 50um (el valor solo aparece en la cara
respectiva de la moneda). Sea X la cantidad total mostrada por las tres monedas. ¿Cuál es la
esperanza condicional de X dada la cantidad total Y mostrada solamente por las dos
monedas de 10um y 20um?

Y variable aleatoria discreta con Rango= { 0,10,20,30}


[Y = 0] = {SSC,SSS} con P([Y = 0]) = 2/8
[Y =10] = {CSC,CSS} con P([Y = 10]) = 2/8
[Y =20] = {SCC,SCS} con P([Y = 20]) = 2/8
[Y =30] = {CCC,CCS} con P([Y = 30]) = 2/8

1 1 1 1 1 1 1
E[X|[Y=0]]=
P([Y=0])
‫[׬‬Y=0] 𝐗 dP = 2 ( X(SSC)+ X(SSS))
8 8
=2(
8
50+
8
0)
8 8
1 25
= 2
4
= 25
8
1 1 1 1 1 1 1
E[X|[Y=10]]= ‫׬‬ 𝐗 dP = 2 ( X(CSC)+ X(CSS)) = 2 ( 60+ 10)
P([Y=10]) [Y=10] 8 8 8 8
8 8
1 35
= 2
4
= 35;
8

1 1 1 1 1 1 1
E[X|[Y=20]]= P([Y=20]) ‫[׬‬Y=20] 𝐗 dP = 2 ( X(SCC)+ X(SCS)) =2( 70+ 8 20)
8 8 8
8 8
1 45
= 2 = 45;
4
8

1 1 1 1 1 1 1
E[X|[Y=30]]= ‫׬‬ 𝐗 dP = 2 ( X(CCC)+ X(CCS)) = 2 ( 80+ 30)
P([Y=30]) [Y=30] 8 8 8 8
8 8
1 55
= 2 = 55:
4
8
E[X|Y] es una variable aleatoria definida sobre ( Ω,ℱ,P)

25 si Y(ω) = 0
E[X|Y](ω) = 35 si Y(ω) = 10
45 si Y(ω) = 20
55 si Y(ω) = 30

con Rango = {25,35,45,55}

E[X|Y] es una variable aleatoria discreta


Sea ( Ω,ℱ,P) espacio de probabilidad con
Ω = [0,1], ℱ = ℬ 0,1 ; P= medida de Lebesgue sobre [0,1].
Sean X una variable aleatoria definida sobre Ω mediante X(x) = 2 x 2 , x ∈ [0,1],
Y una variable aleatoria definida sobre Ω mediante
1 si x ∈ [0,1/3]
Y(x) = 2 si x ∈ (1/3,2/3]
0 si x ∈ (2/3,1]
Y es una variable aleatoria discreta con Rango = {1,2,0}

[Y = 1] = [0,1/3] entonces P([Y = 1])= 1/3 - 0 = 1/3


[Y = 2] = (1/3,2/3] entonces P([Y = 2]) =P((1/3,2/3]) = 2/3 - 1/3 = 1/3
[Y = 0] = (2/3,1] entonces P([Y = 0])= P( (2/3,1] ) = 1 - 2/3 = 1/3
1 1 1/3
E[X|[Y=1]]= P([Y=1]) ‫[׬‬Y=1] 𝐗 dP = 1 ‫׬‬0 2 x 2 dx
3
2
= 27

1 1 2/3 2
E[X|[Y=2]]= P([Y=2]) ‫[׬‬Y=2] 𝐗 dP = 1 ‫׬‬1/3 2 x dx
3
14
= 27

1 1 1 2 dx
E[X|[Y=0]]= P([Y=0]) ‫[׬‬Y=0] 𝐗 dP = ‫׬‬
1 2/3 2 x
3
38
=27
• Si Y es constante entonces E[X|Y] = E[X]

• Probabilidad condicional
Sea B tal que 1≠ P B ≠0

• E[E[X|Y]]= E[X] con Y variable aleatoria discreta.


Proposición
Si X es una variable aleatoria integrable e Y es una variable aleatoria discreta
entonces
1. E[X|Y] es σ(Y)-medible
2. Para cualquier A ∈ σ(Y) se cumple que ‫׬‬A E 𝐗 𝐘 dP = ‫׬‬A 𝐗 dP

Demostración:
Como Ω = ‫ڂ‬k [Y = yk ] entonces σ(Y) es generada por
la colección de los eventos {[Y = yk ] , k=1,2,…}.
Por ello, si A ∈ σ(Y) entonces A es una unión contable de conjuntos de la forma [Y = yk ] .
Además, E[X|Y] es constante sobre cada uno de estos conjuntos: E 𝐗 [Y = yk ] es un valor real
entonces
E[X|Y] debe ser σ(Y)-medible.
Para cada k tenemos
‫[׬‬Y = y ] E 𝐗 𝐘 dP = ‫[׬‬Y = y ] E 𝐗 [Y = yk ] dP =
k k

= E 𝐗 [Y = yk ] ‫[׬‬Y = y ] dP
k

= E 𝐗 [Y = yk ] P([Y = yk ])
1
=P([Y = y ]) ‫[׬‬Y = y ] X dP P([Y = yk ]) = ‫[׬‬Y = y ] 𝐗 dP.
k k k

Como A es una unión contable de conjuntos de la forma [Y = yk ]


los cuales son disjuntos dos a dos,
se tiene que
‫׬‬A E 𝐗 𝐘 dP = ‫׬‬A 𝐗 dP.∎
Condicionando sobre una variable aleatoria arbitraria
Definición
Sean X variable aleatoria integrable e Y variable aleatoria arbitraria
definidas sobre (Ω, ℱ, P) espacio de probabilidad.
Se define la esperanza condicional de X dado Y
como la variable aleatoria E[X|Y] definida sobre (Ω, ℱ, P)
tal que
1. E[X|Y] es σ(Y)-medible
2. Para cualquier A ∈ σ(Y) se cumple que ‫׬‬A E 𝐗 𝐘 dP = ‫׬‬A 𝐗 dP
Sea ( Ω,ℱ,P) espacio de probabilidad con Ω = [0,1], ℱ = ℬ 0,1 ; P = medida de Lebesgue
sobre [0,1].

Sean X una variable aleatoria definida sobre Ω


mediante
X(x) = 2 x 2 , x ∈ [0,1]

Y una variable aleatoria definida sobre Ω mediante

Y(x) = 2 si x ∈ [0,1/2)
x si x ∈ [1/2,1]
Y es una variable aleatoria con Rango = {2} U [1/2,1]
σ-álgebra de Y: elementos de σ(Y) :

Si B es un conjunto boreleano tal que B ⊂ [1/2,1]


entonces
B = [Y ∈ B ] ∈ σ(Y) primera clase
[0, ½) U B = [Y=2] U [Y ∈ B ] ∈ σ(Y) segunda clase
Los elementos de σ(Y) sonde la forma B ó [0, ½) U B

Sea un conjunto boreleano C ⊂ ℝ


Si 2 ∈ C entonces [Y ∈ C ] es de la segunda clase
Si 2 ∉ C entonces [Y ∈ C ] es de la primera clase
E[X|Y] debe ser σ(Y)-medible entonces E[X|Y] sobre [0,1/2) debe ser constante:
1 1 1/2
E[X|[0,1/2)] (x) = E[X|[0,1/2)] = 𝐗 x dx = 2x 2 dx = 1/6
P([0,1/2)) ‫[׬‬0,1/2) 1/2 ‫׬‬0

1/2 1
Como ‫[׬‬0,1/2) E 𝐗 𝐘 x dx = ‫׬‬0 6 dx = 1/12
1/2 2
‫[׬‬0,1/2) 𝐗 x dx = ‫׬‬0 2x dx = 1/12

Entonces se cumple que ‫[׬‬0,1/2) E 𝐗 𝐘 x dx = ‫[׬‬0,1/2) 𝐗 x dx


Si E[X|Y] = X sobre [1/2, 1]
entonces
para cualquier boreleano B ⊂ [1/2, 1]

‫׬‬B E 𝐗 𝐘 x dx = ‫׬‬B 𝐗 x dx
E𝐗𝐘 x = 1/6 si x ∈ [0,1/2)
2x 2 si x ∈ [1/2,1]

Por tanto,
para cualquier C ∈ σ(Y) entonces se cumple que
‫׬‬C E 𝐗 𝐘 x dx = ‫׬‬C 𝐗 x dx
• Se define la probabilidad condicional de un evento A ∈ ℱ dado Y mediante
P(A|Y) = E( 1A |Y).

• La igualdad de la definición E[X|Y] se cumple c.s.,


o sea que el conjunto donde se cumple la igualdad tiene probabilidad 1:

• Si X = X´ c.s. entonces E[X|Y] = E[X´|Y] c.s.

• Si σ(Y) = σ(Y´) entonces E[X|Y] = E[X|Y´] c.s.

• Sea ℊ sub-σ-algebra contenida en ℱ.


Si X es una variable aleatoria ℊ-medible y
para cualquier B ∈ ℊ, ‫׬‬B X dP = 0 entonces X = 0 c.s.
Condicionando sobre una σ-álgebra
Definición
Sean X variable aleatoria integrable definida sobre ( Ω, ℱ,P)
y 𝓰 una sub-σ-álgebra contenida en ℱ.

Se define la esperanza condicional de X dado 𝓰


como la variable aleatoria E[X| 𝓰] tal que

1. E[X| 𝓰] es 𝓰 -medible

2. Para cualquier A ∈ 𝓰 se cumple que ‫׬‬A E 𝐗 𝓰 dP = ‫׬‬A 𝐗 dP

Se define la probabilidad condicional de un evento A ∈ ℱ dado 𝓰


mediante
P(A|Y) = E( 1A |Y).
• E[X|𝓰 ] existe y es única en el sentido siguiente:
si X = X´ entonces E[X|𝓰 ] = E[X´|𝓰 ].
Teorema

Sea ( Ω, ℱ,P) un espacio de probabilidad y sea 𝓰 una sub-σ-álgebra contenida en ℱ.


Sea X : Ω → ℝ variable aleatoria ℱ − medible con E|X|< ∞.
Entonces,
existe una variable aleatoria Z : Ω → ℝ tal que
• Z es 𝓰 –medible ;
• E|Z| < ∞;
• Z está unívocamente determinada (salvo equivalencia con probabilidad 1) mediante
‫׬‬A 𝐗 dP = ‫׬‬A Z dP para todo A ∈ 𝓰.
( E[ 1A X ] = E 1A Z para todo A ∈ 𝓰)
Demostración
Sea X ≥ 0 con E[|X|] < ∞. Sea μ(A) = ‫׬‬A 𝐗 dP, para todo A ∈ 𝓰.
Entonces, μ es una medida sobre ( Ω, 𝓰) dominada por P restringido a 𝓰
O sea,
μ es absolutamente continua con respecto a P restringido a 𝓰.
Por el Teorema de Radon-Nikodyn
existe una función Z: Ω → ℝ la cual es 𝓰-medible tal que
μ(A) = ‫׬‬A Z dP, para todo A ∈ 𝓰.
Lo cual también se puede escribir como
‫׬‬A 𝐗 dP = ‫׬‬A Z dP, para todo A ∈ 𝓰.
En general, para X considerar que X = 𝐗 + - 𝐗 − ∎
• Si 𝓰 = {φ, Ω } entonces E[X|𝓰]= E[X] c.s.

• Si X es 𝓰-medible entonces E[X|𝓰]= X.

• Si B ∈ 𝓰 entonces E[E[X| 𝓰]|B]=E[X|B]


Propiedades generales
Sean X e Y variables aleatorias integrables en (Ω,ℱ,P); a, b números reales ;
ℊ y ℋ sub-σ-algebras definidas en (Ω,ℱ,P).
Tanto las igualdades como las desigualdades se cumplen P-c.s.

1. Linealidad : E[a X + bY|ℊ] = 𝑎E[X| ℊ]+b E[Y| ℊ]

2. Iteración : E[E[X| ℊ]]=E[X]

3. Saliendo lo conocido : si X es ℊ-medible y XY integrable entonces


E[X Y| ℊ] = X E[Y| ℊ].
(E[.| ℊ] conmuta con variables ℊ-medibles)

4. Independencia : Si X es independiente de ℊ entonces


E[X| ℊ] = E[X]
5. Propiedad de la torre : E[E[X| ℊ]|ℋ] = E[E[X| ℋ]|ℊ] = E[X| ℋ] si ℋ ⊂ ℊ

Prueba de E[E[X| ℊ]|ℋ] = E[X| ℋ] si ℋ ⊂ ℊ


Por definición:
‫׬‬A E 𝐗 𝓰 dP = ‫׬‬A 𝐗 dP para todo A ∈ 𝓰
‫׬‬A E 𝐗 ℋ dP = ‫׬‬A 𝐗 dP para todo A ∈ ℋ … . (∗)
Pero ℋ ⊂ ℊ entonces
‫׬‬A E 𝐗 𝓰 dP = ‫׬‬A E 𝐗 ℋ dP para todo A ∈ ℋ.
Entonces, por la definición concluimos
que
E[E[X| ℊ]|ℋ] = E[X| ℋ] si ℋ ⊂ ℊ
Prueba de E[E[X| ℋ]|ℊ] = E[X| ℋ] si ℋ ⊂ ℊ.
Como E[X| ℋ] es ℋ-medible y ℋ ⊂ ℊ.entonces
E[X| ℋ] es ℊ − medible y por la propiedad 3 de extraer lo conocido
E[E[X| ℋ]|ℊ] = E[X| ℋ]. ∎

Sean X e Y variables aleatorias integrables definidas en en (Ω,ℱ,P).


Entonces,
E[E[X|Y]] = E[X]
Prueba
Sea ℋ= {φ, Ω} y ℊ = σ(Y) entonces ℋ ⊂ ℊ ⊂ ℱ
E[E[X| Y]] = E[E[X| σ(Y) ]| ℋ] = E[E[X| ℊ]|ℋ]
por la propiedad de la torre
= E[X|ℋ] = E[X] c.s.
6. Positividad : Si X ≥ 0 entonces E[X| ℊ] ≥ 0.

7. Monotonicidad: Si X ≥ Y entonces E[X| ℊ] ≥ E[Y| ℊ].

8. Desigualdad de Jensen: Sea f: ℝ ℝ función convexa tal que f(X) es


integrable
entonces
f(E[X| ℊ])≤ E[f(X)| ℊ]
Sea {X1 , X 2 ,… } una sucesión de variables aleatorias definidas en (Ω, ℱ,P)

9. Teorema de Convergencia Monótona para Esperanza Condicional


Sean X1 , X 2 ,… sucesión de variables aleatorias definidas en
0 ≤ X n ↑ X entonces 0 ≤ E[X n |ℊ] ↑ E[X|ℊ]

10. Teorema de Convergencia Dominada para Esperanza Condicional


Si X n → X c.s. y | X n | ≤ Y c.s. para todo n≥1 con Y variable aleatoria
integrable entonces
E[X n | ℊ ] → E[X | ℊ ] c.s

11. Sea p ≥ 1, tal que ∥E[X| ℊ] ∥p ≤ ∥X∥p y


X n → X entonces E[X n |ℊ] → E[X|ℊ] donde la convergencia es en L2
12. Sea ℊ0 ⊂ ℊ1 ⊂ ⋯ de sub-σ-álgebras definidas en (Ω, ℱ,P)
con ℊ∞ = ⋁∞ 𝑖=1 ℊi = σ(‫ ڂ‬ℊi ) y
sea X ∈ Lp (Ω, ℱ,P) con p ≥1.
Entonces,
E[X|ℊn] → E[X| ℊ∞ ] convergencia casi segura y convergencia en Lp .
Espacio de Hilbert
H es un espacio vectorial con producto interno <.,.> tal que
H es completo con respecto a su norma ∥. ∥ definida mediante
∥ x ∥ = <x, x>, para todo x ∈ H

Lema
Todo conjunto E convexo cerrado no vacío en un espacio de Hilbert H
contiene un único elemento con la norma más pequeña.

Lema Existencia de Proyecciones en Espacio de Hilbert


Sea un subespacio K cerrado de un espacio de Hilbert H y dado un elemento x ∈ H.
Entonces,
existe una descomposición x = y + z donde y ∈ K y z ∈ K ⊥ (complemento ortogonal)
Sea el subespacio 𝐿2 (ℊ) ⊂ 𝐿2 (ℱ) que consiste de las variables aleatorias ℊ-medibles y sea Z la
proyección ortogonal de X. Entonces,

E[ (X-Z)Y] = 0 para todo Y ∈ L2 (ℊ).

Para cada A ∈ ℊ, la función indicadora 1A ∈ L2 (ℊ) entonces


E[ (X-Z) 1A ] = 0.

Por tanto, para cualquier A ∈ ℊ,


‫׬‬A X dP = E[X1A ] = E[ Z1A ] = ‫׬‬A Z dP.
Esto implica que Z = E[X| ℊ].

E[.| ℊ] es una proyección:


E[E[X| ℊ]| ℊ] = E[X| ℊ] .
Ley de Esperanza Total

Sea X una variable aleatoria definida sobre (Ω, ℱ, P) tal que E[|X|] < ∞.
Sea {Ak , k = 1,…,n } una partición de Ω, o sea, Ω = ‫ڂ‬nk=1 Ak
y tal que P(Ak ) > 0 para todo k = 1,…,n.

Entonces,
σnk=1 1Ak = 1 y X = σnk=1 X1Ak .
Tomando esperanza
E[X] = E[σnk=1 X 1Ak ] = σnk=1 E[X 1Ak ] = σnk=1 ‫׬‬A X dP
k

P(Ak) ‫׬‬A X dP
= σnk=1 n
‫׬‬A X dP P(A ) = σk=1 P( k
P(Ak )
k k A k )
= σnk=1 E X Ak ] P(Ak )
Entonces,

E[X] = σnk=1 E X Ak ] P(Ak )


Si Ω = ‫∞ڂ‬
k=1 Ak con {Ak , k = 1, 2,.. } partición contable infinita de Ω
y tal que P(Ak ) > 0 para todo k = 1, 2,…

• Para cada n ≥ 1, se tiene que |σnk=1 X1Ak | ≤ |X| 1‫∞ڂ‬


k=1 Ak ≤ |X|.

• La sucesión {σnk=1 X1Ak , n = 1, 2,…} converge puntualmente a X cuando n → ∞.

• Como E[|X|] < ∞ aplicando el Teorema de Convergencia Dominada


se demuestra que
E[σnk=1 X1Ak ] → E[X] cuando n → ∞.∎

Si {Ak } es una partición finita o contable infinita de Ω


entonces
E[X] = σk E X Ak ] P(Ak )

También podría gustarte