0% encontró este documento útil (0 votos)
108 vistas15 páginas

Probabilidades: Vectores Aleatorios y Covarianzas

1) El documento presenta conceptos básicos sobre vectores aleatorios como el vector de medias, la matriz de varianzas y covarianzas, y la matriz de correlaciones. 2) Explica que el vector de medias contiene la esperanza matemática de cada variable, mientras que la matriz de varianzas y covarianzas incluye las varianzas en la diagonal y las covarianzas fuera de ella. 3) También cubre conceptos como la covarianza condicional, la varianza condicional y fórmulas para calcular valores esperados de funciones de variables aleator

Cargado por

Carlos Terán
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
108 vistas15 páginas

Probabilidades: Vectores Aleatorios y Covarianzas

1) El documento presenta conceptos básicos sobre vectores aleatorios como el vector de medias, la matriz de varianzas y covarianzas, y la matriz de correlaciones. 2) Explica que el vector de medias contiene la esperanza matemática de cada variable, mientras que la matriz de varianzas y covarianzas incluye las varianzas en la diagonal y las covarianzas fuera de ella. 3) También cubre conceptos como la covarianza condicional, la varianza condicional y fórmulas para calcular valores esperados de funciones de variables aleator

Cargado por

Carlos Terán
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

CALCULO DE PROBABILIDADES II

UNIDAD I: VECTORES ALEATORIOS DISCRETOS Y


CONTINUOS
TEMA 3: VECTOR DE MEDIAS.MATRIZ DE VARIANZAS Y
COVARIANZAS. MATRIZ DE CORRELACIONES. MEDIAS Y VARIANZAS
CONDICIONALES.

CARACTERISTICAS DE UN VECTOR ALEATORIO

ESPERANZA MATEMATICA O VALOR ESPERADO: E [X]


Sea el vector X=[X1, X2, ……, Xp]t , la esperanza matemática de la variable Xi es:

E [ X i ]= ∑ x i f (x 1 , x 2 ,......., x p )= ∑ x i f ( xi )
∀( x1 ,x 2 ,...x p )∈ Df x ∀x ∈R
i xi

Para un vector de tipo discreto.


∞ ∞
E[ X i ]=∫−∞ ......∫−∞ x i f (x1 ,x 2 ,......,x p )dx 1 dx 2 .......dx p
o

E[ X i ]=∫−∞ x i f (x i )dx i Para un vector de tipo continuo

E [Xi] = µi, i=1,2,…, p se denomina media teórica de la variable


aleatoria Xi

VECTOR DE MEDIAS: Es la esperanza matemática del vector X y se define como:

X1 E ( X1) μ1

:
Xp [ ][ ][ ]
E [ X ] =E X 2 = .
.
E( X p )
= . =μ
.
μp
Vector de medias

Es un vector, cuyos elementos son la esperanza matemática o media de


cada una de las p variables.

COVARIANZA ENTRE VARIABLES ALEATORIAS XI, XJ


Cov (Xi, Xj) o σij es la esperanza matemática de (Xi-E (Xi)) (Xj-E (Xj))
σij = Cov (Xi, Xj) = E [(Xi – E (Xi) (Xj – E(Xj))]
Si i = j σii = σi2 = V (Xi) varianza de Xi.

Se puede obtener:
Cov (Xi, Xj) = E (Xi Xj) – E (Xi) E (Xj)

MATRIZ DE VARIANZAS Y COVARIANZAS DE X

Sea Y=(X-µ)(X-µ)t una matriz,

E (x 1 −μ1 )( x1 −μ1 )t . . .. .. .. . .. .. E( x 1 −μ1 )(x p −μ p )t


⇒ E [ Y ] =E [ ( X−μ )( X−μ )t ]=
[ :
:
E ( x p−μ p )( x1 −μ1 ) . . .. .. . .. .. .. . E( x p −μ p )( x p −μ p )t
t ]
E[( x 1 −μ 1 )2 ] E[( x 1−μ1 )( x 2−μ 2 )]. .. .. . .. .. . .. .. .. . .. E[( x 1−μ 1 )( x p −μ p )]

E [Y ]=
[ E [( x 2 −μ2 )( x1 −μ1 )]

E [(x p −μ p )(x 1 −μ1 )]


E[( x 2−μ 2 )2 ]. . .. .. . .. .. . .. .. . E [( x2 −μ2 )( x p −μ p )]
:
E[( x p −μ p )( x 2−μ 2 ) ].. . .. .. . .. .. . .. .. E[( x p −μ p )2 ]
]
V ( X1 ) Cov( X 1 , X 2 ). .. . .. .. . .. .. . .. .. . Cov( X 1 , X p )

[
E [ Y ] = Cov ( X 2 , X 1 )

Cov ( X p , X 1 )
V ( X2)
:
Cov ( X p , X 2 )
Cov ( X 2 , X p )

V ( X p) ]
Se acostumbra a denotar por:
t t
Σ=( σ ij ) pxp=Cov( X , X )=E[( X −E( X ))( X −E( X )) ]
σ 11 σ 12 . . .. .. . σ1 p σ 21 σ 12 . . .. .. . σ1 p

[
Σ= σ 21
. ..
σp1
σ 22
.. . .
σp2
. . .. .. . σ2 p
. . .. .. . . . .. . ..
. . .. .. . .. σ pp
][
pxp
2

. .. .. . . . . .. .. . . .. .. . .
σ p 1 σ p2 . . .. .. . . σ 2p
]
= σ 21 σ 2 . . .. .. . . σ 2 p =(σ ij ) pxp

∑ es la covarianza entre un vector X px1 y su transpuesta. Esta matriz


es simétrica, donde los elementos de la diagonal son las varianzas de
cada una de las p variables y las demás componentes son las
covarianzas entre cada para de variables diferentes tomadas de dos en
dos de las p variables. Si p=4 tendríamos las combinaciones de 4 en 2,
igual a 6 covarianzas. Y se cumple que σij = σji por ser una matriz
simétrica.
MATRIZ DE CORRELACIONES
Es una matriz simétrica de orden p, con unos en la diagonal y los otros
elementos fuera de la diagonal representan las correlaciones entre cada par
de variables. Se denota por R.

1 ρ12 . . .. . ρ1 p

[
R=( ρij ) pxp = ρ21 1
.. . . . .. .
ρp1 ρp2
. . .. . ρ2 p
. . .. .. . .. ..
. . .. .. . 1
]
Como la matriz de correlaciones es simétrica se cumple que ρij = ρji para
todo i,j = 1,2,3,….,p donde cada uno de los elementos se cumple que:
−1≤ρij ≤1

Valor esperado de una función de variables aleatorias.-


1. Sea g(x1,x2,….,xp) una función de las variables aleatorias discretas
X1, X2, …..Xp. cuya función de probabilidad es p(x1,x2, …..,xp).
Entonces, el valor esperado de g(x1,x2,…,xp) es:

E[ g ( x1 ,x 2 , .. . ., x p )]=∑ . . .. ... .. ∑ ∑ g( x 1 , x2 . ,. ...x p ) p ( x1 , x 2 , .. ., x p )


x x x1
p 2

2. Si c es una constante, entonces E[c] = c

3. Si g(x1,x2), es una función de las variables aleatorias X 1 y X2, y c es


una constante, entonces
E[c g(x1, x2)] = c E [g(x1, x2)]

4. Si X1 y X2 son variables aleatorias y g1(x1 , x2), g2(x1, x2),….gk(x1,x2),


son funciones de X1 y X2, entonces:
E[g1(x1, x2)] + g2(x1,x2) + ….+gk(x1, x2)] = E[g1(x1,x2)] + E[g2(x1, x2) +
………+ E[gk(x1, x2)]
5. Si X1 y X2 son variables aleatorias independientes y g(x1) y h(x2) solo
son funciones de X1 y X2 respectivamente, entonces:
E [g(x1) h(x2)] = E [g (x1)]. E [h (x2)]
Siempre y cuando existan los valores esperados.

6. Si X1 y X2 son variables aleatorias con valores esperados µ1 y µ2,


respectivamente, la covarianza de X1 y X2 está dada por:
Cov (X1, X2) = E [(X1- µ1) (X2- µ2)], cuanto mayor es la covarianza
en valor absoluto mayor será la dependencia lineal entre X1 y X2, si
Cov (X1, X2) < 0, X1 disminuye a medida que X2 aumente y si Cov
(X1, X2) > 0, X1 aumenta a medida que X2 aumenta.
El valor de la covarianza depende de la escala de medidas, este
problema se elimina si estandarizamos este valor, obteniéndose un
valor sin unidad de medida llamado coeficiente de correlación lineal
entre las variables X1 y X2, así:

Cov ( X 1 , X 2 )
=ρ ; -1≤ρ≤1
σ1 σ 2
El coeficiente de correlación sirve para determinar el grado de
dependencia entre dos variables.
7. Si X1 y X2 son variables aleatorias con valor esperados µ 1 y µ2,
respectivamente, entonces:

Cov (X1, X2) = E [(X1- µ1)(X2- µ2)] = E (X1 X2) – E (X1) E (X2)

8. Si X1 y X2 son variables aleatorias independientes, entonces:


Cov (X1, X2) = 0. El reciproco no es verdadero.

9. Sean X1, X2, ……., Xn y Y1, Y2,…..,Ym, variables aleatorias con


E[Xi] = µi y E[Yj] = αj. Definamos ahora,
n m
U 1 =∑ ai x i y U2 =∑ b j y j (combinaciones lineales )
i=1 j=1
para las constantes a 1 , a2 , .. .. . , an y b1 , b2 ,. .. . ., b m . Asi ,las siguientes proposiciones se cumplen:
n
a ) E[U i ]=∑ ai μ i
i=1
n
b ) V[U i ]=∑ a2i V ( X i )+2 ∑ ai a j Cov( X i , X j ), donde la doble suma esta dada para todos
i=1 i< j
los pares (i,j) con i< j.
c ) Cov (U 1 , U 2 )=∑∑ ai b j Cov( X i ,Y j )

10.Teorema del valor esperado global.


Si X1 y X2 son variables aleatorias:

E [ E [X1|X2] ] = E [X1]

11.Sean X1 y X2 dos variables aleatorias, entonces:


E [ E (X1|X2)|X2] = E [X1|X2]

12.Varianza Condicional
Si X1 y X2 son dos variables aleatorias, entonces:

V[X1|X2 = x2] = E [(X1 - E(X1|X2 = x2)2 | X2 = x2 ]


= E [ X12 | X2 =x2] – ( E [X1|X2 = x2] )2

V [X1|X2] = E [(X1 – E(X1|X2) )2 | X2] = E [ X12 | X2 ] – ( E[X1|X2] )2

13.Para dos variables aleatorias X1 y X2:


V [X1] = V [E [X1|X2] ] + E [ V [X1|X2] ]

14.Para cualquier par de variables X1 y X2


V [X1 ± X2] = V [X1] + V [X2] ± 2 Cov (X1, X2)
Para p variables aleatorias
p p
V [ ∑ X i ]=∑ V [ X i ]+2 ∑ Cov( X i , X j )
i=1 i=1 i; j
Si X1 y X2 son independientes:
V [X1 ± X2] = V[X1] + V[X2]
15. Desigualdad de Cauchy Schwartz)
Sean X1 y X2 variables aleatorias arbitrarias, cada una de ellas con
varianza finita y no nula, entonces:
|Cov(X1, X2)| < ( V(X1) V(X2) ) ½

16.Sean X, Y, Z variables aleatorias. Sea A un suceso, a, b y z números


reales y W= a X + b Y, entonces:
a) E [W|A] = a E [X|A] + b E [Y|A]
b) E [W|Z = z] = a E [X|Z = z] + b E [Y| Z = z]
c) E [W|Z ] = a E [X|Z] + b E [Y|Z]

Clases de Coeficientes de Correlación.-


a) Coeficiente de correlación simple:
Sea X = (X1, X2, ….., Xp)t, un vector aleatorio y Xi , Xj, dos variables
cualesquiera del vector X, entonces el coeficiente de correlación simple
de estas dos variables lo denotamos por ρ ij y lo definimos como el
cociente entre la covarianza de estas variables y la raíz cuadrada del
producto de sus respectivas varianzas.
Cov ( X i , X j ) σ ij
ρij = 1 = 1

[V ( X i ) .V ( X j )] 2
[ σ ii σ jj ] 2

b) Coeficiente de correlación parcial.


Sea X = (Xi1, ….., Xir, Xj1,…..,Xjs)t = (Xi, Xj )t , un vector aleatorio y
Xi y Xj, subvectores de X; entonces la correlación parcial se da en
dos variables de un subvector, por decir X ik y Xil, condicionados a Xj
= xj, lo denotamos por:

ρi i . j
k l 1 j2 . .. . . j s y la definimos como el cociente entre la
covarianza de las variables Xik y Xil condicionados a Xj = xj y la raíz
cuadrada del producto de sus respectivas varianzas condicionales.
ρ Cov( X ik , X il |X j =x j )
ik i l . j1 . .. . .. . . j s = 1
j j j j 2
[ V ( X i |X = x ) .V ( X i |X =x ) ]
k l
c) Coeficiente de correlación múltiple.
Sea X = (Xi, X°)t un vector aleatorio donde Xi es una variable
cualquiera y X° es un subvector de las restantes variables. Si βX° es
una combinación lineal de las variables del vector X°, entonces el
coeficiente de correlación múltiple de Xi y βX° lo denotamos por
ρi.12….i-1, i +1, ….n y lo definimos como el cociente entre la covarianza de
Xi y βX° y la raíz cuadrada del producto de sus respectivas varianzas.

ρ Cov( X i , βX 0 )
i . 12 .. . .. . i−1 ,i+1, . .. . . n= 1
0 2
[V ( X i ). V ( βX )]
El coeficiente de correlación múltiple determina el grado de
dependencia entre una variable aleatoria y una combinación lineal de
otras variables.

VECTOR DE MEDIAS Y MATRIZ DE COVARIANZAS


MUESTRALES
Sean los vectores X1, X2, …..,Xp una muestra aleatoria de una
distribución multivariante, entonces definimos y denotamos al vector
de medias muestrales como:
n
xi
X̄ =∑
i=1 n
Y a la matriz de covarianzas:
1
S= ∑ ( X i − X̄ )( X i − X̄ )t
n
Matriz de Correlaciones
1 ρ12 .. . .. .. ρ1 p

[
ρ= ρ21 1
.. .. . . .. .. .
ρp1 ρp2
] 1
.. . .. .. . ρ2 p =D− 2 D− 2
.. . .. .. . . .... . .
.. . .. .. . 1

1

Donde ∑: matriz de covarianzas


D: matriz diagonal
σ 11 0 .. .. . . 0
D= 0
[ σ 22
. . .. .. . . .. .
0 0
.. .. . ..
.. .. . .. . 0
0

.. .. . .. .. σ pp
VECTOR DE MEDIAS Y MATRIZ DE COVARIANZAS
]
PARTICIONADAS

X1 μ1

[] []
X2 μ2
. . .. .. .. .
X = Xk μ= μ k ∑ = ∑ 11 ∑ 12
[ ]
. . .. . .. .. . ∑ 21 ∑ 22
X k +1 μ k +1
. . .. .. . .. .. . .
Xp μp

X1 X k +1

∑ 12=∑ 21 si ∑ 12=0 X

[] []
⇒ 2
.. . ..
Xk
y
X k +2
. . .. ..
Xp
son independientes

Propiedades. Si X es vector aleatorio de orden px1


a. E [cX] = c E [X] donde c es una constante
2
b. V [cX] = c ∑x
c. E [atX] = at E[X]
d. V [Ct X] = Ct ∑x C
e. E [AX] = A E [X]; ∑AX = A∑x At
f. E ||X||2 = ||µ||2 + tr ∑x
g. Si Arxp y Bsxp matrices reales y sean las variables
transformadas Y = AX y Z = BX, entonces
h. Cov (Y) = A ∑x At
Cov (Z) = B ∑x Bt
Cov (YZ) = A∑x Bt
i. Si X y Y son vectores aleatorios y L px1 y Mpx1 vectores de
números reales, entonces:
V(LtX) = Lt ∑xL
V(MtY) = Mt∑yM
Cov(LtX,MtY) = Lt Cov(X,Y) M
EJEMPLOS Y EJERCICIOS RESUELTOS
1. Supongamos que la densidad conjunta de X1 y X2 está
distribuida por:

f (x1 ,x2 )=¿ {2 x1 , 0≤x1≤1, 0≤x2≤1 ¿ ¿¿¿


Calcule: E [X1], E [X2], E [X1, X2], V [X1], V [X2], Cov
[X1,X2]
Solución:
1 1 2 x 31 1
1 1
E[ X 1 ]=∫0 ∫0 x 1 (2 x 1 )dx 1 dx 2 =∫0 [ ]0 dx 2 =∫0 23 dx 2 =23 x 2|10 =23
3
1 1 1 1 x2 1
E[ X 2 ]=∫0 ∫0 x 2 (2 x 1 )dx 1 dx 2 =∫0 x 2 [ x 21 ]10 dx 2 =∫0 x 2 dx 2 = 2 |10 =
2 2
2 2
V [ X 1 ]=E [ X 1 ]−( E[ X 1 ])

2 1 1 2 1 1 3 1 1 4 1 1
E[ X 1 ]=∫0 ∫0 x 1 (2 x 1 )dx 1 dx 2 =∫0 ∫0 2 x 1 dx 1 dx 2 =∫0 [ x0 ]0 dx 2 =
2 2

1 2 1
V [ X 1 ]= −( )2 =
2 3 18
3
1 1 1 2 x1 1 1 2 1
E[ X 1 X 2 ]=∫0 ∫0 x 1 x 2 (2 x 1 )dx 1 dx 2 =∫0 x 2 [ ] 0 dx 2 =∫0 ( )x 2 dx 2 =
3 3 3

1 21
Cov [ X 1 , X 2 ]=E [ X 1 X 2 ]−E [ X 1 ] E [ X 2 ]= − =0
3 32

2. Sean X1 y X2 variables aleatorias discretas con la distribución


de probabilidad conjunta dada en la tabla siguiente. Demuestre
que X1 y X2 son dependientes, pero con covarianza cero.
X1
X2 -1 0 1 px2)
1/1
-1 1/16 3/16 5/16
6
3/1
0 3/16 0 6/16
6
1/1
1 1/16 3/16 5/16
6
5/1
p(x1) 5/16 6/16 1
6
Es suficiente comprobar con un solo caso:
p(-1,-1) = p(-1) p(-1)
(1/16) es diferente de (5/16) (5/16)
Por lo tanto X1 y X2 son dependientes, sin embrago su
covarianza es cero.

Cov(X1, X2) = E(X1 X2) – E(X1) E(X2) = 0 – 0. 0 = 0

E(X1 X2 ) = ∑∑ x1x2 p(x1, x2)


E(X1,X2) = (-1)(-1) (1/16) + (-1)(0)(3/16) + (-1)(1)(1/16) + (0)
(-1)(1/16) + (0)(0)(0) + (0)(1)(1/16) + (1)(1)(1/16) + (1)(0)
(3/16) + (1)(1) (1/16) = 0

E(X1) = (-1) (5/16) + (0) (6/16) + (1) (5/16) = 0


E(X2) = (-1) (5/16) + (0) (6/16) + (1) (5/16) = 0
Esto indica que si la covarianza de dos variables es cero, las
variables no necesariamente son independientes.
3. Sean X1, X2, X3, variables aleatorias donde:
E [X1] = 1 E [X2] = 2 E [X3] = -1
V [X1] = 1 V [X2] = 3 V [X3] = 5
Cov[X1, X2] = -0.4 Cov[X1, X3] = ½ Cov[X2, X3] = 2

Calcule el valor esperado y la varianza de U = X1 -2X2 + X3

Si W = 3X1 + X2, encuentre Cov (U, W)

Solución.-
Vemos que los coeficientes a1 = 1, a2 = -2 y a3 = 1
Luego,
V [U] = (1)2 (1) + (-2)2 (3) + (1)2 (5) +2 [(1) (-2)(-0.4) +(1) (1)
(1/2) +(-2) (1) (2) ] = 12.6

En W vemos que los coeficientes son b1 = 3 b2 = 1


Luego,
Cov (U, W) = a1 b1 Cov(X1,X1) + a1 b2 Cov(X1,X2) + a2 b1
Cov(X2,X1) + a2 b2 Cov(X2,X2) +a3 b1 Cov(X3, X1) + a3 b2
Cov(X3,X2)
Cov (U, W) = (1) (3) (1) + (1) (1) (-0.4) + (-2) (3) (-0.4) + (-2)
(1) (3) + (1) (3) (1/2) + (1) (1) (2) = 2.5

Como la covarianza es diferente de cero indica que U y W son


independientes.
4. Para la función de probabilidad conjunta de X y Y dada en la
siguiente tabla demuestre que:
a. E[X] = E [E [X|Y] ]
b. V[X] = V [ E[X|Y]] + E [V[X|Y]

11111111
{{{{{{{{
pX,Y(x,y)=¿18 x=0,y ¿9 x=0,y1¿6 x=0,y2¿9 x=1,y0¿18 x=1,y ¿9 x=1,y2¿6 x=2,y0¿6 x=2,y1¿
Solución.-
a. Hallamos la E [X]
6 5 7 19
E[ X ]=∑ xi p( xi)=0 p (0)+1 p(1)+2 p(2)=0( 18 )+1( 18 )+2( 18 )= 18

Vemos que P[Y=0] = 6/18 P[Y=1] = 6/18 P[Y=2] = 6/18


E[ X|Y =0 ]=∑ xP[ X =x|Y =0 ]=0 P[ X =0|Y =0 ]+1 P[ X=1|Y =0 ]+2 P [ X =2|Y =0 ]
P [ X =0,Y=0 ] P [ X =1 ,Y =0 ] P[ X=2 , Y =0 ]
=0 +1 +2
P [Y =0 ] P [Y =0 ] P[ Y =0 ]
1 1 1
18 9 6 4
= 06 +1 6 +2 6 =
3
18 18 18
E[ X|Y =1 ]=∑ xP[ X=x|Y =1 ]=0 P [ X =0|Y =1 ]+1 P[ X=1|Y =1 ]+2 P[ X=2|Y =1 ]
P[ X=0,Y=1] P [ X =1, Y =1] P [ X =2 ,Y =1]
=0 +1 +2
P[Y =1 ] P [Y =1 ] P [Y =1 ]
1 1 1
9 18 6 7
=0 6 +1 6 + 26 =
6
18 18 18
E[ X|Y =2 ]=∑ xP[ X=x|Y =2 ]=0 P [ X =0|Y =2 ]+1 P[ X=1|Y =2 ]+2 P[ X=2|Y =2]
P[ X=0,Y=2] P [ X =1 ,Y =2 ] P [ X =2 ,Y =2 ]
=0 +1 +2
P[Y =2 ] P [Y =2] P [Y =2]
1 1 1
2
=0 66 +1 69 + 2 18
6
=
3
18 18 18
Luego,

4 7
{ {
E[ X|Y ]=¿ 3 ; Y=0¿ 6 ; Y=1¿ ¿¿¿
4 6 7 6 2 6 19
E[ E[ X|Y ]]= ∗ + ∗ + ∗ = =E[ X ]
3 18 6 18 3 18 18
b. Demostrar que V[X] = V[E[X|Y]]+E[V[X|Y]]
De la distribución de la esperanza condicional podemos calcular la
varianza de X.
V [ E [ X|Y ]]=E[ E [ X 2|Y ]]−( E [ E[ X|Y ]])2
=( 43 )2 ( 13 )+( 76 )2 ( 13 )+( 23 )2 ( 13 )−( 19
18
)2
13
=
162
Ahora calculamos la varianza condicional: V [X|Y]
V [ X|Y ]=E[ X 2|Y ]−( E [ X|Y ])2
V[ X|Y =0 ] =(0 )2 P[ X=0|Y =0]+(1)2 P [ X =1|Y =0 ]+(2)2 P[ X=2|Y =0 ]−( E[ X|Y =0])2
P[ X=0,Y =0 ] P [ X =1,Y =0] P[ X=2,Y =0] 4 2
=(0)2 +(1 )2 +(2)2 −( )
P[Y =0 ] P [Y =0 ] P[ Y =0] 3
1 1
9 6 4 5
=1 +4 1 −( )2=
3 9
3 3
V[ X|Y =1]=(0) P[ X=0|Y =1]+(1)2 P [ X =1|Y =1 ]+(2)2 P [ X =2|Y =1 ]−( E[ X|Y =1])2
2

P[ X=0 ,Y =1] P[ X =1,Y =1] P [ X =2,Y =1] 7 2


=(0 )2 +(1)2 +(2)2 −( )
P[Y =1] P[ Y =1] P [Y =1] 6
1 1
7 29
=18 +4 61 −( )2 = ¿
1 6 36
3 3
2 2 2 2
V [ X|Y =2]=(0) P [ X =0|Y =2 ]+(1) P[ X=1|Y =2 ]+(2) P[ X=2|Y =2]−( E [ X|Y =2])
P[ X=0 ,Y =2] P [ X =1,Y =2] P [ X =2,Y =2] 2 2
=(0)2 +(1)2 +(2 )2 −( )
P[Y =2 ] P [Y =2[ P [Y =2] 3
1 1
9 18 2 5
=1 +4 1 −( )2 =
3 9
3 3
Luego ,
5 29
V [ X|Y ]=¿ {
9
; Y=0 ¿ {36
; Y=1 ¿ ¿¿
¿

Por lo tanto
13 23 233
V [ X ]= + = =0. 719
162 36 324

11 19 2 233
V [ X ]=E [ X 2 ]−( E[ X ])2 = −( ) = =0 .719
6 18 324

5.-Suponga que X1 y X2 tienen densidad conjunta>


f (x1 ,x2 )=¿ {8 x1 x2 ; 0<x1<x2<1 ¿ ¿¿¿
a. Halle E [X1|X2]
b. Halle V[X1|X2]
c. Demuestre que E[X1] = E [ E [X1|X2] ]
Solución.-
a. Primero hallamos E[X1] y luego la esperanza de X1 condicionada a
X2
1 x2 1 y 8
E[ X 1 ]=∫0 ∫0 x1 f ( x 1 , x 2 )dx 1 dx 2 =∫0 ∫0 x 1 (8 x 1 x 2 )dx 1 dx 2 =
15
x2
f (x 2 )=∫0 8 x 1 x 2 dx 1=4 x 32
f ( x1 , x 2 ) 8 x 1 x 2 2 x 1
f (x 1|x 2 )= = 3 = 2
f ( x2 ) 4 x2 x2
x2 x
2 2 x1 2
E[ X 1|X 2 ]=∫0 x 1 f ( x 1|x 2 )dx 1 =∫0 x 1 ( )dx 1 = x 2
x2
2
3

b. La varianza condicional podemos hallar de dos formas:


Primera forma:
V[X1 | X2] = E [ X12 | X2] – ( E [X1|X2] )2
2
x x x1 x2
E[ X 21|X 2 ]=∫0 x 21 f ( x 1|x2 )dx 1 =∫0 x 21 (2 2 )dx 1 =
2 2

x2 2
por lo tanto,
x 22 2 x 2 2 x 22
V [ X 1|X 2 ]= −( )=
2 3 18

Segunda forma:

V [X1 | X2] = E [ ( X1 – E [X1 | X2] )2 | X2 ]


x2
V [ X 1|X 2 ]=∫0 ( x 1 −E[ X 1|X 2 ])2|X 2 ]
x
=∫02 ( x 1−32 x 2 )2 f ( x 1|x 2 )dx 1
x x1
2
=∫0 ( x 1 −3 x 2 )2 (2
2
2 )dx 1
x2
x 22
=
18
d. Demuestre que E[X1] = E [ E [X1|X2] ]
Sabemos que E [X1] = 8/15

2 12
E[ E[ X 1|X 2 ]]=E [ x 2 ]=∫0 3 x 2 f ( x2 )dx 2
3
12 8
=∫0 3 x 2 (4 x 32 )dx 2 = =E[ X 1 ]
15

También podría gustarte