CALCULO DE PROBABILIDADES II
UNIDAD I: VECTORES ALEATORIOS DISCRETOS Y
CONTINUOS
TEMA 3: VECTOR DE MEDIAS.MATRIZ DE VARIANZAS Y
COVARIANZAS. MATRIZ DE CORRELACIONES. MEDIAS Y VARIANZAS
CONDICIONALES.
CARACTERISTICAS DE UN VECTOR ALEATORIO
ESPERANZA MATEMATICA O VALOR ESPERADO: E [X]
Sea el vector X=[X1, X2, ……, Xp]t , la esperanza matemática de la variable Xi es:
E [ X i ]= ∑ x i f (x 1 , x 2 ,......., x p )= ∑ x i f ( xi )
∀( x1 ,x 2 ,...x p )∈ Df x ∀x ∈R
i xi
Para un vector de tipo discreto.
∞ ∞
E[ X i ]=∫−∞ ......∫−∞ x i f (x1 ,x 2 ,......,x p )dx 1 dx 2 .......dx p
o
∞
E[ X i ]=∫−∞ x i f (x i )dx i Para un vector de tipo continuo
E [Xi] = µi, i=1,2,…, p se denomina media teórica de la variable
aleatoria Xi
VECTOR DE MEDIAS: Es la esperanza matemática del vector X y se define como:
X1 E ( X1) μ1
:
Xp [ ][ ][ ]
E [ X ] =E X 2 = .
.
E( X p )
= . =μ
.
μp
Vector de medias
Es un vector, cuyos elementos son la esperanza matemática o media de
cada una de las p variables.
COVARIANZA ENTRE VARIABLES ALEATORIAS XI, XJ
Cov (Xi, Xj) o σij es la esperanza matemática de (Xi-E (Xi)) (Xj-E (Xj))
σij = Cov (Xi, Xj) = E [(Xi – E (Xi) (Xj – E(Xj))]
Si i = j σii = σi2 = V (Xi) varianza de Xi.
Se puede obtener:
Cov (Xi, Xj) = E (Xi Xj) – E (Xi) E (Xj)
MATRIZ DE VARIANZAS Y COVARIANZAS DE X
Sea Y=(X-µ)(X-µ)t una matriz,
E (x 1 −μ1 )( x1 −μ1 )t . . .. .. .. . .. .. E( x 1 −μ1 )(x p −μ p )t
⇒ E [ Y ] =E [ ( X−μ )( X−μ )t ]=
[ :
:
E ( x p−μ p )( x1 −μ1 ) . . .. .. . .. .. .. . E( x p −μ p )( x p −μ p )t
t ]
E[( x 1 −μ 1 )2 ] E[( x 1−μ1 )( x 2−μ 2 )]. .. .. . .. .. . .. .. .. . .. E[( x 1−μ 1 )( x p −μ p )]
E [Y ]=
[ E [( x 2 −μ2 )( x1 −μ1 )]
E [(x p −μ p )(x 1 −μ1 )]
E[( x 2−μ 2 )2 ]. . .. .. . .. .. . .. .. . E [( x2 −μ2 )( x p −μ p )]
:
E[( x p −μ p )( x 2−μ 2 ) ].. . .. .. . .. .. . .. .. E[( x p −μ p )2 ]
]
V ( X1 ) Cov( X 1 , X 2 ). .. . .. .. . .. .. . .. .. . Cov( X 1 , X p )
[
E [ Y ] = Cov ( X 2 , X 1 )
Cov ( X p , X 1 )
V ( X2)
:
Cov ( X p , X 2 )
Cov ( X 2 , X p )
V ( X p) ]
Se acostumbra a denotar por:
t t
Σ=( σ ij ) pxp=Cov( X , X )=E[( X −E( X ))( X −E( X )) ]
σ 11 σ 12 . . .. .. . σ1 p σ 21 σ 12 . . .. .. . σ1 p
[
Σ= σ 21
. ..
σp1
σ 22
.. . .
σp2
. . .. .. . σ2 p
. . .. .. . . . .. . ..
. . .. .. . .. σ pp
][
pxp
2
. .. .. . . . . .. .. . . .. .. . .
σ p 1 σ p2 . . .. .. . . σ 2p
]
= σ 21 σ 2 . . .. .. . . σ 2 p =(σ ij ) pxp
∑ es la covarianza entre un vector X px1 y su transpuesta. Esta matriz
es simétrica, donde los elementos de la diagonal son las varianzas de
cada una de las p variables y las demás componentes son las
covarianzas entre cada para de variables diferentes tomadas de dos en
dos de las p variables. Si p=4 tendríamos las combinaciones de 4 en 2,
igual a 6 covarianzas. Y se cumple que σij = σji por ser una matriz
simétrica.
MATRIZ DE CORRELACIONES
Es una matriz simétrica de orden p, con unos en la diagonal y los otros
elementos fuera de la diagonal representan las correlaciones entre cada par
de variables. Se denota por R.
1 ρ12 . . .. . ρ1 p
[
R=( ρij ) pxp = ρ21 1
.. . . . .. .
ρp1 ρp2
. . .. . ρ2 p
. . .. .. . .. ..
. . .. .. . 1
]
Como la matriz de correlaciones es simétrica se cumple que ρij = ρji para
todo i,j = 1,2,3,….,p donde cada uno de los elementos se cumple que:
−1≤ρij ≤1
Valor esperado de una función de variables aleatorias.-
1. Sea g(x1,x2,….,xp) una función de las variables aleatorias discretas
X1, X2, …..Xp. cuya función de probabilidad es p(x1,x2, …..,xp).
Entonces, el valor esperado de g(x1,x2,…,xp) es:
E[ g ( x1 ,x 2 , .. . ., x p )]=∑ . . .. ... .. ∑ ∑ g( x 1 , x2 . ,. ...x p ) p ( x1 , x 2 , .. ., x p )
x x x1
p 2
2. Si c es una constante, entonces E[c] = c
3. Si g(x1,x2), es una función de las variables aleatorias X 1 y X2, y c es
una constante, entonces
E[c g(x1, x2)] = c E [g(x1, x2)]
4. Si X1 y X2 son variables aleatorias y g1(x1 , x2), g2(x1, x2),….gk(x1,x2),
son funciones de X1 y X2, entonces:
E[g1(x1, x2)] + g2(x1,x2) + ….+gk(x1, x2)] = E[g1(x1,x2)] + E[g2(x1, x2) +
………+ E[gk(x1, x2)]
5. Si X1 y X2 son variables aleatorias independientes y g(x1) y h(x2) solo
son funciones de X1 y X2 respectivamente, entonces:
E [g(x1) h(x2)] = E [g (x1)]. E [h (x2)]
Siempre y cuando existan los valores esperados.
6. Si X1 y X2 son variables aleatorias con valores esperados µ1 y µ2,
respectivamente, la covarianza de X1 y X2 está dada por:
Cov (X1, X2) = E [(X1- µ1) (X2- µ2)], cuanto mayor es la covarianza
en valor absoluto mayor será la dependencia lineal entre X1 y X2, si
Cov (X1, X2) < 0, X1 disminuye a medida que X2 aumente y si Cov
(X1, X2) > 0, X1 aumenta a medida que X2 aumenta.
El valor de la covarianza depende de la escala de medidas, este
problema se elimina si estandarizamos este valor, obteniéndose un
valor sin unidad de medida llamado coeficiente de correlación lineal
entre las variables X1 y X2, así:
Cov ( X 1 , X 2 )
=ρ ; -1≤ρ≤1
σ1 σ 2
El coeficiente de correlación sirve para determinar el grado de
dependencia entre dos variables.
7. Si X1 y X2 son variables aleatorias con valor esperados µ 1 y µ2,
respectivamente, entonces:
Cov (X1, X2) = E [(X1- µ1)(X2- µ2)] = E (X1 X2) – E (X1) E (X2)
8. Si X1 y X2 son variables aleatorias independientes, entonces:
Cov (X1, X2) = 0. El reciproco no es verdadero.
9. Sean X1, X2, ……., Xn y Y1, Y2,…..,Ym, variables aleatorias con
E[Xi] = µi y E[Yj] = αj. Definamos ahora,
n m
U 1 =∑ ai x i y U2 =∑ b j y j (combinaciones lineales )
i=1 j=1
para las constantes a 1 , a2 , .. .. . , an y b1 , b2 ,. .. . ., b m . Asi ,las siguientes proposiciones se cumplen:
n
a ) E[U i ]=∑ ai μ i
i=1
n
b ) V[U i ]=∑ a2i V ( X i )+2 ∑ ai a j Cov( X i , X j ), donde la doble suma esta dada para todos
i=1 i< j
los pares (i,j) con i< j.
c ) Cov (U 1 , U 2 )=∑∑ ai b j Cov( X i ,Y j )
10.Teorema del valor esperado global.
Si X1 y X2 son variables aleatorias:
E [ E [X1|X2] ] = E [X1]
11.Sean X1 y X2 dos variables aleatorias, entonces:
E [ E (X1|X2)|X2] = E [X1|X2]
12.Varianza Condicional
Si X1 y X2 son dos variables aleatorias, entonces:
V[X1|X2 = x2] = E [(X1 - E(X1|X2 = x2)2 | X2 = x2 ]
= E [ X12 | X2 =x2] – ( E [X1|X2 = x2] )2
V [X1|X2] = E [(X1 – E(X1|X2) )2 | X2] = E [ X12 | X2 ] – ( E[X1|X2] )2
13.Para dos variables aleatorias X1 y X2:
V [X1] = V [E [X1|X2] ] + E [ V [X1|X2] ]
14.Para cualquier par de variables X1 y X2
V [X1 ± X2] = V [X1] + V [X2] ± 2 Cov (X1, X2)
Para p variables aleatorias
p p
V [ ∑ X i ]=∑ V [ X i ]+2 ∑ Cov( X i , X j )
i=1 i=1 i; j
Si X1 y X2 son independientes:
V [X1 ± X2] = V[X1] + V[X2]
15. Desigualdad de Cauchy Schwartz)
Sean X1 y X2 variables aleatorias arbitrarias, cada una de ellas con
varianza finita y no nula, entonces:
|Cov(X1, X2)| < ( V(X1) V(X2) ) ½
16.Sean X, Y, Z variables aleatorias. Sea A un suceso, a, b y z números
reales y W= a X + b Y, entonces:
a) E [W|A] = a E [X|A] + b E [Y|A]
b) E [W|Z = z] = a E [X|Z = z] + b E [Y| Z = z]
c) E [W|Z ] = a E [X|Z] + b E [Y|Z]
Clases de Coeficientes de Correlación.-
a) Coeficiente de correlación simple:
Sea X = (X1, X2, ….., Xp)t, un vector aleatorio y Xi , Xj, dos variables
cualesquiera del vector X, entonces el coeficiente de correlación simple
de estas dos variables lo denotamos por ρ ij y lo definimos como el
cociente entre la covarianza de estas variables y la raíz cuadrada del
producto de sus respectivas varianzas.
Cov ( X i , X j ) σ ij
ρij = 1 = 1
[V ( X i ) .V ( X j )] 2
[ σ ii σ jj ] 2
b) Coeficiente de correlación parcial.
Sea X = (Xi1, ….., Xir, Xj1,…..,Xjs)t = (Xi, Xj )t , un vector aleatorio y
Xi y Xj, subvectores de X; entonces la correlación parcial se da en
dos variables de un subvector, por decir X ik y Xil, condicionados a Xj
= xj, lo denotamos por:
ρi i . j
k l 1 j2 . .. . . j s y la definimos como el cociente entre la
covarianza de las variables Xik y Xil condicionados a Xj = xj y la raíz
cuadrada del producto de sus respectivas varianzas condicionales.
ρ Cov( X ik , X il |X j =x j )
ik i l . j1 . .. . .. . . j s = 1
j j j j 2
[ V ( X i |X = x ) .V ( X i |X =x ) ]
k l
c) Coeficiente de correlación múltiple.
Sea X = (Xi, X°)t un vector aleatorio donde Xi es una variable
cualquiera y X° es un subvector de las restantes variables. Si βX° es
una combinación lineal de las variables del vector X°, entonces el
coeficiente de correlación múltiple de Xi y βX° lo denotamos por
ρi.12….i-1, i +1, ….n y lo definimos como el cociente entre la covarianza de
Xi y βX° y la raíz cuadrada del producto de sus respectivas varianzas.
ρ Cov( X i , βX 0 )
i . 12 .. . .. . i−1 ,i+1, . .. . . n= 1
0 2
[V ( X i ). V ( βX )]
El coeficiente de correlación múltiple determina el grado de
dependencia entre una variable aleatoria y una combinación lineal de
otras variables.
VECTOR DE MEDIAS Y MATRIZ DE COVARIANZAS
MUESTRALES
Sean los vectores X1, X2, …..,Xp una muestra aleatoria de una
distribución multivariante, entonces definimos y denotamos al vector
de medias muestrales como:
n
xi
X̄ =∑
i=1 n
Y a la matriz de covarianzas:
1
S= ∑ ( X i − X̄ )( X i − X̄ )t
n
Matriz de Correlaciones
1 ρ12 .. . .. .. ρ1 p
[
ρ= ρ21 1
.. .. . . .. .. .
ρp1 ρp2
] 1
.. . .. .. . ρ2 p =D− 2 D− 2
.. . .. .. . . .... . .
.. . .. .. . 1
∑
1
Donde ∑: matriz de covarianzas
D: matriz diagonal
σ 11 0 .. .. . . 0
D= 0
[ σ 22
. . .. .. . . .. .
0 0
.. .. . ..
.. .. . .. . 0
0
.. .. . .. .. σ pp
VECTOR DE MEDIAS Y MATRIZ DE COVARIANZAS
]
PARTICIONADAS
X1 μ1
[] []
X2 μ2
. . .. .. .. .
X = Xk μ= μ k ∑ = ∑ 11 ∑ 12
[ ]
. . .. . .. .. . ∑ 21 ∑ 22
X k +1 μ k +1
. . .. .. . .. .. . .
Xp μp
X1 X k +1
∑ 12=∑ 21 si ∑ 12=0 X
[] []
⇒ 2
.. . ..
Xk
y
X k +2
. . .. ..
Xp
son independientes
Propiedades. Si X es vector aleatorio de orden px1
a. E [cX] = c E [X] donde c es una constante
2
b. V [cX] = c ∑x
c. E [atX] = at E[X]
d. V [Ct X] = Ct ∑x C
e. E [AX] = A E [X]; ∑AX = A∑x At
f. E ||X||2 = ||µ||2 + tr ∑x
g. Si Arxp y Bsxp matrices reales y sean las variables
transformadas Y = AX y Z = BX, entonces
h. Cov (Y) = A ∑x At
Cov (Z) = B ∑x Bt
Cov (YZ) = A∑x Bt
i. Si X y Y son vectores aleatorios y L px1 y Mpx1 vectores de
números reales, entonces:
V(LtX) = Lt ∑xL
V(MtY) = Mt∑yM
Cov(LtX,MtY) = Lt Cov(X,Y) M
EJEMPLOS Y EJERCICIOS RESUELTOS
1. Supongamos que la densidad conjunta de X1 y X2 está
distribuida por:
f (x1 ,x2 )=¿ {2 x1 , 0≤x1≤1, 0≤x2≤1 ¿ ¿¿¿
Calcule: E [X1], E [X2], E [X1, X2], V [X1], V [X2], Cov
[X1,X2]
Solución:
1 1 2 x 31 1
1 1
E[ X 1 ]=∫0 ∫0 x 1 (2 x 1 )dx 1 dx 2 =∫0 [ ]0 dx 2 =∫0 23 dx 2 =23 x 2|10 =23
3
1 1 1 1 x2 1
E[ X 2 ]=∫0 ∫0 x 2 (2 x 1 )dx 1 dx 2 =∫0 x 2 [ x 21 ]10 dx 2 =∫0 x 2 dx 2 = 2 |10 =
2 2
2 2
V [ X 1 ]=E [ X 1 ]−( E[ X 1 ])
2 1 1 2 1 1 3 1 1 4 1 1
E[ X 1 ]=∫0 ∫0 x 1 (2 x 1 )dx 1 dx 2 =∫0 ∫0 2 x 1 dx 1 dx 2 =∫0 [ x0 ]0 dx 2 =
2 2
1 2 1
V [ X 1 ]= −( )2 =
2 3 18
3
1 1 1 2 x1 1 1 2 1
E[ X 1 X 2 ]=∫0 ∫0 x 1 x 2 (2 x 1 )dx 1 dx 2 =∫0 x 2 [ ] 0 dx 2 =∫0 ( )x 2 dx 2 =
3 3 3
1 21
Cov [ X 1 , X 2 ]=E [ X 1 X 2 ]−E [ X 1 ] E [ X 2 ]= − =0
3 32
2. Sean X1 y X2 variables aleatorias discretas con la distribución
de probabilidad conjunta dada en la tabla siguiente. Demuestre
que X1 y X2 son dependientes, pero con covarianza cero.
X1
X2 -1 0 1 px2)
1/1
-1 1/16 3/16 5/16
6
3/1
0 3/16 0 6/16
6
1/1
1 1/16 3/16 5/16
6
5/1
p(x1) 5/16 6/16 1
6
Es suficiente comprobar con un solo caso:
p(-1,-1) = p(-1) p(-1)
(1/16) es diferente de (5/16) (5/16)
Por lo tanto X1 y X2 son dependientes, sin embrago su
covarianza es cero.
Cov(X1, X2) = E(X1 X2) – E(X1) E(X2) = 0 – 0. 0 = 0
E(X1 X2 ) = ∑∑ x1x2 p(x1, x2)
E(X1,X2) = (-1)(-1) (1/16) + (-1)(0)(3/16) + (-1)(1)(1/16) + (0)
(-1)(1/16) + (0)(0)(0) + (0)(1)(1/16) + (1)(1)(1/16) + (1)(0)
(3/16) + (1)(1) (1/16) = 0
E(X1) = (-1) (5/16) + (0) (6/16) + (1) (5/16) = 0
E(X2) = (-1) (5/16) + (0) (6/16) + (1) (5/16) = 0
Esto indica que si la covarianza de dos variables es cero, las
variables no necesariamente son independientes.
3. Sean X1, X2, X3, variables aleatorias donde:
E [X1] = 1 E [X2] = 2 E [X3] = -1
V [X1] = 1 V [X2] = 3 V [X3] = 5
Cov[X1, X2] = -0.4 Cov[X1, X3] = ½ Cov[X2, X3] = 2
Calcule el valor esperado y la varianza de U = X1 -2X2 + X3
Si W = 3X1 + X2, encuentre Cov (U, W)
Solución.-
Vemos que los coeficientes a1 = 1, a2 = -2 y a3 = 1
Luego,
V [U] = (1)2 (1) + (-2)2 (3) + (1)2 (5) +2 [(1) (-2)(-0.4) +(1) (1)
(1/2) +(-2) (1) (2) ] = 12.6
En W vemos que los coeficientes son b1 = 3 b2 = 1
Luego,
Cov (U, W) = a1 b1 Cov(X1,X1) + a1 b2 Cov(X1,X2) + a2 b1
Cov(X2,X1) + a2 b2 Cov(X2,X2) +a3 b1 Cov(X3, X1) + a3 b2
Cov(X3,X2)
Cov (U, W) = (1) (3) (1) + (1) (1) (-0.4) + (-2) (3) (-0.4) + (-2)
(1) (3) + (1) (3) (1/2) + (1) (1) (2) = 2.5
Como la covarianza es diferente de cero indica que U y W son
independientes.
4. Para la función de probabilidad conjunta de X y Y dada en la
siguiente tabla demuestre que:
a. E[X] = E [E [X|Y] ]
b. V[X] = V [ E[X|Y]] + E [V[X|Y]
11111111
{{{{{{{{
pX,Y(x,y)=¿18 x=0,y ¿9 x=0,y1¿6 x=0,y2¿9 x=1,y0¿18 x=1,y ¿9 x=1,y2¿6 x=2,y0¿6 x=2,y1¿
Solución.-
a. Hallamos la E [X]
6 5 7 19
E[ X ]=∑ xi p( xi)=0 p (0)+1 p(1)+2 p(2)=0( 18 )+1( 18 )+2( 18 )= 18
Vemos que P[Y=0] = 6/18 P[Y=1] = 6/18 P[Y=2] = 6/18
E[ X|Y =0 ]=∑ xP[ X =x|Y =0 ]=0 P[ X =0|Y =0 ]+1 P[ X=1|Y =0 ]+2 P [ X =2|Y =0 ]
P [ X =0,Y=0 ] P [ X =1 ,Y =0 ] P[ X=2 , Y =0 ]
=0 +1 +2
P [Y =0 ] P [Y =0 ] P[ Y =0 ]
1 1 1
18 9 6 4
= 06 +1 6 +2 6 =
3
18 18 18
E[ X|Y =1 ]=∑ xP[ X=x|Y =1 ]=0 P [ X =0|Y =1 ]+1 P[ X=1|Y =1 ]+2 P[ X=2|Y =1 ]
P[ X=0,Y=1] P [ X =1, Y =1] P [ X =2 ,Y =1]
=0 +1 +2
P[Y =1 ] P [Y =1 ] P [Y =1 ]
1 1 1
9 18 6 7
=0 6 +1 6 + 26 =
6
18 18 18
E[ X|Y =2 ]=∑ xP[ X=x|Y =2 ]=0 P [ X =0|Y =2 ]+1 P[ X=1|Y =2 ]+2 P[ X=2|Y =2]
P[ X=0,Y=2] P [ X =1 ,Y =2 ] P [ X =2 ,Y =2 ]
=0 +1 +2
P[Y =2 ] P [Y =2] P [Y =2]
1 1 1
2
=0 66 +1 69 + 2 18
6
=
3
18 18 18
Luego,
4 7
{ {
E[ X|Y ]=¿ 3 ; Y=0¿ 6 ; Y=1¿ ¿¿¿
4 6 7 6 2 6 19
E[ E[ X|Y ]]= ∗ + ∗ + ∗ = =E[ X ]
3 18 6 18 3 18 18
b. Demostrar que V[X] = V[E[X|Y]]+E[V[X|Y]]
De la distribución de la esperanza condicional podemos calcular la
varianza de X.
V [ E [ X|Y ]]=E[ E [ X 2|Y ]]−( E [ E[ X|Y ]])2
=( 43 )2 ( 13 )+( 76 )2 ( 13 )+( 23 )2 ( 13 )−( 19
18
)2
13
=
162
Ahora calculamos la varianza condicional: V [X|Y]
V [ X|Y ]=E[ X 2|Y ]−( E [ X|Y ])2
V[ X|Y =0 ] =(0 )2 P[ X=0|Y =0]+(1)2 P [ X =1|Y =0 ]+(2)2 P[ X=2|Y =0 ]−( E[ X|Y =0])2
P[ X=0,Y =0 ] P [ X =1,Y =0] P[ X=2,Y =0] 4 2
=(0)2 +(1 )2 +(2)2 −( )
P[Y =0 ] P [Y =0 ] P[ Y =0] 3
1 1
9 6 4 5
=1 +4 1 −( )2=
3 9
3 3
V[ X|Y =1]=(0) P[ X=0|Y =1]+(1)2 P [ X =1|Y =1 ]+(2)2 P [ X =2|Y =1 ]−( E[ X|Y =1])2
2
P[ X=0 ,Y =1] P[ X =1,Y =1] P [ X =2,Y =1] 7 2
=(0 )2 +(1)2 +(2)2 −( )
P[Y =1] P[ Y =1] P [Y =1] 6
1 1
7 29
=18 +4 61 −( )2 = ¿
1 6 36
3 3
2 2 2 2
V [ X|Y =2]=(0) P [ X =0|Y =2 ]+(1) P[ X=1|Y =2 ]+(2) P[ X=2|Y =2]−( E [ X|Y =2])
P[ X=0 ,Y =2] P [ X =1,Y =2] P [ X =2,Y =2] 2 2
=(0)2 +(1)2 +(2 )2 −( )
P[Y =2 ] P [Y =2[ P [Y =2] 3
1 1
9 18 2 5
=1 +4 1 −( )2 =
3 9
3 3
Luego ,
5 29
V [ X|Y ]=¿ {
9
; Y=0 ¿ {36
; Y=1 ¿ ¿¿
¿
Por lo tanto
13 23 233
V [ X ]= + = =0. 719
162 36 324
11 19 2 233
V [ X ]=E [ X 2 ]−( E[ X ])2 = −( ) = =0 .719
6 18 324
5.-Suponga que X1 y X2 tienen densidad conjunta>
f (x1 ,x2 )=¿ {8 x1 x2 ; 0<x1<x2<1 ¿ ¿¿¿
a. Halle E [X1|X2]
b. Halle V[X1|X2]
c. Demuestre que E[X1] = E [ E [X1|X2] ]
Solución.-
a. Primero hallamos E[X1] y luego la esperanza de X1 condicionada a
X2
1 x2 1 y 8
E[ X 1 ]=∫0 ∫0 x1 f ( x 1 , x 2 )dx 1 dx 2 =∫0 ∫0 x 1 (8 x 1 x 2 )dx 1 dx 2 =
15
x2
f (x 2 )=∫0 8 x 1 x 2 dx 1=4 x 32
f ( x1 , x 2 ) 8 x 1 x 2 2 x 1
f (x 1|x 2 )= = 3 = 2
f ( x2 ) 4 x2 x2
x2 x
2 2 x1 2
E[ X 1|X 2 ]=∫0 x 1 f ( x 1|x 2 )dx 1 =∫0 x 1 ( )dx 1 = x 2
x2
2
3
b. La varianza condicional podemos hallar de dos formas:
Primera forma:
V[X1 | X2] = E [ X12 | X2] – ( E [X1|X2] )2
2
x x x1 x2
E[ X 21|X 2 ]=∫0 x 21 f ( x 1|x2 )dx 1 =∫0 x 21 (2 2 )dx 1 =
2 2
x2 2
por lo tanto,
x 22 2 x 2 2 x 22
V [ X 1|X 2 ]= −( )=
2 3 18
Segunda forma:
V [X1 | X2] = E [ ( X1 – E [X1 | X2] )2 | X2 ]
x2
V [ X 1|X 2 ]=∫0 ( x 1 −E[ X 1|X 2 ])2|X 2 ]
x
=∫02 ( x 1−32 x 2 )2 f ( x 1|x 2 )dx 1
x x1
2
=∫0 ( x 1 −3 x 2 )2 (2
2
2 )dx 1
x2
x 22
=
18
d. Demuestre que E[X1] = E [ E [X1|X2] ]
Sabemos que E [X1] = 8/15
2 12
E[ E[ X 1|X 2 ]]=E [ x 2 ]=∫0 3 x 2 f ( x2 )dx 2
3
12 8
=∫0 3 x 2 (4 x 32 )dx 2 = =E[ X 1 ]
15