Está en la página 1de 16

Probabilidad II

Vectores aleatorios
Unidad 1

Distribuciones de probabilidad conjunta.

JAG
1.1 Distribuciones de probabilidad conjunta.

1. Función de probabilidad y densidad conjunta (casos: discreto y continuo).


Resolver los problemas 448 y 449 incisos a) de las páginas 302-303.
448.- Sean X y Y dos variables aleatorias discretas con función de probabilidad
conjunta dada por la siguiente tabla.

Encuentre:
a) 𝑃(𝑋 > 0, 𝑌 ≥ 1
𝑃(𝑋 > 0, 𝑌 ≥) = 𝑃(𝑋 = 1, 𝑌 = 1) + 𝑃(𝑋 = 1, 𝑌 = 2)+
+𝑃(𝑋 = 2, 𝑌 = 1) + 𝑃 (𝑋 = 2, 𝑌 = 2)
6 4 5 15 1
=0+ + + = =
30 30 30 30 2
𝟏
𝑷(𝑿 > 𝟎, 𝒀 ≥ 𝟏) =
𝟐

449.- Sean X y Y dos variables aleatorias continuas con función de densidad


conjunta dada por la siguiente expresión y cuya grafica se muestra en
la Figura 4.8

2
𝑓 (𝑥, 𝑦) = {6𝑥 𝑦 𝑠𝑖 0 ≤ 𝑥, 𝑦 ≤ 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Encuentre:
1 1
a) 𝑃(𝑋 ≤ 2 , 𝑌 ≥ 2)

Página 2 de 16
Si f8x,y es una función de probabilidad debe cumplir:
1 1
∫ ∫ 6𝑥 2 𝑦𝑑𝑥𝑑𝑦 =
0 0

Entonces:
1
1
1 1 2
𝑃 (𝑋 ≤ , 𝑌 ≥ ) = ∫ ∫ 6𝑥 2 𝑦𝑑𝑥𝑑𝑦 =
2 2 0 1/2

1
2
1
2
7𝑦 7 2 1/2
1
7
∫ ∫ 6𝑥 𝑦𝑑𝑥𝑑𝑦 = ∫ 𝑑𝑦 = 𝑦 | =
0 1/2 1/2 4 8 0 32

𝟏 𝟏
𝐏 (𝐗 ≤ , 𝐘 ≥ ) = 𝟕/𝟑𝟐
𝟐 𝟐

2. Función de distribución conjunta.


Resolver los problemas 461 incisos b)
461. Sea (𝑋, 𝑌) un vector aleatorio discreto con función de probabilidad
como indica la tabla de abajo. Encuentre y grafique la correspondiente
función de distribución.

0 𝑠𝑖 𝑥 < 1, 𝑦 < 1
1
𝑠𝑖 𝑥 < 1, 1 ≤ 𝑦 < 2
4
1
𝑠𝑖 𝑥 < 1, 2 ≤ 𝑦 < 3
4
0 𝑠𝑖 𝑥 < 1, 𝑦 ≥ 3
𝐹 (𝑥, 𝑦) =
1
𝑠𝑖 𝑥 ≥ 1, 𝑦 < 1
4
0 𝑠𝑖 𝑥 ≥ 1,1 ≤ 𝑦 < 2
0 𝑠𝑖𝑥 ≥ 1,2 ≤ 𝑦 < 3
1
{4 𝑠𝑖 𝑥 ≥ 1, 𝑦 ≥ 3

Página 3 de 16
3. Función de probabilidad y densidad marginal.
1.- Resolver el problema 468 incisos a)
468.- Sea (𝑋, 𝑌) un vector aleatorio con función de probabilidad como aparece
abajo. En cada caso encuentre las funciones de probabilidad marginales 𝑓𝑋 (𝑥 ) y
𝑓𝑌 (𝑦)

Sea la función de probabilidad:


1
𝑠𝑖 𝑥 < 1, 𝑦 < 1
16
5
𝑠𝑖 𝑥 < 1, 𝑦 ≥ 1
𝐹 (𝑥, 𝑦) = 16
4
𝑠𝑖 𝑥 ≥ 1, 𝑦 < 1
16
6
{16 𝑠𝑖 𝑥 ≥ 1, 𝑦 ≥ 1

Sea la función de densidad marginal:


1 5 6
𝑓𝑋 (𝑥 = 0) = + =
16 16 16
4 6 10
𝑓𝑋 (𝑥 = 1) = + =
16 16 16
1 4 5
𝑓𝑌 (𝑦 = 0) = + =
16 16 16
5 6 11
𝑓𝑌 (𝑦 = 1) = + =
16 16 16

Página 4 de 16
4. Función de distribución marginal.
1.- Resolver los problemas 471 de la página 321.

471.-Sean X y Y dos variables aleatorias discretas con función de probabilidad


conjunta dada por la tabla que aparece abajo. Encuentre la
función de distribución conjunta 𝑓𝑋𝑌 (𝑥, 𝑦) y a partir de ella encuentre
las funciones de distribución marginales 𝑓𝑋 (𝑥 ) 𝑓𝑌 (𝑦)

Sea:

𝑓𝑌 (𝑦) = lim 𝐹 (𝑥, 𝑦) 𝑓𝑋 (𝑥 ) = lim 𝐹 (𝑥, 𝑦)


𝑥→∞ 𝑦→∞

Según la tabla
1
Para 𝑥 < 1, 𝑦 < 1 𝑓𝑋 (𝑥 ) = lim 𝐹 (𝑥, 𝑦) = 8
𝑦→∞
3
Para 𝑥 < 1, 𝑦 ≥ 1 𝑓𝑋 (𝑥 ) = lim 𝐹 (𝑥, 𝑦) = 8
𝑦→∞
3
Para 𝑥 ≥ 1, 𝑦 < 1 𝑓𝑌 (𝑦) = lim 𝐹 (𝑥, 𝑦) = 8
𝑥→∞

Para 𝑥 ≥ 1, 𝑦 ≥ 1 𝑓𝑌 (𝑦) = lim 𝐹 (𝑥, 𝑦) = 1


𝑥→∞

1
𝑠𝑖 𝑥 < 1, 𝑦 < 1
8
3
𝑠𝑖 𝑥 < 1, 𝑦 ≥ 1
𝐹 (𝑥, 𝑦) = 8
3
𝑠𝑖 𝑥 ≥ 1, 𝑦 < 1
8
{ 1 𝑠𝑖 𝑥 ≥ 1, 𝑦 ≥ 1

5. Función y Distribución condicional.


Resolver los problemas 483, a) de las páginas 332-333.
483. Sea (𝑋, 𝑌)un vector aleatorio discreto con función de probabilidad
dada por la siguiente tabla.

Página 5 de 16
Calcular 𝐹𝑋|𝑌 (𝑥|0)
Sea la formula para calcular la distribución condicional:
𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑋|𝑌 (𝑥 |𝑦) =
𝑓𝑌 (𝑦)
Tenemos que: 𝑓𝑌 (𝑦) para 𝑦 = 0 tenemos sumando las probabilidades de y=0:
𝑓𝑌 (𝑦) = 0.2
Para 𝑥 = 0
𝑓𝑋𝑌 (𝑥, 1) 0.1
𝑓𝑋|𝑌 (𝑥|1) = = = 0.5
𝑓𝑌 (1) 0.2

Para 𝑥 = 1
𝑓𝑋𝑌 (𝑥, 1) 0.05
𝑓𝑋|𝑌 (𝑥|1) = = = 0.25
𝑓𝑌 (1) 0.2
Para 𝑥 = 2
𝑓𝑋𝑌 (𝑥, 1) 0.05
𝑓𝑋|𝑌 (𝑥|1) = = = 0.25
𝑓𝑌 (1) 0.2
En otro caso
𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑋|𝑌 (𝑥 |𝑦) = =0
𝑓𝑌 (𝑦)

6. Generalización de independencia de variables aleatorias.


Resolver los problemas 476, de las páginas 324-325.
El siguiente ejemplo muestra que la condición 𝑉𝑎𝑟(𝑋, 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) no es
suficiente para concluir que X y Y son independientes. Sea (𝑋, 𝑌) un vector
aleatorio discreto con función de probabilidad dada por la tabla que aparece

Página 6 de 16
abajo. Compruebe que se cumple la igualdad 𝑉𝑎𝑟(𝑋, 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)y que,
sin embargo, X y Y no son independientes.

Calculemos las esperanzas de X, Y, sea:

𝐸[𝑋] = ∑ 𝑥𝑖 ∙ 𝑃𝑥𝑖

1 1
𝑃𝑎𝑟𝑎 𝑥 = −1 𝐸𝑥 = (−1) ( ) + 0 ∙ 0 + 1 ( ) = 0
8 8
1
𝑃𝑎𝑟𝑎 𝑥 = 0 𝐸𝑥 = (−1) ( ) + 0 ∙ 1/2 + 12 ∙ 0 = 0
8
1 1
𝑃𝑎𝑟𝑎 𝑥 = 1 𝐸𝑥 = (−1) ( ) + 0 ∙ 0 + 1 ( ) = 0
8 8
Por tanto:

𝐸 [𝑋 2 ] = ∑(𝑥 2 ) ∙ 𝑃2 = 0

De igual modo para 𝐸[𝑌]:

𝐸 [𝑌] = ∑ 𝑦 2 ∙ 𝑃𝑦

1 1
𝑃𝑎𝑟𝑎 𝑦 = −1 𝐸𝑦 = (−1)2 ( ) + 0 ∙ 0 + 1 ( ) = 0
8 8
1
𝑃𝑎𝑟𝑎 𝑦 = 0 𝐸𝑦 = (−1) ( ) + 0 ∙ 1/2 + 1 ∙ 0 = 0
8
1 1
𝑃𝑎𝑟𝑎 𝑦 = 1 𝐸𝑦 = (−1) ( ) + 0 ∙ 0 + 1 ( ) = 0
8 8
Por tanto:

𝐸 [𝑌] = ∑ 𝑦 2 ∙ 𝑃𝑦 = 0

Para:

𝐸 [𝑋 2 ] = ∑(𝑥 2 ) ∙ 𝑃2

1 1
𝑃𝑎𝑟𝑎 𝑥 = −1 𝐸𝑥2 = (−1)2 ( ) + 0 ∙ 0 + 12 ( ) = 1/4
8 8

Página 7 de 16
1
𝑃𝑎𝑟𝑎 𝑥 = 0 𝐸𝑥2 = (−1)2 ( ) + 0 ∙ 1/2 + 12 ∙ 0 = 0
8
1 1
𝑃𝑎𝑟𝑎 𝑥 = 1 𝐸𝑥2 = (1)2 ( ) + 0 ∙ 0 + (−1)2 ( ) = 1/4
8 8
Por tanto:
1 1 1
𝐸𝑥2 = ∑ 𝑥 2 ∙ 𝑃𝑥 = + =
4 4 2
También:
1 1
𝑃𝑎𝑟𝑎 𝑦 = −1 𝐸𝑦2 = (−1)2 ( ) + 0 ∙ 0 + 12 ( ) = 1/4
8 8
1
𝑃𝑎𝑟𝑎 𝑦 = 0 𝐸𝑦2 = (−1)2 ( ) + 0 ∙ 1/2 + 12 ∙ 0 = 0
8
1 1
𝑃𝑎𝑟𝑎 𝑦 = 1 𝐸𝑦 2 = (1)2 ( ) + 0 ∙ 0 + (−1)2 ( ) = 1/4
8 8
Por tanto:
1 1 1
𝐸𝑦2 = ∑ 𝑦 2 ∙ 𝑃𝑦 = + =
4 4 2
Nos queda que:
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑥 2 ) + (𝐸(𝑥))2
𝑉𝑎𝑟(𝑋) = 1/2 + 0
1
𝑉𝑎𝑟(𝑋) =
2
Y para y:
𝑉𝑎𝑟(𝑌) = 𝐸(𝑦 2 ) + (𝐸(𝑦))2
1
𝑉𝑎𝑟(𝑌) = +0
2
1
𝑉𝑎𝑟(𝑌) =
2
Entonces:
𝑉𝑎𝑟(𝑥, 𝑦) = 𝑉𝑎𝑟 (𝑥) + 𝑉𝑎𝑟 (𝑦)
1 1
𝑉𝑎𝑟(𝑥, 𝑦) = + =1
2 2

Tenemos que la probabilidad marginal es:


2
𝑓 (𝑥 ) = 𝑝𝑎𝑟𝑎 𝑥 = −1
8
1
𝑓 (𝑥 ) = 𝑝𝑎𝑟𝑎 𝑥 = 0
2

Página 8 de 16
1
𝑓 (𝑥 ) = 𝑝𝑎𝑟𝑎 𝑥 = 1
2
2
𝑓 (𝑦) = 𝑝𝑎𝑟𝑎 𝑦 = −1
8
1
𝑓 (𝑦) = 𝑝𝑎𝑟𝑎 𝑦 = 0
2
2
𝑓 (𝑦) = 𝑝𝑎𝑟𝑎 𝑦 = 1
8
Entonces si no se cumple para alguna x no son independientes:
𝐹 (𝑥 = 0, 𝑦 = 0) = 𝐹𝑋 (0)𝐹𝑌 (0)
1/2 = (1/2)(1/2)
1/2 ≠ 1/4

Por lo tanto x,y no son independientes

1.2 Momentos.

Esperanza, Varianza (matriz) y Covarianza de un vector aleatorio.


1.- Resolver los problemas 496 incisos a) y e) la página 339.

a) Encontrar la covarianza de la distribución conjunta en la tabla:

Se observa que una matriz simétrica y que x,y son independientes por lo que lo
demostraremos.
Para todas la x,y se debe cumplir:
𝐹 (𝑥, 𝑦) = 𝐹𝑋 (x)𝐹𝑌 (y)
𝐹 (𝑥 = 0, 𝑦 = 0) = 𝐹𝑋 (0)𝐹𝑌 (0)
1 2 2 1
= ( )( ) =
4 4 4 4

Página 9 de 16
𝐹 (𝑥 = 0, 𝑦 = 1) = 𝐹𝑋 (0)𝐹𝑌 (0)
1 2 2 1
= ( )( ) =
4 4 4 4
𝐹 (𝑥 = 1, 𝑦 = 0) = 𝐹𝑋 (1)𝐹𝑌 (0)
1 2 2 1
= ( )( ) =
4 4 4 4
𝐹 (𝑥 = 1, 𝑦 = 1) = 𝐹𝑋 (1)𝐹𝑌 (1)
1 2 2 1
= ( )( ) =
4 4 4 4
Por lo tanto x,y son independientes y su covarianza es:
𝐶𝑜𝑣(𝑋, 𝑌) = 0
e) Calcular la covarianza de la siguiente distribución conjunta:
2𝑒 −𝑥−𝑦 𝑠𝑖 0 < 𝑥 < 𝑦
𝑓 (𝑥, 𝑦) = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Sabemos que:
Cov(X, Y) = E(XY) − E(X)E(Y)

para y = 0 E(X) = ∫ 2𝑒 −𝑥 𝑑𝑥 = −2𝑒 −𝑥 |∞
0 = 0 − (−2) = 2
0

para x = 0 E(Y) = ∫ 2𝑒 −𝑦 𝑑𝑦 = −2𝑒 −𝑦 |∞
0 = 0 − (−2) = 2
0
∞ ∞
E(XY) = ∫ ∫ 2𝑒 −𝑥−𝑦 𝑑𝑥𝑑𝑦 = 1
0 𝑦

Cov(X, Y) = 1 − 4 = −3

Coeficiente de correlación.

Resolver el problema 500 de la página 342.


500. Calcule el coeficiente de correlación entre X y Y cuando estas variables
tienen distribución conjunta como se indica en cada inciso.
a) esta dada por la siguiente tabla.

Página 10 de 16
Se observa que una matriz simétrica y que x,y son independientes por lo que lo
demostraremos.
Para todas la x,y se debe cumplir:
𝐹 (𝑥, 𝑦) = 𝐹𝑋 (x)𝐹𝑌 (y)
1 2 2 1
𝐹 (𝑥 = 0, 𝑦 = 0) = 𝐹𝑋 (0)𝐹𝑌 (0) = (4) (4) = 4
4
1 2 2 1
𝐹 (𝑥 = 0, 𝑦 = 1) = 𝐹𝑋 (0)𝐹𝑌 (0) = (4) (4) = 4
4
1 2 2 1
𝐹 (𝑥 = 1, 𝑦 = 0) = 𝐹𝑋 (1)𝐹𝑌 (0) = (4) (4) = 4
4
1 2 2 1
𝐹 (𝑥 = 1, 𝑦 = 1) = 𝐹𝑋 (1)𝐹𝑌 (1) = (4) (4) = 4
4

Por lo tanto x,y son independientes y su covarianza es: 𝐶𝑜𝑣(𝑋, 𝑌) = 0 y como:


Cov(X, Y)
𝜌(𝑋, 𝑌) =
√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)
Entonces:
𝜌(𝑋, 𝑌) = 0

3𝑥 𝑠𝑖 0 < 𝑥 < 𝑦 < 1


b) 𝑓 (𝑥, 𝑦) = { 3𝑦 𝑠𝑖 0 < 𝑦 < 𝑥 < 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Sea:
1 1
3 3
E(X) = ∫ 3𝑥 𝑑𝑥 = 𝑥 2 | =
0 2 0 2
1
9
𝐸 (𝑋 2 ) = ∫ 9𝑥 2 𝑑𝑥 =
0 2
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑥 2 ) + (𝐸(𝑥))2
𝑉𝑎𝑟(𝑋) = 9/2 + (3/2)2
𝑉𝑎𝑟(𝑋) = 27/4
3 21 3
1
E(Y) = ∫ 3𝑦 𝑑𝑥 = 𝑦 | =
0 2 0 2
1
2)
9
𝐸 (𝑌 = ∫ 9𝑦 2 𝑑𝑥 =
0 2
𝑉𝑎𝑟(𝑌) = 𝐸(𝑦 2 ) + (𝐸(𝑦))2
9
𝑉𝑎𝑟(𝑌) = + (3/2)2
2
𝑉𝑎𝑟(𝑌) = 27/4

Página 11 de 16
Para la covarianza de XY tenemos que:
Cov(X, Y) = E(XY) − E(X)E(Y)
1 1 1
9 2 3
𝐸 (𝑋𝑌) = ∫ ∫ 9𝑥𝑦𝑑𝑦𝑑𝑥 = ∫ 𝑦 𝑑𝑦 =
0 0 0 2 2
Entonces:
3 9 3
Cov(X, Y) = −( )=−
2 4 4

Sea:
Cov(X, Y)
𝜌(𝑋, 𝑌) =
√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)
Substituyendo:
3 3
4 4 3
𝜌(𝑋, 𝑌) = = =
27 27
√(27) (27) 4
4 4
3
𝜌(𝑋, 𝑌) =
27

Desigualdad de Chébyshev.
Resolver el problema 505 de la página 346.
Bajo las mismas condiciones y notación del enunciado de la desigualdad de
Chebyshev, demuestre que:
𝜎2
𝑃(|𝑋 − 𝜇 | ≤∈) ≥ 1 −
∈2
Como:

Y también sabemos que:
𝜎2
𝑃(|𝑋 − 𝜇 | ≤∈) ≤
∈2
Esto implica que:
𝜎2
−𝑃(|𝑋 − 𝜇 | >∈) ≥ −
∈2
No se altera la desigualdad si sumamos 1 a ambos miembros:

Página 12 de 16
𝜎2
1 − 𝑃(|𝑋 − 𝜇 | >∈) ≥ 1 −
∈2
Y como
𝜎2
1 − 𝑃(|𝑋 − 𝜇 | >∈) ≥ 𝑃(|𝑋 − 𝜇 | ≤∈) ≥ 1 −
∈2

Función generadora de momentos (f.g.m.).


Resolver los problemas 267, 268 incisos a) y 269 de la página 200.

267. Sea X una variable aleatoria discreta con función de probabilidad


como aparece abajo. Encuentre la función generadora de momentos
de X y, a partir de ella, calcule la media y la varianza de X.
1
𝑠𝑖 𝑥 = 1,2,3 …
a) 𝑓 (𝑥 ) = {2𝑥
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Sabemos que la función generadora de momentos es:
Tenemos que:

𝑀 (𝑡) = 𝐸(𝑒 𝑡𝑥 ) = ∑ 𝑒 𝑡𝑥 𝑃(𝑋 = 𝑥)


𝑥
𝑥
𝑡𝑥
1 𝑒 𝑡𝑥 𝑒𝑡
= ∑𝑒 = ∑ = ∑ ( )
2𝑥 2𝑥 2
𝑥 𝑥 𝑥
1−0 2
= 𝑡 =
𝑒 2 − 𝑒𝑡
1− 2
2
𝑀(𝑡) = 𝐸(𝑒 𝑡𝑥 ) =
2 − 𝑒𝑡

Tenemos que:
𝑑𝑛
𝐸 (𝑋 𝑛 ) = 𝑀(𝑡)
𝑑𝑡 𝑛
Por lo tanto la primera derivad nos dará la esperanza y la segunda
derivada la varianza.
Entonces:
𝑑 𝑑 2 2𝑒 𝑡
𝐸 (𝑋 1 ) = ( )
𝑀 𝑡 = ( )=
𝑑𝑡 𝑑𝑡 2 − 𝑒 𝑡 (2 − 𝑒 𝑡 )2
La esperanza para t=1:
2𝑒 5.436 5.436
2
= 2
= = 10.534
(2 − 𝑒 ) (−0.718) 0.516

Página 13 de 16
𝐸 = 10.534
Y también con la segunda derivada obtenemos:
𝑑2 𝑑 𝑑 2 𝑑 2𝑒 𝑡
𝑀 ( 𝑡 ) = ( ( )) =
𝑑𝑡 2 𝑑𝑡 𝑑𝑡 2 − 𝑒 𝑡 𝑑𝑡 (2 − 𝑒 𝑡 )2

4𝑒 2𝑡 2𝑒 𝑡
= +
( 2 − 𝑒 𝑡 )3 (2 − 𝑒 𝑡 ) 2
Para t=1 tenemos:

4𝑒 2 2𝑒 29.55 5.436
+ = +
(2 − 𝑒)3 (2 − 𝑒)2 (−0.718)3 (−0.718)2
29.55 5.436
=− + = −79.864 + 10.534 = −69.33
0.370 0.516

𝑉 = −69.33

268. Sea X una variable aleatoria continua con función de densidad como
aparece abajo. Encuentre la función generadora de momentos de X y,
a partir de ella, calcule la media y la varianza de X.
2𝑥 𝑠𝑖 0 < 𝑥 < 1
a) 𝑓 (𝑥 ) = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Tenemos que:

𝑀(𝑡) = ∫ 𝑒 𝑡𝑋 𝑓 (𝑥 )𝑑𝑥
−∞
1 1
𝑀 (𝑡) = ∫ 𝑒 𝑡𝑋 2𝑥𝑑𝑥 = 2 ∫ 𝑥𝑒 𝑡𝑋 𝑑𝑥
0 0

(𝑡 − 1)𝑒 𝑡 2 (2𝑡 + 2)𝑒 𝑡 + 2


𝑀 (𝑡 ) = 2 ( + ) =
𝑡2 𝑡2 𝑡2
Y también:
𝑑 (2𝑡 + 2)𝑒 𝑡 + 2 (2𝑡 2 + 4)𝑒 𝑡 − 4
𝐸= ( ) =
𝑑𝑡 𝑡2 𝑡3
Para t=1 tenemos:
(2 + 4)𝑒 − 4
𝐸= = 6𝑒 − 4 = 12.318
1
𝐸 = 12.318

Página 14 de 16
Para la varianza tenemos:

𝑑2 𝑑 (2𝑡 2 + 4)𝑒 𝑡 − 4
𝑉 = 2 𝑀 (𝑡 ) = ( )
𝑑𝑡 𝑑𝑡 𝑡3
2((𝑡 3 − 𝑡 2 − 2𝑡 + 6)𝑒 𝑡 − 6
=
𝑡4
Para t=1 Tenemos:
2((1 − 1 − 2 + 6)𝑒 − 6
𝑉= = 4𝑒 − 6 = 4.87
1
𝑉 = 4.87

269. Sea X una variable aleatoria f.g.m. 𝑀𝑋 (𝑡) y sean a y b dos constante
demuestre que:
𝑀𝑎𝑋+𝑏 (𝑡) = 𝑒 𝑏𝑡 𝑀𝑋 (𝑎𝑡)
Sabemos que:
𝑀 (𝑡) = ∑ 𝑒 𝑡𝑋 𝑃(𝑋 = 𝑥)
𝑥

Tomemos aX+b como una variable aleatoria.


𝑀𝑎𝑋+𝑏 (𝑡) = 𝐸(𝑒 𝑎𝑋+𝑏 )


= ∑ 𝑒 𝑡(𝑎𝑋+𝑏) 𝑃(𝑋 = 𝑥 )
𝑥=0

= ∑ 𝑒 𝑡𝑏 (𝑒 𝑡𝑎𝑋 )𝑃(𝑋 = 𝑥 )
𝑥=0

Si tomamos a 𝑒 𝑡𝑏 como constante sale de la sumatoria y la sumatoria que no


queda es la función generadora de :

= 𝑒 𝑡𝑏 ∑(𝑒 𝑡𝑎𝑋 )𝑃(𝑋 = 𝑥 )


𝑥=0

𝑡𝑏 ∑(𝑒 𝑡𝑎𝑋 )𝑃(𝑋 = 𝑥 )
=𝑒
𝑥=0

= (𝑒 𝑡𝑏 )(𝑀𝑎𝑋 (𝑡)) = (𝑒 𝑡𝑏 )(𝑀𝑋 (𝑎𝑡))


Se demuestra:
𝑀𝑎𝑋+𝑏 (𝑡) = 𝑒 𝑏𝑡 𝑀𝑋 (𝑎𝑡)

Página 15 de 16
Bibliografía
Vectores aleatorios. (2017). Recuperado el 21 de abril de 2019, de
fesacatlanestadisticai.files.wordpress.com:
https://r.search.yahoo.com/_ylt=AwrDQrxi.bxcEPkAIgAPxQt.;_ylu=X3oDMTBydDI5cXVuBGN
vbG8DYmYxBHBvcwM2BHZ0aWQDBHNlYwNzcg--
/RV=2/RE=1555917283/RO=10/RU=https%3a%2f%2ffesacatlanestadisticai.files.wordpress.c
om%2f2017%2f08%2fvectores-aleatorios-b.pdf/RK=2/RS=MzB
Cascos Fernández, I. (s.f.). Vectores aleatorios. Recuperado el 21 de abril de 2019, de
r.search.yahoo.com:
https://r.search.yahoo.com/_ylt=AwrDQrxi.bxcEPkAIwAPxQt.;_ylu=X3oDMTByMHZ0NG9yBG
NvbG8DYmYxBHBvcwM3BHZ0aWQDBHNlYwNzcg--
/RV=2/RE=1555917283/RO=10/RU=https%3a%2f%2fwww.academia.edu%2f32814132%2fR
esumen_Vectores_Aleatorios/RK=2/RS=CBpMZGa4cNrNuKTJTd323OBMYRA-
Rincón, L. (17 de noviembre de 2013). Vectores aleatorios. Recuperado el 21 de abril de 2019, de
youtube.com: https://www.youtube.com/watch?v=FsoqoIfVjvc
Rincon, L. (2014). Introduccion a la probabilidad. México DF: Facultad de ciencias de la UNAM.
Walpole, R. E., Myers, R. H., & Myers, S. L. (2012). Probabilidad y estadística para ingeniería y
ciencias. México: Pearson.

Página 16 de 16

También podría gustarte