Está en la página 1de 17

VECTORES ALEATORIOS

() VECTORES ALEATORIOS 1 / 17
Vectores aleatorios

Una vector aleatorio es una función (X1 , X2 , . . . , Xn ) : Ω → Rn


que a cada elemento del espacio muestral, ω, le asigna un vector
(es decir, n números reales) (X1 (ω), X2 (ω), . . . , Xn (ω)).

Estudiaremos el caso n = 2, (X , Y ) : Ω → R2 .

Si A es un subconjunto de R2 denotaremos

P(A) = P((X , Y ) ∈ A) = P({ω ∈ Ω : (X (ω), Y (ω)) ∈ A}).

() VECTORES ALEATORIOS 2 / 17
Vectores aleatorios discretos

Un vector aleatorio (X , Y ) es discreto si tanto X como Y lo son,


es decir, si sólo toma valores en un conjunto finito o una sucesión
(x1 , y1 ), (x2 , y2 ), . . .

La distribución de probabilidad de una v.a. discreta X queda


caracterizada por la función de masa de probabilidad conjunta
de (X , Y ) :

P(x, y ) = P(X = x, Y = y ) = P({ω ∈ Ω : (X (ω), Y (ω)) = (x, y )},

siendo (x, y ) cualquier posible valor de (X , Y ).

Se cumple:
P y ) ≥ 0 para todo (x, y ).
a) P(x,
b) P(x, y ) = 1.

() VECTORES ALEATORIOS 3 / 17
Distribuciones marginales
Se definen las distribuciones marginales de X e Y al considerar
cada variable por separado. Las funciones de masa de probabilidad
marginales son
X
P(X = xk ) = P(X = xk , Y = yi )
i
X
P(Y = yi ) = P(X = xk , Y = yi ).
k

Notemos que la esperanza y la varianza de la variable X se


calculan como:
X XX
µX = E [X ] = xk P(xk ) = xk P(xk , yi ),
k k i
X XX
V (X ) = (xk − µX )2 P(xk ) = (xk − µX )2 P(xk , yi ),
k k i
y análogamente las de la variable Y .
() VECTORES ALEATORIOS 4 / 17
Covarianza e independencia
La covarianza de dos variables aleatorias discretas X e Y se define
XX
Cov (X , Y ) = (xk −µX )(yi −µY )P(xk , yi ) = E [(X −µX )(Y −µY )].
k i

Desarrollando el sumatorio se ve que


P P P
Cov (X , Y ) = k,i xk yi P(xk , yi ) − k xk P(xk ) i yi P(yi )
= E [XY ] − E [X ]E [Y ].

Definición. Dos variables aleatorias discretas X e Y son


independientes si

P(xk , yi ) = P(xk )P(yi ) para todos los valores (xk , yi ).

Propiedad . Si X e Y son variables aleatorias independientes,


entonces, Cov (X , Y ) = 0.
() VECTORES ALEATORIOS 5 / 17
Ejemplo: El recı́proco no es cierto en general: la covarianza puede
ser 0 sin que haya independencia.
Se considera el vector aleatorio (X , Y ) donde X toma valores 1 y −1 e Y
toma valores 2, 3, 4, con función de masa de probabilidad conjunta
1 1
P(X = −1, Y = 2) = , P(X = −1, Y = 3) = 0, P(X = −1, Y = 4) = ,
4 4
1
P(X = 1, Y = 2) = 0, P(X = 1, Y = 3) = , P(X = 1, Y = 4) = 0.
2
a) Comprobar que está bien definida.

b) Hallar las funciones de masa de probabilidad marginales.

c) Comprobar que E [X ] = 0 y E [XY ] = 0. Por tanto, Cov (X , Y ) = 0.

d) Sin embargo las variables no son independientes, ya que


P(X = 1) = 21 , P(Y = 2) = 14 , pero P(X = 1, Y = 2) = 0.

() VECTORES ALEATORIOS 6 / 17
Distribuciones condicionadas
La distribución de la variable aleatoria X condicionada por un
valor fijo yi de la variable Y , (P(yi ) 6= 0) es otra variable
aleatoria discreta con función de masa
P(X = xk , Y = yi )
P(X = xk |Y = yi ) = .
P(Y = yi )

Se define análogamente la función de masa de la variable Y


condicionada por un valor xk fijo de X .
P
Se comprueba que k P(X = xk |Y = yi ) = 1.

Ejemplo: Se lanza tres veces una moneda equilibrada y se considera el


vector aleatorio (X , Y ), donde X es el número de caras e Y la
diferencia, en valor absoluto, entre el número de caras y de cruces.
Calcular las distribuciones condicionadas.

() VECTORES ALEATORIOS 7 / 17
Vectores aleatorios continuos
La función de densidad de un vector aleatorio continuo (X , Y ) es
una función f : R2 → R que cumple:

f (x, y ) ≥ 0 para todo (x, y ) y


Z
f (x, y ) dx dy = 1.
R2

La probabilidad de un suceso A ⊂ R2 se calcula como


Z
P(A) = P((X , Y ) ∈ A) = f (x, y ) dx dy .
A

Ejemplo : Considerar un vector aleatorio continuo (X , Y ) con función de


densidad conjunta
(
2 si 0 ≤ y , 0 ≤ x, x + y ≤ 1,
f (x, y ) =
0 en el resto de los casos.

() VECTORES ALEATORIOS 8 / 17
Distribuciones marginales
Se definen las distribuciones marginales de X e Y al considerar
cada variable por separado. Las funciones de masa de probabilidad
marginales son
Z Z
fX (x) = f (x, y ) dy , fY (y ) = f (x, y ) dx.
R R

Notemos que la esperanza y la varianza de la variable X se


calculan como:
Z Z Z
µX = E (X ) = x fX (x) dx = x f (x, y ) dx dy ,
R R R
Z Z Z
V (X ) = (x − µX )2 fX (x) dx = (x − µX )2 f (x, y ) dx dy ,
R R R
y análogamente las de la variable Y .

() VECTORES ALEATORIOS 9 / 17
Distribuciones condicionadas
La distribución de la variable aleatoria X condicionada por un
valor fijo y (fY (y ) 6= 0) de la variable Y , es otra variable
aleatoria discreta con función de masa
f (x, y )
f (x|y ) = f (x|Y = y ) = f (X = x|Y = y ) =
fY (y )

para todo x ∈ R. Se define análogamente la función de masa de


la variable Y condicionada por un valor x fijo de X .
R
Se comprueba que R f (x|Y = y ) dx = 1.

Se define Z
P(X ∈ B|Y = y ) = f (x|Y = y ) dx
B
y el análogo si intercambiamos los papeles de X e Y .
() VECTORES ALEATORIOS 10 / 17
La media y varianza condicionales de X dado que Y = y ,
Z R
xf (x, y ) dx
E [X |Y = y ] = x f (x|Y = y ) dx =
fY (y )
Z
V (X |Y = y ) = (x − E [X |Y = y ])2 f (x|Y = y ) dx

(x − E [X |Y = y ])2 f (x, y ) dx
R
=
fY (y )

() VECTORES ALEATORIOS 11 / 17
Covarianza

La covarianza de dos variables aleatorias continuas X e Y es


ZZ
Cov (X , Y ) = (x−µX )(y −µY )f (x, y ) dxdy = E [(X −µX )(Y −µY )].
R2

Desarrollando el sumatorio se ve que

Cov (X , Y )
ZZ ZZ ZZ
 
= xyf (x, y ) dxdy − xf (x, y ) dxdy yf (x, y ) dxdy
R2 R2 R2
= E [XY ] − E [X ]E [Y ] .

() VECTORES ALEATORIOS 12 / 17
Independencia
Dos variables aleatorias discretas X e Y son independientes
cuando

f (x, y ) = fX (x)fY (y ) para todos los valores (x, y ) ∈ R2 .

De la igualdad anterior se deduce que


a) fX (x) = f (x|y ) para todo y con fY (y ) > 0,
también que
b) fY (y ) = f (y |x) para todo x con fX (x) > 0,
y también que
c) para todo par de sucesos A y B,
P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B).

Propiedad . Si X e Y son variables aleatorias independientes,


entonces, Cov (X , Y ) = 0. El recı́proco no es cierto en general.

() VECTORES ALEATORIOS 13 / 17
Propiedades
a) E [kX ] = kE [X ].

b) E [X + Y ] = E [X ] + E [Y ].

c) V (kX ) = k 2 V (X ).

d) V (X + Y ) = V (X ) + VP (Y ) + 2Cov (XP
, Y ), y, en general
V (X1 + X2 + · · · + Xn ) = k V (Xk ) + 2 i<k Cov (Xi , Xk ).

En consecuencia,
e) Si X e Y son independientes V (X + Y ) = V (X ) + V (Y ), y, en
general, si X1 , . . . Xn son variables
P aleatorias independientes,
V (X1 + X2 + · · · + Xn ) = k V (Xk ).
f) Además, por la definición de covarianza, si X e Y son
independientes, E [XY ] = E [X ]E [Y ].

() VECTORES ALEATORIOS 14 / 17
Consecuencia:

Si X1 , X2 , . . . , Xn , son variables aleatorias independientes, con la


misma media µ y la misma desviación tı́pica σ, entonces
X1 + X2 + · · · Xn σ
tiene media µ y desviación tı́pica √ .
n n

() VECTORES ALEATORIOS 15 / 17
Casos especiales

Si X1 ∼ N(µ1 , σ1 ), X2 ∼ N(µ2 , σ2 ), . . . , Xn ∼ N(µn , σn ), son


independientes, c1 , c2 , . . . , cn son números, entonces
c1 X1 + c2 X2 + · · · cn Xn tiene distribución normal con esperanza
c1 µ1 + c2 µ2 + · · · cn µn y varianza c12 σ12 + c22 σ22 + · · · cn2 σn2 .

Si X1 , X2 , . . . Xn , son v.a. de Bernoulli con el mismo parámetro p,


independientes y definimos Y = X1 + X2 + · · · Xn , entonces, Y
tiene distribución B(n, p).

Si X1 , X2 , . . . Xn , son v.a., de Poisson con el mismo parámetro λ,


independientes y definimos Y = X1 + X2 + · · · Xn , entonces, Y
tiene distribución de Poisson con parámetro nλ.

() VECTORES ALEATORIOS 16 / 17
Ejemplo: El peso de cierto aparato en una cadena de ensamblaje sigue
una distribución N(10, 3).
a) Se seleccionan 20 aparatos. Describir la distribución de su peso medio.
b) Se seleccionan dos aparatos. ¿Cuál es la probabilidad de que su peso
difiera en más de 2?

() VECTORES ALEATORIOS 17 / 17

También podría gustarte