Está en la página 1de 49

Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Tema 7: Vectores aleatorios


Estadística

Fundamentos del Análisis Económico

U. de Alicante

2008-09
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Concepto

Caso discreto

Caso continuo

Esperanza

Independencia

Suma de variables aleatorias


Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Introducción
Hasta ahora hemos estudiado cuestiones de probabilidad
considerando una única v.a. cada vez
A veces la información sobre un experimento requiere más de
una v.a. para estudiar ciertos sucesos de interés
Por ejemplo, si estudiamos la relación entre el peso y estatura
en una población, el suceso “un individuo elegido al azar mide
más de 1,80 metros y pesa más de 80 kilos” no puede
expresarse con un número real o un intervalo de números
reales
Necesitamos 2 variables aleatorias, una para la estatura y otra
para el peso de los individuos, lo que generará un espacio de
probabilidad en R 2
En general, en ocasiones hay que recurrir a R n para expresar
correctamente ciertos sucesos relacionados con los
experimentos aleatorios. Necesitaremos variables aleatorias
con n componentes, es decir, vectores aleatorios
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Vector aleatorio bivariante


De…nimos el vector aleatorio bivariante (X1 , X2 ) (o variable
aleatoria bivariante) como el resultado numérico en R 2 de un
experimento aleatorio
Es decir, a cada resultado del espacio muestral le asignamos 2
variables aleatorias diferentes
Por ejemplo, si lanzamos 2 dados hay 36 resultados posibles.
Ahora de…nimos X1 = “suma de las 2 caras” y X2 =
“producto de las dos caras”
Tenemos que X = (X1 , X2 ) es un vector aleatorio bivariante,
ya que los distintos pares tienen diferentes probabilidades. Por
ejemplo, la probabilidad de (2,1) es 1/36. Este caso sólo se
puede dar si ambos dados caen en 1
¿Cuál es la probabilidad de (2,2)?
¿Y la de (4,3)?
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Función de distribución
Dado un vector aleatorio bivariante (X1 , X2 ), de…nimos la
función de distribución F (t1 , t2 ) como:

F (t1 , t2 ) = PrfX1 t1 , X2 t2 g ,

donde ∞ < t1 , t2 < +∞


La función de distribución caracteriza el vector aleatorio,
puesto que cualquier probabilidad se puede calcular a partir de
la función de distribución. Pero, en muchas ocasiones, dicho
cálculo no es sencillo, por lo que no se utiliza mucho en el
caso bivariante
De…nimos el “rango” o “soporte” de un vector aleatorio como
el subconjunto de R 2 formado por los posibles resultados
Las de…niciones de arriba se pueden extender al caso de un
vector aleatorio de n componentes
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Vector aleatorio bivariante discreto


Un vector aleatorio bivariante discreto es aquél cuyo rango es
un subconjunto de R 2 …nito o numerable
Dado un vector aleatorio discreto (X1 , X2 ), su función de
cuantía conjunta f (t1 , t2 ) nos indica las probabilidades de
los distintos puntos:

f (t1 , t2 ) = PrfX1 = t1 , X2 = t2 g

Por ejemplo, supongamos que X1 toma los valores 6 y 8,


mientras que X2 toma los valores 1,4 y 7. Un ejemplo de
función de cuantía es f (6, 1) = 10/50, f (6, 4) = 6/50,
f (6, 7) = 4/50, f (8, 1) = 16/50, f (8, 4) = 0,
f (8, 7) = 14/50
La función de cuantía es positiva en los puntos del soporte y
la suma de todos los valores es igual a 1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1
Seleccionamos un individuo al azar en una población, y le
preguntamos su grado de satisfacción con los servicios
municipales. Las respuestas posibles son: “nada satisfecho”,
“poco satisfecho”, “bastante satisfecho”, “muy satisfecho”
También le preguntamos si lleva residiendo en ese municipio
menos de seis años o no
Llamamos X1 a la v.a. que toma el valor 1 si el individuo está
“nada satisfecho” con los servicios municipales, 2 si está
“poco satisfecho”, 3 si está “bastante satisfecho” y 4 si está
“muy satisfecho”. Por otra parte, llamamos X2 a la v.a. que
toma el valor 1 si el individuo lleva viviendo en el municipio
menos de seis años, ó 2 en caso contrario
Consideradas por separado, tanto X1 como X2 son v.a.
discretas. Cuando consideramos conjuntamente las dos
variables obtenemos el vector aleatorio (X1 , X2 ). Los
resultados posibles son (1,1), (1,2), (2,1), (2,2), (3,1), (3,2),
(4,1) y (4,2)
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, función de cuantía


Para conocer cualquier probabilidad, debemos conocer su
función de cuantía conjunta que indica la probabilidad de cada
uno de los posibles resultados. Al ser el vector bivariante, esta
función de cuantía la representamos en forma de tabla:
X2 nX1 1 2 3 4
1 0.04 0.14 0.23 0.07
2 0.07 0.17 0.23 0.05
La tabla nos da las probabilidades conjuntas. Por ejemplo, la
probabilidad de que un individuo esté muy satisfecho con los
servicios municipales y lleve menos de seis años viviendo en el
municipio es:
P (X1 = 4, X2 = 1) = 0,07
Todos los valores que aparecen en la tabla son no negativos
(pues representan probabilidades). Además, la suma de todos
ellos es 1 (pues es la probabilidad de todo el espacio muestral)
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Distribución marginal

A partir de la función de cuantía conjunta de un vector


aleatorio bivariante discreto podemos obtener la distribución
marginal de cada una de las dos componentes del vector
aleatorio, que pueden interpretarse como v.a. univariante
En concreto, la función de cuantía marginal de X1 , a la que
llamamos f1 (t1 ) la de…nimos como:

f 1 ( t1 ) = ∑ f (t1 , X2 )
X2

Es decir, para cada posible valor que toma X1 calculamos las


probabilidades sumando sobre X2
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación

Siguiendo el ejemplo de arriba, para obtener la función de


cuantía marginal de X1 , basta con tener en cuenta que sus
posibles valores son 1, 2, 3 y 4, y que es posible calcular la
probabilidad de cada uno de ellos:

f1 (1) = P (X1 = 1) =
= P (X1 = 1, X2 = 1) + P (X1 = 1, X2 = 2) = 0,04 + 0,07
f1 (2) = P (X1 = 2) =
= P (X1 = 2, X2 = 1) + P (X1 = 2, X2 = 2) = 0,14 + 0,17
f1 (3) = P (X1 = 3) =
= P (X1 = 3, X2 = 1) + P (X1 = 3, X2 = 2) = 0,23 + 0,23
f1 (4) = P (X1 = 4) =
= P (X1 = 4, X2 = 1) + P (X1 = 4, X2 = 2) = 0,07 + 0,05
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, marginal de X1
Por tanto, la función de cuantía marginal de X1 es:
t 1 2 3 4
f1 ( t ) 0,11 0,31 0,46 0,12
Esta tabla nos da las probabilidades sobre X1 sin tener en
cuenta la presencia de X2 . Estos valores se obtienen sumando
por columnas los valores de la tabla de probabilidades de
partida. Se suma por columnas porque cada columna contiene
todas las probabilidades sobre un posible resultado de X1
La función de cuantía marginal de X2 es:
t 1 2
f2 ( t ) 0,48 0,52
Esta tabla nos da las probabilidades sobre X2 sin tener en
cuenta la presencia de X1 . Los valores se obtienen sumando
por …las los valores de la tabla de prob. bivariantes de partida.
Se suma por …las porque cada …la contiene todas las prob.
sobre un posible resultado de X
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Distribución condicional

La distribución condicional de una componente de un vector


aleatorio bivariante discreto es la distribución de cada una de
las componentes del vector aleatorio, cuando …jamos el valor
que toma la otra componente
Seguimos con el ejemplo 1. Supongamos que el individuo
seleccionado lleva viviendo en el municipio menos de 6 años
(es decir, X2 = 1). Con esta información queremos calcular
las probabilidades sobre su grado de satisfacción con los
servicios municipales
Para ello tendremos que calcular la función de cuantía de la
v.a. X1 =“grado de satisfacción con los servicios municipales”
sabiendo que X2 = 1, es decir, la función de cuantía de la v.a.
condicional X1 j X2 = 1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación

Las probabilidades condicionales cuando sabemos que X2 = 1


son:
P (X 1 =1,X 2 =1 ) 0,04
f1 jX 2 =1 (1) = P (X1 = 1 j X2 = 1) = P (X 2 =1 )
= 0,48 =
1
12
P (X 1 =2,X 2 =1 ) 0,14
f1 jX 2 =1 (2) = P (X1 = 2 j X2 = 1) = P (X 2 =1 )
= 0,48 =
7
24
P (X 1 =3,X 2 =1 ) 0,23
f1 jX 2 =1 (3) = P (X1 = 3 j X2 = 1) = P (X 2 =1 )
= 0,48 =
23
48
P (X 1 =4,X 2 =1 ) 0,07
f1 jX 2 =1 (4) = P (X1 = 4 j X2 = 1) = P (X 2 =1 )
= 0,48 =
7
48
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación

Por tanto, la función de cuantía de X1 j X2 = 1 es:

t 1 2 3 4
f1 j X 2 = 1 ( t ) 1/12 7/24 23/48 7/48

Esta tabla nos da las probabilidades sobre X1 cuando sabemos


que X2 = 1. Para obtener esta función de cuantía condicional
sólo hemos utilizado las probabilidades que aparecen en la
primera …la de la tabla de probabilidades bivariantes de partida
(porque condicionamos a que el resultado de X2 sea 1)
Alternativamente, si conocemos el resultado de X1 , podemos
calcular la distribución condicional de X2 . Por ejemplo, si
X1 = 4, vamos a obtener la función de cuantía condicional
X2 j X1 = 4
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación
Los posibles resultados de X2 cuando sabemos que X1 = 4 son
1 y 2, y las probabilidades condicionales correspondientes son:
P (X 1 =4,X 2 =1 ) 0,07
f2 jX 1 =4 (1) = P (X2 = 1 j X1 = 4) = P (X 1 =4 )
= 0,12 =
7
12
P (X 1 =4,X 2 =2 ) 0,05
f2 jX 1 =4 (2) = P (X2 = 2 j X1 = 4) = P (X 1 =4 )
= 0,12 =
5
12
Por tanto, la función de cuantía de X2 j X1 = 4 es:

t 1 2
f2 j X 1 = 4 ( t ) 7/12 5/12

Esta tabla nos da las probabilidades sobre X2 cuando sabemos


que X1 = 4. Para obtener esta función de cuantía condicional
sólo hemos utilizado las probabilidades que aparecen en la
cuarta columna de la tabla de probabilidades bivariantes de
partida (porque condicionamos a que el resultado de X1 sea 4)
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Transformaciones
Si g (t1, ..., tn ) es una función de Rn en Rm , entonces
g (X1 , ..., Xn ) es un vector aleatorio discreto de dimensión m
Supongamos que estamos interesados en la v.a. Y = X1 + X2 .
Tenemos ocho resultados posibles para el vector aleatorio
(X1 , X2 ), y tenemos que analizar qué resultado de Y se
obtendrá en cada uno de esos ocho casos:
(X1 , X2 ) Probabilidad Y = X1 + X2
(1, 1) 0,04 2
(2, 1) 0,14 3
(3, 1) 0,23 4
(4, 1) 0,07 5
(1, 2) 0,07 3
(2, 2) 0,23 4
(3, 2) 0,14 5
(4, 2) 0,04 6
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Transformaciones, continuación
Vemos que Y es una v.a. discreta con la función de cuantía:
t 2 3 4 5 6
fY ( t ) 0,04 0,21 0,4 0,3 0,05
Vemos que, en algunos casos, a un posible resultado de Y le
corresponde un único resultado de (X1 , X2 ) (por ejemplo,
Y = 2 únicamente si X1 = 1 y X2 = 1). Sin embargo, otros
resultados de Y se corresponden con dos resultados de
(X1 , X2 ) (por ejemplo, Y = 3 si X1 = 1 y X2 = 2, o si X1 = 2
y X2 = 1)
En el segundo caso la probabilidad de Y = 3 se obtiene
sumando las probabilidades de todas las situaciones posibles
de (X1 , X2 ) que llevan a ese resultado de Y :
P (Y = 3) = P (X1 = 1, X2 = 2) + P (X1 = 2, X2 = 1)
= 0,07 + 0,14 = 0,21
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Integrales dobles
Si A es un subconjunto de R2 , y f (t1 , t2 ) es una función no
negativa de R2 en R, la integral doble:
Z Z
f (t1 , t2 )dt1 dt2
A
representa el volumen del cuerpo que queda por debajo de
f (t1 , t2 ) en A
El cálculo de una integral doble es, en general, más
complicado que el de una integral simple. Sin embargo,
cuando A es un conjunto de la forma A1 A2 (siendo A1 y A2
subconjuntos de R), la integral doble se puede calcular como:
Z Z Z Z
f (t1 , t2 )dt1 dt2 = f (t1 , t2 )dt2 dt1
A A1 A2
O bien como:
Z Z Z Z
f (t1 , t2 )dt1 dt2 = f (t1 , t2 )dt1 dt2
A A2 A1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo
Calculamos el volumen que queda por debajo de
f (t1 , t2 ) = 3t12 t2 en A = [0, 2] [1, 3]
Aplicando la primera de las dos fórmulas:
Z Z Z 2 Z 3
f (t1 , t2 )dt1 dt2 = 3t12 t2 dt2 dt1
A 0 1
La integral entre paréntesis es:
Z 3 t 2 =3
t22 9 1
3t12 t2 dt2 = 3t12 = 3t12 ( ) = 12t12
1 2 t 2 =1 2 2
El volumen buscado es:
Z Z Z 2 t 2 =2
t13
f (t1 , t2 )dt1 dt2 = 12t12 dt1 = 12 = 32
A 0 3 t 2 =0
Podemos hacer el cálculo también así:
Z Z Z 3 Z 2
f (t1 , t2 )dt1 dt2 = 3t12 t2 dt1 dt2
A 1 0
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Función de densidad conjunta


Un vector aleatorio bivariante continuo (X1 , X2 ) es aquel para
el cual existe una función f (t1 , t2 ), no negativa e integrable,
tal que para cualquier subconjunto A de R2 es:
Z Z
P f(X1 , X2 ) 2 Ag = f (t1 , t2 )dt1 dt2
A

A la función f (t1 , t2 ) se le llama función de densidad


conjunta del vector aleatorio bivariante (X1 , X2 ). La idea de
la función de densidad conjunta es la de una super…cie que
deja por debajo un volumen igual a la unidad
La función de distribución F (t1 , t2 ) nos da la probabilidad de
que X1 t1 y X2 t2 :
Z t1 Z t2
F (t1 , t2 ) = P (X1 t1 , X2 t2 ) = f (u1 , u2 )du2 du1
∞ ∞

Toda función de densidad bivariante es no negativa y la


integral doble sobre todo R2 es 1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo
Consideramos el vector aleatorio (X1 , X2 ). Vamos a comprobar
que la función siguiente es una función de densidad conjunta:
t1 + t2 si 0 t1 1 y 0 t2 1
f ( t1 , t2 ) =
0 en caso contrario
Para ello tenemos que calcular la integral siguiente:
Z 1 Z 1
(t1 + t2 )dt2 dt1
0 0

La integral que entre paréntesis es:


Z 1 t 2 =1
t22 1
(t1 + t2 )dt2 = t1 t2 + = t1 +
0 2 t 2 =0 2
Llevando este resultado a la expresión de arriba:
Z 1 Z 1 Z 1 t 1 =1
1 t12 1
(t1 + t2 )dt2 dt1 = t1 + dt1 = + t1 =
0 0 0 2 2 2 t 1 =0
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 2
Tenemos que (X1 , X2 ) es un vector aleatorio continuo con
función de densidad conjunta:
4t1 t2 si 0 t1 1 y 0 t2 1
f ( t1 , t2 ) =
0 en caso contrario
Esta función es positiva en los puntos cuyas dos coordenadas
están en el intervalo [0, 1]. Por tanto, los posibles resultados
de (X1 , X2 ) son vectores cuyas dos coordenadas están en el
intervalo [0, 1]. Las probabilidades se calculan integrando esta
función sobre el recinto que corresponda
Por ejemplo, la probabilidad de que la primera coordenada del
resultado sea mayor que 1/3 y que la segunda sea menor que
3/4 es:
Z +∞ Z 3/4
1 3
P (X1 > , X2 < ) = f (t1 , t2 )dt2 dt1 =
3 4 1/3 ∞
Z 1 Z 3/4
= 4t1 t2 dt2 dt1
1/3 0
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 2, continuación

La integral que entre paréntesis es:


Z 3/4 t2 =3/4
t22 9 9t1
4t1 t2 dt2 = 4t1 = 4t1 =
0 2 t 2 =0 32 8

Llevando este resultado a la expresión anterior:


Z 1
1 3 9t1
P (X1 > , X2 < ) = dt1 =
3 4 1/3 8
t 1 =1
9t12 9 1
= = = 0,5
16 t1 =1/3 16 16
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3
X1 es la demanda de té (en miles de kg.) y X2 la demanda de
café (en miles de kg.) en una región. Supongamos que el
vector aleatorio bidimensional (X1 , X2 ) es continuo y su
función de densidad conjunta es:
3 2
f (t1 , t2 ) = 5 (t1 + t1 t2 ) si 0 t1 1 y 0 t2 2
0 en caso contrario
Las probabilidades se pueden obtener integrando esta función.
Por ejemplo, la probabilidad de que la demanda de té (en
miles de kg.) sea inferior a 2/3 y que la demanda de café (en
miles de kg.) sea inferior a 1/2 es:
Z 2/3 Z 1/2
2 1 3
P (X1 < , X2 < ) = (t12 + t1 t2 )dt2 dt1
3 2 0 0 5
La integral que entre paréntesis es:
Z 1/2 t2 =1/2
3 3 2 t2 3 t 2 t1
(t12 + t1 t2 )dt2 = (t1 t2 + t1 2 ) = ( 1+ )
0 5 5 2 t 2 =0 5 2 8
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

Llevando el resultado parcial a la expresión anterior:


Z 2/3
2 1 3 t12 t1
P (X1 < , X2 < ) = ( + )t1 =
3 2 0 5 2 8

t2 =2/3
3 t13 t2 3 8 4
= ( + 1) = ( + )=
5 6 16 t 2 =0 5 6 27 16 9
5
= = 0,0463
108
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Distribución marginal
A partir de la f. de densidad conjunta de (X1 , X2 ) podemos
obtener las marginales. En concreto:
Z +∞
f1 ( t ) = f (t, t2 )dt2

Z +∞
f2 ( t ) = f (t1 , t )dt1

Seguimos con el ejemplo 3. La primera densidad marginal es
la función de densidad de X1 =“demanda de té”. Si t es un
punto del soporte de X1 , es decir, si t 2 [0, 1], entonces:
Z +∞ Z 2
3
f1 ( t ) = f (t, t2 )dt2 = (t 2 + tt2 )dt2 =
∞ 0 5
t 2 =2
3 2 t2 3 6
= (t t2 + t 2 ) = (2t 2 + 2t ) = (t 2 + t )
5 2 t 2 =0 5 5
Si t 2
/ [0, 1], entonces f1 (t ) = 0, ya que t no está en el
soporte de X1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

A partir de la densidad marginal f1 (t ) podemos calcular


cualquier probabilidad sobre la demanda de té
Por ejemplo, la probabilidad de que la demanda de té sea
inferior a 13 es:
Z 1/3 Z 1/3
1 6
P (X1 )= f1 (t )dt = (t 2 + t )dt =
3 ∞ 0 5
t =1/3
6 t3 t2 6 1 1 11
= ( + ) = ( + )= = 0,0815
5 3 2 t =0 5 81 18 135
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, marginal de X2

Análogamente, podemos obtener la segunda densidad


marginal, que es la función de densidad de X2 =“demanda de
café”
Si t es un punto del soporte de X2 , es decir, si t 2 [0, 2],
entonces la segunda función de densidad marginal en t es:
Z +∞ Z 1
3
f2 ( t ) = f (t1 , t )dt1 = (t12 + t1 t )dt1 =
∞ 0 5
t 1 =1
3 t13 t2 3 1 1 2 + 3t
= ( + 1 t) = ( + t) =
5 3 2 t 1 =0 5 3 2 10
Si t 2
/ [0, 2], entonces f2 (t ) = 0, ya que t no está en el
soporte de X2
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Distribución condicional
Si tenemos un vector aleatorio (X1 , X2 ) con función de
densidad conjunta f (t1 , t2 ), supongamos que observamos que
el valor de X2 es d. Nos interesa obtener una función que nos
diga cuál es la probabilidad de los diferentes valores de X1 ,
dado que X2 = d
De…nimos la función de densidad condicional de X1 , dado
que X2 = d, como:

f (t, d )
f1 j X 2 = d ( t ) =
f2 ( d )
De la misma forma de…nimos la función de densidad
condicional de X2 , dado que X1 = d, como:

f (d, t )
f2 j X 1 = d ( t ) =
f1 ( d )
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

Supongamos que sabemos que la demanda de té (en miles de


kg.) ha sido igual a 12 . Con esta información adicional,
queremos calcular probabilidades sobre la demanda de café
Para ello tenemos que calcular la función de densidad
condicional X2 j X1 = 21
Si t 2 [0, 2], entonces la condicional de X2 en t es:

f ( 21 , t ) 3 1
5(4 + 2t ) 1 + 2t
f2 j X 1 = 1 ( t ) = = =
2 f1 ( 12 ) 9
10
6

/ [0, 2], entonces f2 jX 1 = 1 (t ) = 0, ya que t no está en el


Y si t 2
2
soporte de X2
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

Una vez obtenida esta f. de densidad condicional podemos


calcular cualquier probabilidad sobre la demanda de café
cuando X1 = 12 . Por ejemplo, la probabilidad de que la
demanda de café sea inferior a 13 cuando X1 = 12 es:
Z 1/3 Z 1/3
1 1 1
P (X2 j X1 = ) = f2 jX 1 = 1 (t )dt = (1 + 2t )dt
3 2 ∞ 2 0 6
t =1/3
1 1 1 1 2
= (t + t 2 ) = ( + )=
6 t =0 6 3 9 27
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Transformaciones de vectores aleatorios

Si g (t1, ..., tn ) es una función de Rn en Rm , entonces


g (X1 , ..., Xn ) es un vector aleatorio continuo de dimensión m
A diferencia del caso discreto, en el caso continuo es
complicado obtener cuál es la densidad de g (X1 , ..., Xn ) a
partir de la densidad de (X1 , ..., Xn ), incluso en los casos más
sencillos, como la suma de variables aleatorias
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Vector de esperanzas
Si (X1 , X2 ) es un vector aleatorio, la esperanza del vector
aleatorio es el vector (E (X1 ), E (X2 )), donde E (X1 ) es la
esperanza de X1 y E (X2 ) es la esperanza de X2
Tanto E (X1 ) como E (X2 ) se calculan a partir de las
respectivas distribuciones marginales
Si Y = g (X1 , ..., Xn ), siendo g : Rn ! R una función
cualquiera, entonces:
E (Y ) = ∑ g (t1 , ..., tn )f (t1 , ..., tn )
t 2D
Z Z
E (Y ) = g (t1 , ..., tn )f (t1 , ..., tn )dt1 dtn ,
Rn
en los casos discreto y continuo, respectivamente. En el
primer caso f (t1 , ..., tn ) es la función de cuantía y en el
segundo la función de densidad de (X1 , ..., Xn )
Si a1 , a2 , ..., an , b son números reales, entonces:
E (a1 X1 + a2 X2 + . . . + an Xn + b ) = a1 E (X1 ) + a2 E (X2 ) + . . . + an E (
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación
La tabla de probabilidades conjuntas de (X1 , X2 ) es:

X2 nX1 1 2 3 4
1 0,04 0,14 0,23 0,07
2 0,07 0,17 0,23 0,05

La función de cuantía de X1 que hemos obtenido (sumando


por columnas) es: f1 (1) = 0,11, f1 (2) = 0,31, f1 (3) = 0,46,
f1 (4) = 0,12
La de X2 es (sumando por …las): f1 (1) = 0,48, f1 (2) = 0,52
Por tanto:

E (X1 ) = 1 0,11 + 2 0,31 + 3 0,46 + 4 0,12 = 2,59


E (X2 ) = 1 0,48 + 2 0,52 = 1,52

La esperanza del vector aleatorio (X1 , X2 ) es el vector (2,59,


1,52)
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, transformaciones
Supongamos que queremos calcular la esperanza de la v.a:
Y = X1 + 2X2 + 3
Por la propiedad de linealidad de la esperanza, es inmediato
calcularla:
E (Y ) = E (X1 ) + 2E (X2 ) + 3 = 2,59 + 2 1,52 + 3 = 8,63
Supongamos que queremos calcular la esperanza de la v.a.
W = X1 X2
Ahora no podemos aplicar la propiedad de linealidad de la
esperanza; ahora bien, teniendo en cuenta que hay ocho casos
posibles para el vector aleatorio (X1 , X2 ), y examinando el
valor de W en cada uno de estos ocho casos, deducimos que:
E (W ) = 0,04 1 1 + 0,14 2 1 + 0,23 3 1 + 0,07 4 1+
0,07 1 2 + 0,17 2 2 + 0,23 3 2 + 0,05 4 2 = 3,89
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

Supongamos que estamos interesados en la v.a. cociente entre


las demandas de té y de café, es decir, en la v.a. Y = XX 21 .
Obtener la función de densidad de Y es complicado
Como conocemos la función de densidad de (X1 , X2 ), que es
f (t1 , t2 ) = 35 (t12 + t1 t2 ) para t1 2 [0, 1] y t2 2 [0, 2], sí que
podemos calcular E (Y ) = E ( XX 21 ):
Z +∞ Z +∞
X2 t2
E( ) = f (t1 , t2 )dt2 dt1 =
X1 ∞ ∞ t1
Z 1 Z 2
3
= (t1 t2 + t22 )dt2 dt1
0 0 5
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación

La integral entre paréntesis es:


Z 2 t 2 =2
3 3 t22 t3
(t1 t2 + t22 )dt2 = ( t1 + 2 ) =
0 5 5 2 3 t 2 =0
3 8 6 8
= (2t1 + ) = t1 +
5 3 5 5
Llevando este resultado a la expresión anterior:
Z 1 t 1 =1
6 8 6 t12 8
E (Y ) = ( t1 + )dt1 = + t1 =
0 5 5 5 2 5 t 1 =0
6 8
= + = 2,2
10 5
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Variables independientes
Decimos que las v.a. X1 y X2 son independientes si la
función de distribución del vector aleatorio (X1 , X2 ) coincide
con el producto de las funciones de distribución marginales
La interpretación es que, cuando dos v.a. son indendientes,
cualquier probabilidad conjunta se puede calcular a partir de
la información que se tiene por separado de X1 y de X2 .
Considerar conjuntamente las dos variables aleatorias no
aporta información nueva en ningún caso
Como la función de distribución conjunta no es muy usada en
el caso bivariante, resulta útil caracterizar la independencia
usando las funciones de cuantía y de densidad
Teorema: Si (X1 , X2 ) es un vector aleatorio bivariante,
entonces X1 y X2 son v.a. independientes si y sólo si se
cumple que f (t1 , t2 ) = f1 (t1 )f2 (t2 ) para cualesquiera t1 , t2
Vale para el caso discreto y para el caso continuo
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación
Si X1 y X2 fueran independientes, entonces
f (t1 , t2 ) = f1 (t1 )f2 (t2 ), donde f (t1 , t2 ) es la función de
cuantía conjunta de (X1 , X2 ), y f1 (t1 ) y f2 (t2 ) son las
funciones de cuantía marginales en todos los puntos del
soporte de (X1 , X2 )
Consideramos el punto (1, 1):
f (1, 1) = P (X1 = 1, X2 = 1) = 0,04
f1 (1) = P (X1 = 1) = 0,11, y f2 (1) = P (X2 = 1) = 0,48
Como f1 (1)f2 (1) = 0,11 0,48 = 0,0528 6= f (1, 1), vemos
que X1 y X2 no son independientes
Para comprobar que no son independientes es su…ciente con
encontrar un punto del soporte que no satisfaga la igualdad;
pero para comprobar que sí son independientes tendríamos
que comprobar que la igualdad se satisface en todos los
puntos del soporte
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 2, continuación
A partir de la función de densidad conjunta de (X1 , X2 ), que
llamamos f (t1 , t2 ), podemos deducir las funciones de densidad
marginales de X1 y de X2 , que llamaremos f1 (t ) y f2 (t )
Recordamos que f (t1 , t2 ) = 4t1 t2 para 0 t1 , t2 1.
Entonces:
Z +∞ Z 1
f1 ( t ) = f (t, t2 )dt2 = 4tt2 dt2 =
∞ 0
t 2 =1
= 2tt22 t 2 =0
= 2t, si t 2 [0, 1]

Z +∞ Z 1
f2 ( t ) = f (t1 , t )dt1 = 4t1 tdt1 =
∞ 0
t 1 =1
= 2t12 t t 1 =0
= 2t, si t 2 [0, 1]
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 2, continuación

Vemos que f1 (t1 )f2 (t2 ) = 4t1 t2 , si t1 2 [0, 1] y t2 2 [0, 1], o


bien f1 (t1 )f2 (t2 ) = 0 en caso contrario
Como f1 (t1 )f2 (t2 ) coincide con f (t1 , t2 ) en todo punto, X1 y
X2 sí son independientes
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 3, continuación
A partir de la función de densidad conjunta de (X1 , X2 ),
llamada f (t1 , t2 ), hemos deducido arriba la función de
densidad marginal de X1 , que llamamos f1 (t ), y la función de
densidad marginal de X2 , que llamamos f2 (t ). En concreto:

f (t1 , t2 ) = 3(t12 + t1 t2 )/5, si t1 2 [0, 1] y t2 2 [0, 2]

f1 (t ) = 6(t 2 + t )/5, si t 2 [0, 1]


f2 (t ) = (2 + 3t )/10, si t 2 [0, 2]
El producto f1 (t1 )f2 (t2 ) = 6(t12 + t1 )(2 + 3t2 )/50 no coincide
con f (t1 , t2 ). Por ejemplo, si tomamos el punto ( 12 , 12 ), vemos
que f1 ( 12 )f2 ( 12 ) = 0,9 0,35 = 0,315 no coincide con
f ( 21 , 12 ) = 0,3
La demanda de té X1 y la demanda de café X2 no son v.a.
independientes
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Implicaciones de la independencia
Una consecuencia importante del teorema anterior es que,
bajo independencia, las densidades condicionales coinciden
con las marginales. La razón es que si hay independencia, al
condicionar no se aporta ninguna información nueva
Vemos algunas propiedades interesantes de las v.a.
independientes
Teorema: Si X1 , X2 son dos v.a. independientes, entonces:
1. E (X1 X2 ) = E (X1 )E (X2 )
2. Si a1 , a2 , b son números reales, entonces:

Var (a1 X1 + a2 X2 + b ) = a12 Var (X1 ) + a22 Var (X2 )

3. Para funciones g ( ) y h( ) cualesquiera se tiene que g (X1 ) y


h(X2 ) son también v.a. independientes
Las tres propiedades anteriores se cumplen también cuando
tenemos n v.a. independientes
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 1, continuación

Hemos calculado arriba que:

E (X1 ) = 2,59 y E (X2 ) = 1,52

También hemos comprobado que:

E (X1 X2 ) = 3,89

Por tanto, en este caso


E (X1 )E (X2 ) = 2,59 1,52 = 3,9368 6= E (X1 X2 ). Esto no es
una contradicción con las propiedades de la esperanza bajo
independencia, ya que en este caso las v.a. X1 y X2 NO son
independientes
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 2, continuación
En este ejemplo
R +∞ tenemos: R 1 2
E (X1 ) = ∞ tf1 (t )dt = 0 2t dt = 2/3, y como X2 tiene la
misma densidad que X1 , también E (X2 ) = 2/3
Como sabemos que X1 y X2 sí son independientes:
4
E (X1 X2 ) = E (X1 )E (X2 ) =
9
Si estamos interesados en calcular la varianza de la v.a.
Y = 2X1 X2 + 1, como X1 y X2 son independientes:
Var(Y ) = 22 Var(X1 ) + ( 1)2 Var(X2 )
R +∞ R1
Como E (X12 ) = ∞ t 2 f1 (t )dt = 0 2t 3 dt = 1/2:
Var(X1 ) = E (X12 ) E (X1 )2 = (1/2) (2/3)2 = 1/18,
y como X2 tiene la misma densidad que X1 , también
Var(X2 ) = 1/18
1 1 5
Por tanto Var(Y ) = 4 18 + 18 = 18
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Suma de variables aleatorias


Como hemos visto antes, la suma de las variables aleatorias
que componen un vector aleatorio es una nueva variable
aleatoria
En el caso discreto, es relativamente sencillo obtener su
función de cuantía si se conoce la función de cuantía conjunta
de las variables que forman la suma, aunque en la práctica los
cálculos pueden ser largos
Cuando las variables aleatorias que se suman son
independientes, hay dos situaciones de especial interés en que
la variable suma resulta tener una distribución conocida:
Teorema: Sean X1 , ..., Xn v.a. independientes. Entonces:
1. Si la distribución de Xi es binomial Bi(mi , p ), entonces la
distribución de X1 + ... + Xn es Bi(m, p ), siendo
m = m1 + ... + mn
2. Si la distribución de Xi es de Poisson con parámetro λi ,
entonces la distribución de X1 + ... + Xn es de Poisson con
parámetro λ = λ1 + ... + λn
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 4
Supongamos que X1 , X2 son dos v.a. independientes, y que
queremos calcular P (X1 + X2 = 1)
Si X1 Bi(4, 14 ) y X2 Bi(3, 41 ), entonces X1 + X2 tiene
distribución binomial Bi(7, 41 )
Por tanto:
7!
P (X1 + X2 = 1) = 0,251 0,756 = 0,3115
1! 6!
Si X1 tiene distribución de Poisson de parámetro 0,5 y X2
tiene distribución de Poisson de parámetro 2, entonces
X1 + X2 tiene distribucion de Poisson de parámetro 2.5
Por tanto:

2,5 2,51
P (X1 + X2 = 1) = e = 0,2052
1!
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Caso continuo

En el caso continuo, obtener cuál es la distribución de una


suma de variables aleatorias es un problema, en general, difícil
de resolver
Ahora bien, cuando las variables aleatorias que se suman son
independientes, hay un caso especial en el que sí es inmediato
obtener cuál es la distribución de la v.a. suma
Teorema: Sean X1 , ..., Xn v.a. independientes, tales que cada
una de ellas tiene una distribución normal. Si a1 , a2 , ..., an , b
son números reales (con algún ai 6= 0), entonces
Y = a1 X1 + ... + an Xn + b tiene también una distribución
normal
Si además conocemos las medias y varianzas de las v.a. Xi ,
podremos deducir la media y varianza de Y por las
propiedades de la media y de la varianza enunciadas arriba
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias

Ejemplo 5
Sean X1 y X2 dos v.a. independientes, X1 con distribución
N ( 1, 32 ) y X2 con distribución N (2, 42 ), y supongamos que
queremos calcular P (X2 2X1 < 5)
Por las propiedades de la distribución normal, Y = X2 2X1
tiene una distribución normal. Además, la media, varianza y
desviación típica de Y son:
E (Y ) = E (X2 ) 2E (X1 ) = 2 2 ( 1) = 4
Var(Y ) = Var(X2 ) + ( 2)2 Var(X1 ) = 42 + 4 32 = 52
SD(Y ) = Var(Y )1/2 = 521/2 = 7,2111
Así pues Y N(4, 52), o de modo equivalente Y N(4,
7,21112 )
Por lo tanto:
P (X2 2X1 < 5) = P (Y < 5) = DISTR.NORM(5; 4; 7,2111; 1)
Esta probabilidad es 0,5551

También podría gustarte