Documentos de Académico
Documentos de Profesional
Documentos de Cultura
U. de Alicante
2008-09
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Concepto
Caso discreto
Caso continuo
Esperanza
Independencia
Introducción
Hasta ahora hemos estudiado cuestiones de probabilidad
considerando una única v.a. cada vez
A veces la información sobre un experimento requiere más de
una v.a. para estudiar ciertos sucesos de interés
Por ejemplo, si estudiamos la relación entre el peso y estatura
en una población, el suceso “un individuo elegido al azar mide
más de 1,80 metros y pesa más de 80 kilos” no puede
expresarse con un número real o un intervalo de números
reales
Necesitamos 2 variables aleatorias, una para la estatura y otra
para el peso de los individuos, lo que generará un espacio de
probabilidad en R 2
En general, en ocasiones hay que recurrir a R n para expresar
correctamente ciertos sucesos relacionados con los
experimentos aleatorios. Necesitaremos variables aleatorias
con n componentes, es decir, vectores aleatorios
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Función de distribución
Dado un vector aleatorio bivariante (X1 , X2 ), de…nimos la
función de distribución F (t1 , t2 ) como:
F (t1 , t2 ) = PrfX1 t1 , X2 t2 g ,
f (t1 , t2 ) = PrfX1 = t1 , X2 = t2 g
Ejemplo 1
Seleccionamos un individuo al azar en una población, y le
preguntamos su grado de satisfacción con los servicios
municipales. Las respuestas posibles son: “nada satisfecho”,
“poco satisfecho”, “bastante satisfecho”, “muy satisfecho”
También le preguntamos si lleva residiendo en ese municipio
menos de seis años o no
Llamamos X1 a la v.a. que toma el valor 1 si el individuo está
“nada satisfecho” con los servicios municipales, 2 si está
“poco satisfecho”, 3 si está “bastante satisfecho” y 4 si está
“muy satisfecho”. Por otra parte, llamamos X2 a la v.a. que
toma el valor 1 si el individuo lleva viviendo en el municipio
menos de seis años, ó 2 en caso contrario
Consideradas por separado, tanto X1 como X2 son v.a.
discretas. Cuando consideramos conjuntamente las dos
variables obtenemos el vector aleatorio (X1 , X2 ). Los
resultados posibles son (1,1), (1,2), (2,1), (2,2), (3,1), (3,2),
(4,1) y (4,2)
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Distribución marginal
f 1 ( t1 ) = ∑ f (t1 , X2 )
X2
Ejemplo 1, continuación
f1 (1) = P (X1 = 1) =
= P (X1 = 1, X2 = 1) + P (X1 = 1, X2 = 2) = 0,04 + 0,07
f1 (2) = P (X1 = 2) =
= P (X1 = 2, X2 = 1) + P (X1 = 2, X2 = 2) = 0,14 + 0,17
f1 (3) = P (X1 = 3) =
= P (X1 = 3, X2 = 1) + P (X1 = 3, X2 = 2) = 0,23 + 0,23
f1 (4) = P (X1 = 4) =
= P (X1 = 4, X2 = 1) + P (X1 = 4, X2 = 2) = 0,07 + 0,05
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 1, marginal de X1
Por tanto, la función de cuantía marginal de X1 es:
t 1 2 3 4
f1 ( t ) 0,11 0,31 0,46 0,12
Esta tabla nos da las probabilidades sobre X1 sin tener en
cuenta la presencia de X2 . Estos valores se obtienen sumando
por columnas los valores de la tabla de probabilidades de
partida. Se suma por columnas porque cada columna contiene
todas las probabilidades sobre un posible resultado de X1
La función de cuantía marginal de X2 es:
t 1 2
f2 ( t ) 0,48 0,52
Esta tabla nos da las probabilidades sobre X2 sin tener en
cuenta la presencia de X1 . Los valores se obtienen sumando
por …las los valores de la tabla de prob. bivariantes de partida.
Se suma por …las porque cada …la contiene todas las prob.
sobre un posible resultado de X
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Distribución condicional
Ejemplo 1, continuación
Ejemplo 1, continuación
t 1 2 3 4
f1 j X 2 = 1 ( t ) 1/12 7/24 23/48 7/48
Ejemplo 1, continuación
Los posibles resultados de X2 cuando sabemos que X1 = 4 son
1 y 2, y las probabilidades condicionales correspondientes son:
P (X 1 =4,X 2 =1 ) 0,07
f2 jX 1 =4 (1) = P (X2 = 1 j X1 = 4) = P (X 1 =4 )
= 0,12 =
7
12
P (X 1 =4,X 2 =2 ) 0,05
f2 jX 1 =4 (2) = P (X2 = 2 j X1 = 4) = P (X 1 =4 )
= 0,12 =
5
12
Por tanto, la función de cuantía de X2 j X1 = 4 es:
t 1 2
f2 j X 1 = 4 ( t ) 7/12 5/12
Transformaciones
Si g (t1, ..., tn ) es una función de Rn en Rm , entonces
g (X1 , ..., Xn ) es un vector aleatorio discreto de dimensión m
Supongamos que estamos interesados en la v.a. Y = X1 + X2 .
Tenemos ocho resultados posibles para el vector aleatorio
(X1 , X2 ), y tenemos que analizar qué resultado de Y se
obtendrá en cada uno de esos ocho casos:
(X1 , X2 ) Probabilidad Y = X1 + X2
(1, 1) 0,04 2
(2, 1) 0,14 3
(3, 1) 0,23 4
(4, 1) 0,07 5
(1, 2) 0,07 3
(2, 2) 0,23 4
(3, 2) 0,14 5
(4, 2) 0,04 6
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Transformaciones, continuación
Vemos que Y es una v.a. discreta con la función de cuantía:
t 2 3 4 5 6
fY ( t ) 0,04 0,21 0,4 0,3 0,05
Vemos que, en algunos casos, a un posible resultado de Y le
corresponde un único resultado de (X1 , X2 ) (por ejemplo,
Y = 2 únicamente si X1 = 1 y X2 = 1). Sin embargo, otros
resultados de Y se corresponden con dos resultados de
(X1 , X2 ) (por ejemplo, Y = 3 si X1 = 1 y X2 = 2, o si X1 = 2
y X2 = 1)
En el segundo caso la probabilidad de Y = 3 se obtiene
sumando las probabilidades de todas las situaciones posibles
de (X1 , X2 ) que llevan a ese resultado de Y :
P (Y = 3) = P (X1 = 1, X2 = 2) + P (X1 = 2, X2 = 1)
= 0,07 + 0,14 = 0,21
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Integrales dobles
Si A es un subconjunto de R2 , y f (t1 , t2 ) es una función no
negativa de R2 en R, la integral doble:
Z Z
f (t1 , t2 )dt1 dt2
A
representa el volumen del cuerpo que queda por debajo de
f (t1 , t2 ) en A
El cálculo de una integral doble es, en general, más
complicado que el de una integral simple. Sin embargo,
cuando A es un conjunto de la forma A1 A2 (siendo A1 y A2
subconjuntos de R), la integral doble se puede calcular como:
Z Z Z Z
f (t1 , t2 )dt1 dt2 = f (t1 , t2 )dt2 dt1
A A1 A2
O bien como:
Z Z Z Z
f (t1 , t2 )dt1 dt2 = f (t1 , t2 )dt1 dt2
A A2 A1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo
Calculamos el volumen que queda por debajo de
f (t1 , t2 ) = 3t12 t2 en A = [0, 2] [1, 3]
Aplicando la primera de las dos fórmulas:
Z Z Z 2 Z 3
f (t1 , t2 )dt1 dt2 = 3t12 t2 dt2 dt1
A 0 1
La integral entre paréntesis es:
Z 3 t 2 =3
t22 9 1
3t12 t2 dt2 = 3t12 = 3t12 ( ) = 12t12
1 2 t 2 =1 2 2
El volumen buscado es:
Z Z Z 2 t 2 =2
t13
f (t1 , t2 )dt1 dt2 = 12t12 dt1 = 12 = 32
A 0 3 t 2 =0
Podemos hacer el cálculo también así:
Z Z Z 3 Z 2
f (t1 , t2 )dt1 dt2 = 3t12 t2 dt1 dt2
A 1 0
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo
Consideramos el vector aleatorio (X1 , X2 ). Vamos a comprobar
que la función siguiente es una función de densidad conjunta:
t1 + t2 si 0 t1 1 y 0 t2 1
f ( t1 , t2 ) =
0 en caso contrario
Para ello tenemos que calcular la integral siguiente:
Z 1 Z 1
(t1 + t2 )dt2 dt1
0 0
Ejemplo 2
Tenemos que (X1 , X2 ) es un vector aleatorio continuo con
función de densidad conjunta:
4t1 t2 si 0 t1 1 y 0 t2 1
f ( t1 , t2 ) =
0 en caso contrario
Esta función es positiva en los puntos cuyas dos coordenadas
están en el intervalo [0, 1]. Por tanto, los posibles resultados
de (X1 , X2 ) son vectores cuyas dos coordenadas están en el
intervalo [0, 1]. Las probabilidades se calculan integrando esta
función sobre el recinto que corresponda
Por ejemplo, la probabilidad de que la primera coordenada del
resultado sea mayor que 1/3 y que la segunda sea menor que
3/4 es:
Z +∞ Z 3/4
1 3
P (X1 > , X2 < ) = f (t1 , t2 )dt2 dt1 =
3 4 1/3 ∞
Z 1 Z 3/4
= 4t1 t2 dt2 dt1
1/3 0
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 2, continuación
Ejemplo 3
X1 es la demanda de té (en miles de kg.) y X2 la demanda de
café (en miles de kg.) en una región. Supongamos que el
vector aleatorio bidimensional (X1 , X2 ) es continuo y su
función de densidad conjunta es:
3 2
f (t1 , t2 ) = 5 (t1 + t1 t2 ) si 0 t1 1 y 0 t2 2
0 en caso contrario
Las probabilidades se pueden obtener integrando esta función.
Por ejemplo, la probabilidad de que la demanda de té (en
miles de kg.) sea inferior a 2/3 y que la demanda de café (en
miles de kg.) sea inferior a 1/2 es:
Z 2/3 Z 1/2
2 1 3
P (X1 < , X2 < ) = (t12 + t1 t2 )dt2 dt1
3 2 0 0 5
La integral que entre paréntesis es:
Z 1/2 t2 =1/2
3 3 2 t2 3 t 2 t1
(t12 + t1 t2 )dt2 = (t1 t2 + t1 2 ) = ( 1+ )
0 5 5 2 t 2 =0 5 2 8
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 3, continuación
t2 =2/3
3 t13 t2 3 8 4
= ( + 1) = ( + )=
5 6 16 t 2 =0 5 6 27 16 9
5
= = 0,0463
108
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Distribución marginal
A partir de la f. de densidad conjunta de (X1 , X2 ) podemos
obtener las marginales. En concreto:
Z +∞
f1 ( t ) = f (t, t2 )dt2
∞
Z +∞
f2 ( t ) = f (t1 , t )dt1
∞
Seguimos con el ejemplo 3. La primera densidad marginal es
la función de densidad de X1 =“demanda de té”. Si t es un
punto del soporte de X1 , es decir, si t 2 [0, 1], entonces:
Z +∞ Z 2
3
f1 ( t ) = f (t, t2 )dt2 = (t 2 + tt2 )dt2 =
∞ 0 5
t 2 =2
3 2 t2 3 6
= (t t2 + t 2 ) = (2t 2 + 2t ) = (t 2 + t )
5 2 t 2 =0 5 5
Si t 2
/ [0, 1], entonces f1 (t ) = 0, ya que t no está en el
soporte de X1
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 3, continuación
Ejemplo 3, marginal de X2
Distribución condicional
Si tenemos un vector aleatorio (X1 , X2 ) con función de
densidad conjunta f (t1 , t2 ), supongamos que observamos que
el valor de X2 es d. Nos interesa obtener una función que nos
diga cuál es la probabilidad de los diferentes valores de X1 ,
dado que X2 = d
De…nimos la función de densidad condicional de X1 , dado
que X2 = d, como:
f (t, d )
f1 j X 2 = d ( t ) =
f2 ( d )
De la misma forma de…nimos la función de densidad
condicional de X2 , dado que X1 = d, como:
f (d, t )
f2 j X 1 = d ( t ) =
f1 ( d )
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 3, continuación
f ( 21 , t ) 3 1
5(4 + 2t ) 1 + 2t
f2 j X 1 = 1 ( t ) = = =
2 f1 ( 12 ) 9
10
6
Ejemplo 3, continuación
Vector de esperanzas
Si (X1 , X2 ) es un vector aleatorio, la esperanza del vector
aleatorio es el vector (E (X1 ), E (X2 )), donde E (X1 ) es la
esperanza de X1 y E (X2 ) es la esperanza de X2
Tanto E (X1 ) como E (X2 ) se calculan a partir de las
respectivas distribuciones marginales
Si Y = g (X1 , ..., Xn ), siendo g : Rn ! R una función
cualquiera, entonces:
E (Y ) = ∑ g (t1 , ..., tn )f (t1 , ..., tn )
t 2D
Z Z
E (Y ) = g (t1 , ..., tn )f (t1 , ..., tn )dt1 dtn ,
Rn
en los casos discreto y continuo, respectivamente. En el
primer caso f (t1 , ..., tn ) es la función de cuantía y en el
segundo la función de densidad de (X1 , ..., Xn )
Si a1 , a2 , ..., an , b son números reales, entonces:
E (a1 X1 + a2 X2 + . . . + an Xn + b ) = a1 E (X1 ) + a2 E (X2 ) + . . . + an E (
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 1, continuación
La tabla de probabilidades conjuntas de (X1 , X2 ) es:
X2 nX1 1 2 3 4
1 0,04 0,14 0,23 0,07
2 0,07 0,17 0,23 0,05
Ejemplo 1, transformaciones
Supongamos que queremos calcular la esperanza de la v.a:
Y = X1 + 2X2 + 3
Por la propiedad de linealidad de la esperanza, es inmediato
calcularla:
E (Y ) = E (X1 ) + 2E (X2 ) + 3 = 2,59 + 2 1,52 + 3 = 8,63
Supongamos que queremos calcular la esperanza de la v.a.
W = X1 X2
Ahora no podemos aplicar la propiedad de linealidad de la
esperanza; ahora bien, teniendo en cuenta que hay ocho casos
posibles para el vector aleatorio (X1 , X2 ), y examinando el
valor de W en cada uno de estos ocho casos, deducimos que:
E (W ) = 0,04 1 1 + 0,14 2 1 + 0,23 3 1 + 0,07 4 1+
0,07 1 2 + 0,17 2 2 + 0,23 3 2 + 0,05 4 2 = 3,89
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 3, continuación
Ejemplo 3, continuación
Variables independientes
Decimos que las v.a. X1 y X2 son independientes si la
función de distribución del vector aleatorio (X1 , X2 ) coincide
con el producto de las funciones de distribución marginales
La interpretación es que, cuando dos v.a. son indendientes,
cualquier probabilidad conjunta se puede calcular a partir de
la información que se tiene por separado de X1 y de X2 .
Considerar conjuntamente las dos variables aleatorias no
aporta información nueva en ningún caso
Como la función de distribución conjunta no es muy usada en
el caso bivariante, resulta útil caracterizar la independencia
usando las funciones de cuantía y de densidad
Teorema: Si (X1 , X2 ) es un vector aleatorio bivariante,
entonces X1 y X2 son v.a. independientes si y sólo si se
cumple que f (t1 , t2 ) = f1 (t1 )f2 (t2 ) para cualesquiera t1 , t2
Vale para el caso discreto y para el caso continuo
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 1, continuación
Si X1 y X2 fueran independientes, entonces
f (t1 , t2 ) = f1 (t1 )f2 (t2 ), donde f (t1 , t2 ) es la función de
cuantía conjunta de (X1 , X2 ), y f1 (t1 ) y f2 (t2 ) son las
funciones de cuantía marginales en todos los puntos del
soporte de (X1 , X2 )
Consideramos el punto (1, 1):
f (1, 1) = P (X1 = 1, X2 = 1) = 0,04
f1 (1) = P (X1 = 1) = 0,11, y f2 (1) = P (X2 = 1) = 0,48
Como f1 (1)f2 (1) = 0,11 0,48 = 0,0528 6= f (1, 1), vemos
que X1 y X2 no son independientes
Para comprobar que no son independientes es su…ciente con
encontrar un punto del soporte que no satisfaga la igualdad;
pero para comprobar que sí son independientes tendríamos
que comprobar que la igualdad se satisface en todos los
puntos del soporte
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 2, continuación
A partir de la función de densidad conjunta de (X1 , X2 ), que
llamamos f (t1 , t2 ), podemos deducir las funciones de densidad
marginales de X1 y de X2 , que llamaremos f1 (t ) y f2 (t )
Recordamos que f (t1 , t2 ) = 4t1 t2 para 0 t1 , t2 1.
Entonces:
Z +∞ Z 1
f1 ( t ) = f (t, t2 )dt2 = 4tt2 dt2 =
∞ 0
t 2 =1
= 2tt22 t 2 =0
= 2t, si t 2 [0, 1]
Z +∞ Z 1
f2 ( t ) = f (t1 , t )dt1 = 4t1 tdt1 =
∞ 0
t 1 =1
= 2t12 t t 1 =0
= 2t, si t 2 [0, 1]
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 2, continuación
Ejemplo 3, continuación
A partir de la función de densidad conjunta de (X1 , X2 ),
llamada f (t1 , t2 ), hemos deducido arriba la función de
densidad marginal de X1 , que llamamos f1 (t ), y la función de
densidad marginal de X2 , que llamamos f2 (t ). En concreto:
Implicaciones de la independencia
Una consecuencia importante del teorema anterior es que,
bajo independencia, las densidades condicionales coinciden
con las marginales. La razón es que si hay independencia, al
condicionar no se aporta ninguna información nueva
Vemos algunas propiedades interesantes de las v.a.
independientes
Teorema: Si X1 , X2 son dos v.a. independientes, entonces:
1. E (X1 X2 ) = E (X1 )E (X2 )
2. Si a1 , a2 , b son números reales, entonces:
Ejemplo 1, continuación
E (X1 X2 ) = 3,89
Ejemplo 2, continuación
En este ejemplo
R +∞ tenemos: R 1 2
E (X1 ) = ∞ tf1 (t )dt = 0 2t dt = 2/3, y como X2 tiene la
misma densidad que X1 , también E (X2 ) = 2/3
Como sabemos que X1 y X2 sí son independientes:
4
E (X1 X2 ) = E (X1 )E (X2 ) =
9
Si estamos interesados en calcular la varianza de la v.a.
Y = 2X1 X2 + 1, como X1 y X2 son independientes:
Var(Y ) = 22 Var(X1 ) + ( 1)2 Var(X2 )
R +∞ R1
Como E (X12 ) = ∞ t 2 f1 (t )dt = 0 2t 3 dt = 1/2:
Var(X1 ) = E (X12 ) E (X1 )2 = (1/2) (2/3)2 = 1/18,
y como X2 tiene la misma densidad que X1 , también
Var(X2 ) = 1/18
1 1 5
Por tanto Var(Y ) = 4 18 + 18 = 18
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Ejemplo 4
Supongamos que X1 , X2 son dos v.a. independientes, y que
queremos calcular P (X1 + X2 = 1)
Si X1 Bi(4, 14 ) y X2 Bi(3, 41 ), entonces X1 + X2 tiene
distribución binomial Bi(7, 41 )
Por tanto:
7!
P (X1 + X2 = 1) = 0,251 0,756 = 0,3115
1! 6!
Si X1 tiene distribución de Poisson de parámetro 0,5 y X2
tiene distribución de Poisson de parámetro 2, entonces
X1 + X2 tiene distribucion de Poisson de parámetro 2.5
Por tanto:
2,5 2,51
P (X1 + X2 = 1) = e = 0,2052
1!
Concepto Caso discreto Caso continuo Esperanza Independencia Suma de variables aleatorias
Caso continuo
Ejemplo 5
Sean X1 y X2 dos v.a. independientes, X1 con distribución
N ( 1, 32 ) y X2 con distribución N (2, 42 ), y supongamos que
queremos calcular P (X2 2X1 < 5)
Por las propiedades de la distribución normal, Y = X2 2X1
tiene una distribución normal. Además, la media, varianza y
desviación típica de Y son:
E (Y ) = E (X2 ) 2E (X1 ) = 2 2 ( 1) = 4
Var(Y ) = Var(X2 ) + ( 2)2 Var(X1 ) = 42 + 4 32 = 52
SD(Y ) = Var(Y )1/2 = 521/2 = 7,2111
Así pues Y N(4, 52), o de modo equivalente Y N(4,
7,21112 )
Por lo tanto:
P (X2 2X1 < 5) = P (Y < 5) = DISTR.NORM(5; 4; 7,2111; 1)
Esta probabilidad es 0,5551