Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir
nos concentraremos en variables aleatorias bidimensionales por cuanto son las ms simples de
describir, fundamentalmente en relacin a la notacin. Pero debemos tener presente que las propiedades
que estudiemos para ellas se pueden extender sin demasiada dificultad al caso general.
Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la
Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por
ejemplo:
RXY = ( x , y ) : a x b; c y d
(no numerable)
83
RXY = ( x, y ) : x 2 + y 2 1
(no numerable)
cuyas grficas se pueden apreciar en la figura siguiente. Notar en el ltimo recorrido, X es v.a. continua
e Y discreta.
y
3
c3
2
1
c1
0
RXY
0
0
c2
-1
-1
Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera:
( X ,Y ) es v.a. bidimensional discreta si X e Y son discretas
( X ,Y ) es v.a. bidimensional continua si X e Y son continuas
El caso X continua, Y discreta (o viceversa) no lo consideramos.
Sea ( X ,Y ) una variable aleatoria bidimensional discreta y sea RXY su recorrido (numerable). Sea
p : RXY R una funcin que a cada elemento (xi , y j ) le asigna un nmero real p (xi , y j ) tal que
p xi , y j = 1
p xi , y j =
(xi , y j )R XY
i
j
A esta funcin la llamaremos funcin de probabilidad puntual conjunta de la variable aleatoria
bidimensional ( X ,Y ) . En forma abreviada la designaremos fdp conjunta.
b)
Sea ( X ,Y ) una variable aleatoria bidimensional continua y sea RXY su recorrido (no numerable). Sea
f : RXY R una funcin que, a cada punto ( x , y ) de RXY le asigna un nmero real f ( x , y ) tal que
a) f ( x, y ) 0
b)
( x, y ) R 2
f (x, y )dxdy = 1 .
R2
Ejemplos:
1-Dos lneas de produccin, sealadas I y II, manufacturan cierto tipo de artculo a pequea escala.
Supngase que la capacidad mxima de produccin de la lnea I es cinco artculos por da, mientras que
para la lnea II es 3 artculos/da. Debido a los innumerables factores presentes en todo proceso de
produccin, el nmero de artculos realmente producido por cada lnea puede pensarse como una
variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( X ,Y ) discreta,
donde la primera componente X corresponde a la produccin de la lnea I y la segunda componente
Y a los artculos que salen de la lnea II. La fdp conjunta correspondiente a variables aleatorias
bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a.
( X ,Y ) que nos interesa aqu la tabla correspondiente a p(xi , y j ) es
Y X
0
1
2
3
0
0.01
0.01
0.01
0.01
0.02
0.03
0.02
0.03
0.04
0.05
0.04
0.05
0.05
0.05
0.06
0.07
0.06
0.05
0.06
0.09
0.08
0.06
0.05
P (B ) = P ( X > Y ) =
p(x , y ) = 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+
3
y j = 0x i > y j
+0.05+0.05+0.06+0.06+0.05=0.75.
2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en
diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e
independientemente del otro.
Sean las variables aleatorias X: n de clientes que escogen la caja 1 e Y: n de clientes que escogen la
caja 2. Hallar la fdp conjunta de (X,Y)
Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados
S = {(1,1); (1,2); (1,3); (2,1); (2,2); (2,3); (3,1); (3,2); (3,3)} donde la primera componente del par indica la
caja elegida por el cliente 1 y la segunda componente del par indica la caja elegida por el cliente 2.
Adems notar que X como Y pueden tomar los valores 0, 1, 2
85
P ( X = 2, Y = 0) =
1;
9
P ( X = 0, Y = 1) =
2,
9
P ( X = 1, Y = 1) =
2,
9
P ( X = 1, Y = 2) = P ( X = 2, Y = 2) = 0
Y\X
0
1
2
0
1/9
2/9
1/9
1
2/9
2/9
0
2
1/9
0
0
3- Supongamos que una partcula radiactiva se localiza aleatoriamente en un cuadrado con lados de
longitud unitaria. Es decir, si se consideran dos regiones de la misma rea, la partcula tendr igual
probabilidad de estar en cualquiera de ellas. Sean X e Y las coordenadas que localizan la partcula. Un
modelo adecuado para la distribucin conjunta de X e Y sera considerar a (X, Y) continua con fdp dada
por
1 si 0 x 1; 0 y 1
f ( x, y ) =
0 caso contrario
Es conveniente hacer un grfico en el plano del dominio de la fdp
Por lo tanto
0.40.2
P( X 0.2, Y 0.4) =
{X
0.2, Y 0.4}
86
f ( x, y ) =
0 para ( x, y ) RXY
c=
R XY
1
rea (RXY )
1
y=x
y = x2
0
0
rea (RXY ) = dx dy =
0
f ( x, y ) =
0
x2
1
(x x )dx = 6 .
1
Por lo tanto
{X = 2} ({Y = 0} {Y = 1} {Y = 2} {Y = 3}) =
= ({X = 2} {Y = 0}) ({X = 2} {Y = 1}) ({X = 2} {Y = 2}) ({X
= 2} {Y = 3})
Entonces
P( X = 2 ) =
= P( X = 2, Y = 0) + P( X = 2, Y = 1) + P( X = 2, Y = 2) + P( X = 2, Y = 3) = P( X = 2, Y = j )
j =0
P ( X = i ) = P ( X = i, Y = j )
i = 0,1,...,5
j =0
P(Y = j ) = P( X = i, Y = j )
j = 0,1,2,3
i =0
p( xi ) = P( X = xi ) = p (xi , y j )
m
(i=1,2,,n)
j =1
i =1
partir de p (xi , y j ) en la forma indicada, coincide con la funcin de probabilidad de la variable aleatoria
unidimensional X considerada en forma aislada. Anlogamente la funcin de probabilidad marginal de
Y, es decir q ( y j ) calculada a partir de p (xi , y j ) en la forma indicada, coincide con la funcin de
probabilidad de variable aleatoria unidimensional Y considerada en forma aislada.
Ejemplo:
Siguiendo con el ejemplo 1,
88
q(1) = P(Y = 1) = p(0,1) + p(1,1) + p(2,1) + p(3,1) + p(4,1) + p(5,1) = 0.01 + 0.02 + 0.04 + 0.05 + 0.06
= 0.26
Observemos que se verifica la condicin de normalizacin para cada una de las marginales:
5
xi = 0
y j =0
0.2 1
0 0
P ( X x ) = P ( X x, < Y < ) =
f ( x, y )dydx = g ( x)dx
donde
f ( x, y)dy = g ( x)
f ( x, y )dxdy =
h( x)dx
donde
f ( x, y)dy = h( x)
g (x ) =
f (x , y )dy
h( y ) =
f (x , y )dx
89
f (x , y )dydx =
a
= g ( x )dx
a
Ejemplo: Consideremos nuevamente la v.a. continua (X,Y) uniformemente distribuida cuyo recorrido
RXY dibujamos otra vez
y
2
1
y=x
y = x2
0
0
f ( x, y ) =
0
(
)
f
x
,
y
dy
=
6dy = 6 x x 2
0 x 1
g ( x ) =
x2
para los dems valores
0
f (x, y )dx =
h( y ) =
0
6dx = 6(
yy
0 y 1
90
0
0.01
0.01
0.01
0.03
0.01
0.02
0.03
0.02
0.08
0.03
0.04
0.05
0.04
0.16
0.05
0.05
0.05
0.06
0.21
0.07
0.06
0.05
0.06
0.24
0.09
0.08
0.06
0.05
0.28
0.25
0.26
0.25
0.24
1
Supongamos que deseamos conocer la probabilidad de que la lnea I produzca tres artculos sabiendo
que la lnea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces
P X = 3 , Y = 2
= p (3,2 ) = 0.05 = 0.2
P(X = 3 Y = 2) =
P(Y = 2 )
q (2 )
0.25
En general definimos la funcin de probabilidad puntual de X condicional a Y como sigue:
p(xi , y j )
p xi y j = P X = xi Y = y j =
, es decir como el cociente de la funcin de probabilidad
q(y j )
) (
b) Caso continuo
Como ocurre con la variables aleatoria continuas en general, el definir la probabilidad condicional de
ocurrencia de un valor dado de una de las variables aleatorias del par ( X ,Y ) supuesto que ocurri la
otra, presenta las dificultades conocidas relacionadas con el hecho de que la probabilidad de un punto es
cero. Entonces probabilidades tales como P X = xi Y = y j tienen el problema que P (Y = y j ) = 0 .
Sea ( X ,Y ) una variable aleatoria bidimensional continua cuya fdp conjunta es f ( x , y ) . Sean g ( x ) y
h( y ) la fdp marginales de X e Y, respectivamente. Definimos la funcin de densidad de probabilidad de
f (x , y )
h( y )
con h( y ) > 0 .
91
h( y x ) =
f (x , y )
g (x )
con g ( x ) > 0 .
P(a X b Y = c ) = g (x c )dx =
a
f (x ,c )dx
a
h(c )
Observemos que si quisiramos calcular esta probabilidad usando la fdp conjunta, es decir, refirindonos
al recorrido completo, llegaramos a una indeterminacin:
P[(a X b ) I (Y = c )]
P(a X b Y = c ) =
=
P(Y = c )
a
+
c
c
dx dyf (x , y )
dx dyf (x , y )
0
.
0
g (x )dx = P(a X b ) ,
mientras que
g (x y )dx = P(a X b Y = y ) .
a
Ejemplo:
Una mquina vendedora de refrescos se llena al principio de un da dado con una cantidad aleatoria Y, y
se despacha durante el da una cantidad aleatoria X (medida en galones). No se le vuelve a surtir durante
el da y entonces X Y
Se ha observado que (X,Y) tienen la densidad conjunta
1 / 2
f ( x, y ) =
0
si 0 x y; 0 y 2
caso contrario
92
Hallamos la densidad condicional de X dado Y. Para esto primero encontramos la fdp marginal de Y
y
(1 / 2) y si 0 y 2
(1 / 2)dx si 0 y 2
=
h( y ) = f ( x, y )dx =
0
0 caso contrario
0 caso contrario
h( y | x) =
1/ 2
f ( x, y )
= (1 / 2) y
g ( x)
0
si
0<x y2
caso contrario
1
si 0 < x y 2
= y
0
caso contrario
P( X 1 / 2 | Y = 1) =
1/ 2
1/ 2
f ( x | y = 1)dx = (1)dx = 2
Notar que si la mquina hubiera contenido 2 galones al principio del da, entonces
1/ 2
P( X 1 / 2 | Y = 2) =
1/ 2
f ( x | y = 1)dx =
1
2
dx =
1
4
f ( x , y ) = g ( x )h( y ) ( x , y ) R 2
93
Observacin: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorizacin
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( X ,Y ) .
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorizacin para
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de
acuerdo con la definicin, que las variables X e Y son no independientes, es decir, que son dependientes.
Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la
factorizacin sealada.
Vimos que dos sucesos A y B son independientes si y slo si P( A B ) = P( A) y P(B A) = P(B ) (donde
por supuesto deba ser P( A) 0 y P(B ) 0 ). En trminos de variables aleatorias, esta forma de ver la
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp
marginales, como demostramos en este
Teorema
a) Sea ( X ,Y ) una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y
( X ,Y ) una
b) Sea
b1) g (x y ) = g ( x ) ( x , y ) R 2 , o
b2) h( y x ) = h( y ) (x , y ) R 2 , que es equivalente al anterior.
Dem.)
a) Demostraremos solamente a1). La equivalencia entre a1) y a2) la dejamos como ejercicio.
Para demostrar a1) verificaremos la doble equivalencia entre sta y la definicin de v.a. independientes.
)
Sean X e Y variables aleatorias independientes. Entonces (xi , y j ) R XY
p xi y j =
p xi y j = p( xi )
p(xi , y j )
q(y j )
Aqu, la primera implicacin se debe a la definicin de fdp condicional y la tercera a la definicin de v.a.
independientes.
b) Tambin demostramos slo b1) y dejamos como ejercicio demostrar la equivalencia entre b1) y b2).
)
Sean X e Y variables aleatorias independientes. Entonces ( x , y ) R 2
f ( x , y ) g ( x )h( y )
g (x y ) =
=
= g (x )
h( y )
h( y )
Aqu la primera igualdad es la definicin de fdp condicional y la segunda sale de la definicin de
independencia al suponer que X e Y son independientes.
)
Supongamos que se verifica b1). Entonces ( x , y ) R 2
g (x , y )
g (x y ) = g ( x )
= g ( x ) f ( x , y ) = g ( x )h( y ) X e Y independientes.
h( y )
Aqu, la primera implicacin se debe a la definicin de fdp condicional y la tercera a la definicin de v.a.
independientes.
Ejemplos:
1- Supongamos que una mquina se usa para un trabajo especfico a la maana y para uno diferente en
la tarde. Representemos por X e Y el nmero de veces que la mquina falla en la maana y en la tarde
respectivamente. Supongamos que la tabla siguiente da la funcin de probabilidad conjunta p (xi , y j ) de
la variable aleatoria bidimensional discreta ( X ,Y ) .
Y/X
q(yj)
0
1
2
P(xi)
0.1
0.04
0.06
0.2
0.2
0.08
0.12
0.4
0.2
0.08
0.12
0.4
0.5
0.2
0.3
1
p (2 ,1) 0.08
=
= 0.4 = p (2 ) . Para demostrar la independencia por este camino habra que
q (1)
0 .2
demostrar que se cumple la condicin para el resto de los pares de valores. Se deja este clculo como
ejercicio optativo.
p (2 1) =
2- Sean X e Y v.a. continuas que representan el tiempo de vida de dos dispositivos electrnicos.
Supongamos que la fdp conjunta de la v.a. continua ( X ,Y ) es:
e ( x + y ) 0 x < , 0 y <
f ( x, y ) =
0 para los dems valores
Deseamos saber si X e Y son variables aleatorias independientes.
Calculamos las fdp marginales de X e Y :
g (x ) =
h( y ) =
f (x , y )dy = e
f (x , y )dx = e
(x + y )
dy =e x
( x + y )
dx =e y
e x
0x<
g (x ) =
para los dems valores
0
e y
0 y<
h( y ) =
para los dems valores
0
Vemos que efectivamente
e ( x + y ) = e x e y 0 x < , 0 y <
f ( x, y ) = g ( x )h( y ) =
para los dems valores
0
Es decir X e Y son v.a. independientes.
Tambin podemos verificar la condicin b1):
e ( x + y )
x
0 x<
f ( x, y ) y = e
2
g (x y ) =
= e
= g ( x ) ( x. y ) R
h( y )
0 para los dems valores
96
8 xy 0 x y 1
f ( x, y ) =
0 para los dems valores
y
2
y=x
1
RXY
x
0
1
2
8 xydy = 4 x (1 x ) 0 x 1
g (x ) = x
0 para los dems valores
y
3
8 xydx = 4 y 0 y 1
h( y ) = 0
0 para los dems valores
f ( x , y ) = 8 xy 16 x 1 x 2 y 3 = g ( x )h( y ) .
Luego X e Y son variables aleatorias dependientes.
Observaciones
1- De la definicin de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la
fdp conjunta determina unvocamente las fdp marginales. Es decir, si ( X ,Y ) es discreta del
conocimiento de la funcin de probabilidad conjunta p (xi , y j ) podemos determinar unvocamente las
funciones de probabilidad p( xi ) y q ( y j ) . Anlogamente, si ( X ,Y ) es continua del conocimiento de la
97
98
Xi =
i = 1,2,..., n
caso contrario
0
Notar que a cada X i se la puede considerar B (1, p ) , y adems X 1 , X 2 ,..., X n son independientes
Podemos escribir Z = X 1 + X 2 + ... + X n
2- Sea Z v.a. binomial negativa con parmetros r y p, es decir Z ~ BN ( r , p )
Si definimos
X 1 : nmero de repeticiones del experimento requeridos hasta el 1 xito
X 2 : nmero de repeticiones del experimento adicionales requeridos hasta el 2 xito
X 3 : nmero de repeticiones del experimento adicionales requeridos hasta el 3 xito
Y en general
X i : nmero de repeticiones del experimento adicionales despus del (i-1)simo xito requeridos hasta
el i-simo xito
Entonces cada variable tiene distribucin geomtrica con parmetro p y Z = X 1 + X 2 + ... + X r
Notar adems que X 1 , X 2 ,..., X r son independientes
y sea una funcin real de dos variables z = H ( x , y ) de manera que podemos definir una variable
aleatoria Z que es funcin de la variable aleatoria bidimensional ( X ,Y ) de la forma Z = H ( X ,Y ) . Si la
fdp de Z es q ( zi ) , si Z es discreta, o q( z ) si es continua, entonces la esperanza matemtica de Z es, de
acuerdo con la definicin general,
E (Z ) =
z .q(z )
i
(para Z discreta)
x i R X
E (Z ) =
zq(z )dz
(para Z continua)
E (Z ) = E [H ( X ,Y )] =
H (x , y )p(x , y )
( xi , y j )R XY
b) Si Z es variable aleatoria continua que proviene de la variable aleatoria continua bidimensional (X,Y)
cuya fdp conjunta es f ( x , y ) , entonces:
99
E (Z ) = E [H ( X ,Y )] =
H (x , y ) f (x , y )dxdy .
h(r ) = 9
dems valores
0 dems valores
Nos interesa considerar el voltaje v = i .r de manera que podemos definir la variable aleatoria V = I .R .
Especficamente deseamos conocer el valor esperado o esperanza matemtica del voltaje: E (V ) .
Usando la propiedad establecida en el teorema anterior:
2i
g (i ) =
0
E (V ) =
0 i 1
H (i ,r ). f (i ,r )didr . Ahora bien, puesto que consideramos que I y R son variables aleatorias
2 2
i .r si 0 i 1 y 0 r 3
f (i ,r ) = 9
dems valores
0
Entonces
3
2 2 23 3 1 2
3
E (V ) = dr di (i .r ). i .r = r dr i di =
9
90
2
0
0
0
Esperanza de una suma de variables aleatorias
Sean X e Y dos variables aleatorias arbitrarias. Entonces E ( X + Y ) = E ( X ) + E (Y ) .
Dem.) en el teorema anterior consideramos H ( x, y ) = x + y
Si (X,Y) es discreta
E (Z ) = E[H ( X , Y )] =
H (x , y )p(x , y ) = ( x
(xi , y j )R XY
+ y j ) p( xi , y j ) =
( xi , y j )R XY
(x
( xi , y j )R XY
+ y j ) p ( xi , y j ) =
i
( xi , y j )R XY
p ( xi , y j ) +
j
( xi , y j )R XY
p( xi , y j ) =
100
= xi p ( xi , y j ) + y j p ( xi , y j ) = xi p ( xi , y j ) + y j p ( xi , y j ) =
i
Pero
p( x , y
i
) = p ( xi ) y
p( x , y
i
) = q ( y j ) , por lo tanto
= xi p ( xi ) + y j q ( y j ) = E ( X ) + E (Y )
i
n
n
E ai X i = ai E ( X i ) .
i =1
i =1
Ejemplos:
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la
esperanza matemtica de una variable aleatoria X distribuida binomialmente.
Sea entonces una v.a. XB(n,p).
Ya vimos que podemos escribir X = X 1 + X 2 + ... + X n donde cada X i se la puede considerar B(1, p ) ,
y adems X 1 , X 2 ,..., X n son independientes
Entonces
E ( X i ) = 1 P( X i = 1) + 0 P( X i = 0) = P( X i = 1) = p para cualquier i
Por lo tanto
E ( X ) = E ( X 1 + X 2 + ... + X n ) = E ( X 1 ) + E ( X 2 ) + ... + E ( X n ) = p + p + ... + p = np
14
4244
3
n veces
Observacin: muchas veces es conveniente descomponer una variable aleatoria como suma de otras ms
simples para facilitar los clculos
2- Esperanza de una v.a. binomial negativa
Cuando se trat la v.a. binomial negativa se dijo cul era su esperanza. Ahora damos una demostracin
Sea X v.a. binomial negativa con parmetros r y p, es decir X ~ BN ( r , p )
Si definimos
101
Xi =
0 caso contrario
E( X ) =
1 N 1
1
n
1
= n
E ( X i ) = P ( X i = 1) =
N
N
n
Por lo tanto
E ( X ) = E ( X 1 + X 2 + ... + X M ) = E ( X 1 ) + E ( X 2 ) + ... + E ( X Mr ) =
n n
n
n nM
+ + ... + = M
=
N 44
N2443
N
N
N
1
M veces
102
H (x , y ) f (x , y )dxdy , tenemos:
E ( X .Y ) =
f ( x , y ) = g ( x )h( y ) , donde g ( x ) y h( y ) son las fdp marginales de X e Y que sabemos coinciden con las
fdp de X e Y tomadas como variables aleatorias unidimensionales. Luego:
E ( X .Y ) =
= E ( X ).E (Y ) ,
r2
0r3
h(r ) = 9
0 dems valores
Nos interesa considerar el voltaje v = i .r de manera que podemos definir la variable aleatoria V = I .R .
Hallar el valor esperado o esperanza matemtica del voltaje: E (V ) .
Como I y R son independientes, usando la propiedad anterior
2i 0 i 1
g (i ) =
0 dems valores
E (V ) = E ( I ) E ( R)
1
i3
E ( I ) = i (2i )di = 2
3
0
E (V ) =
2
=
3
r2
E ( R ) = r
9
0
3
1 r4
dr =
9 4
=
0
1 34
=1
9 9
2
2
1 =
3
3
V ( X + Y ) = V ( X ) + V (Y ) + 2 XY
con XY = E ( X .Y ) E ( X ).E (Y )
V ( X + Y ) = E X 2 + 2.X .Y + Y 2 [E ( X ) + E (Y )]
( )
( ) {
= E X 2 + 2 E ( X .Y ) + E Y 2 [E ( X )] + 2 E ( X )E (Y ) + [E (Y )]
2
Agrupando convenientemente:
{( )
} {( )
V ( X + Y ) = E X 2 [E ( X )] + E Y 2 [E (Y )] + 2{E ( X .Y ) E ( X )E (Y )}
2
= V ( X ) + V (Y ) + 2{E ( X .Y ) E ( X )E (Y )}
, es decir
V ( X + Y ) = V ( X ) + V (Y ) + 2 XY
XY = E ( X .Y ) E ( X ).E (Y ) se la llama la covarianza de X e Y.
Observaciones:
1- Teniendo presente la definicin de la desviacin estndar de una v.a. X: X = V ( X ) , vemos que a la
propiedad anterior la podemos escribir:
V ( X + Y ) = X2 + Y2 + 2 XY
2- Anlogamente se prueba que V ( X Y ) = X2 + Y2 2 XY
3- X e Y son independientes, entonces V ( X + Y ) = V ( X Y ) = V ( X ) + V (Y )
Esto es porque si las variables aleatorias X e Y son independientes, entonces E ( X .Y ) = E ( X ).E (Y ) .
Por lo tanto la covarianza vale cero : XY = E ( X .Y ) E ( X ).E (Y ) = 0 .
4- Podemos generalizar, usando el principio de induccin completa, al caso de n variables aleatorias
independientes:
Si X 1 , X 2 ,..., X n son n variables aleatorias independientes entonces:
n
n
V ( X 1 + X 2 + ... + X n ) = V ( X 1 ) + V ( X 2 ) + ... + V ( X n ) o, en forma ms compacta, V X i = V ( X i ) .
i =1 i =1
5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las
esperanzas E ( X + Y ) = E ( X ) + E (Y ) cualesquiera sean X e Y . En cambio la varianza de la suma de las
variables aleatorias X e Y es, en general, igual a la suma de las varianzas, V ( X + Y ) = V ( X ) + V (Y ) , slo
si X e Y son variables independientes.
Ejemplos:
1- Podemos ejemplificar la aplicacin de las propiedades de la varianza, calculando nuevamente la
varianza de una v.a. X distribuida binomialmente con parmetros n y p.
Sea entonces una v.a. XB(n,p). Vimos que se puede escribir:
104
X = X 1 + X 2 + ... + X n , donde las n variables aleatorias son independientes entre s y tienen todas la
misma distribucin:
X i B(1, p ) i = 1,2 ,..., n
Entonces, tratndose de n variables aleatorias independientes
V ( X ) = V ( X 1 ) + V ( X 2 ) + ... + V ( X n ) todas la varianzas son iguales y podemos escribir la suma como n
veces una cualquiera de ellas:
V ( X ) = nV ( X i ) . Pero
( )
V ( X i ) = E X i2 [E ( X i )] .
Ya vimos que E ( X i ) = 1. p + 0(1 p ) = 0
2
( )
Entonces: V ( X i ) = E X i2 [E ( X i )] = p p 2 = p(1 p ) .
Luego:
V ( X ) = nV ( X i ) = np (1 p )
que es el resultado que habamos obtenido a partir de la definicin y llevando las sumas involucradas a
la forma del desarrollo de un binomio de Newton.
2
5.7 - Covarianza
Sean X e Y dos variables aleatorias. La covarianza de X e Y se define:
( X ,Y ) es
con H ( x , y ) = [x E ( X )].[ y E (Y )]
Dem. )
Segn vimos, si X e Y son variables aleatorias independientes, entonces E ( X .Y ) = E ( X ).E (Y ) , de donde
se sigue la propiedad.
Propiedades de la covarianza
Las siguientes propiedades son tiles y su verificacin se deja como ejercicio
1- Cov (a + bX , c + dY ) = bdCov ( X , Y )
2- Cov ( X + Y , Z ) = Cov ( X , Z ) + Cov (Y , Z )
m
n
n m
3- Cov X i , Y j = Cov( X i , Y j )
j =1
i =1
i =1 j =1
4- Cov ( X , X ) = V ( X )
N N N 1
Para facilitar la demostracin supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar la varianza del nmero de bolillas blancas extradas
Como antes definimos las variables
1 si la i sima bolilla roja es extrada
Xi =
0 caso contrario
1 n 1 n
E ( X i ) = P ( X i = 1) =
=
N
N
n
V ( X i ) = E ( X i ) (E ( X i ) ) =
2
n n
n
=
N N
N
1
N
Cov( X , X
i
i1< j M
Cov ( X i ; X j ) = E ( X i X j ) E ( X i ) E (Y j )
n( n 1)
n( n 1) n
E( X i X j ) =
, entonces Cov ( X i ; X j ) =
N ( N 1)
N ( N 1) N
106
n( n 1) n
n
Aplicando algunos pasos algebraicos se llega a Cov ( X i ; X j ) =
=
N ( N 1) N
N
Reemplazando
M
n
n M
n
1 n
V ( X ) = V ( X i ) + 2 Cov( X i , X j ) = M 1 + 2
1
N N 2 N 1 N N
i =1
i1< j M
n
1
1
N
N 1
M N M N n
N N N 1
(xi yi)
De la figura a se deducira que entre X e Y no hay ningn tipo de relacin funcional. La figura b sugiere
la posibilidad de que exista una relacin funcional que corresponde a una parbola. La figura c, por su
parte, sugiere una relacin lineal entre X e Y . Este ltimo es el comportamiento que nos interesa
caracterizar. Con ese fin definimos el coeficiente de correlacin lineal como sigue:
107
Sea ( X ,Y ) una variable aleatoria bidimensional. Definimos el coeficiente de correlacin lineal entre
Cov ( X , Y )
X e Y como XY =
XY
En consecuencia:
XY =
Propiedad 1
Si X e Y son variables aleatorias independientes entonces XY = 0 .
Dem.) inmediata a partir del hecho que si X e Y son independientes entonces E ( XY ) = E ( X ) E (Y )
Observacin: La inversa no es necesariamente cierta. Puede ser que XY = 0 y sin embargo X e Y no
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( X ,Y ) que da
lugar a un diagrama de dispersin como el que se muestra en la figura, veremos que correspondera a un
coeficiente de correlacin lineal XY = 0 y sin embargo la figura sugiere que entre X e Y existe la
relacin funcional X 2 + Y 2 = 1 , es decir X e Y son v.a. dependientes. En realidad, como veremos, XY es
una medida de la existencia de una relacin lineal entre X e Y y una circunferencia se aleja mucho de
una lnea recta.
y
1
-2
-1
-1
Propiedad 2 :
1 XY 1
Dem.)
108
Si consideramos la v.a.
X
Y
0 V
+
X Y
entonces
V ( X ) V (Y ) 2Cov( X , Y )
=
+
+
= 2(1 + XY )
2
XY
Y 2
X
Implicando que 1 XY
X
Y V ( X ) V (Y ) 2Cov ( X , Y )
=
Por otro lado: 0 V
= 2(1 XY )
2
X Y
Y 2
X Y X
Implicando que XY 1
1 XY 1
Propiedad 3 :
2
Si XY
= 1 , entonces con probabilidad 1 es Y = A.X + B donde A y B son constantes.
2
Dem.) Si XY
= 1 entonces XY = 1 o XY = 1
Si XY = 1 entonces de la demostracin anterior se deduce que
X
Y
X
Y
= 2(1 + XY ) = 0 , lo que implica que la v.a. Z =
V
+
+
tiene varianza cero. Segn la
X Y
X Y
interpretacin de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersin con
respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1
Y
<0
X
Propiedad 4 :
Si X e Y son dos variables aleatorias tales que Y = A.X + B , donde A y B son constantes,
2
entonces XY
= 1 . Si A > 0 es XY = 1 y si A < 0 es XY = 1 .
Observacin: Claramente las propiedades anteriores establecen que el coeficiente de correlacin lineal
es una medida del grado de linealidad entre X e Y.
109
6-
SUMA DE VARIABLES
CENTRAL DEL LMITE
ALEATORIAS
TEOREMA
X + Y ~ P(1 + 2 )
Dem.)
Consideramos el evento {X + Y = n} como unin de eventos excluyentes {X = k , Y = n k }
, entonces
n
P ( X + Y = n) =
P( X = k ,Y = n k ) =
k =0
P ( X = k ) P(Y = n k ) =
k =0
e 1
1k
k =0
k!
e 2
0k n
2 n k
(n k )!
X e Y independientes
=e
( 1 + 2 )
k =0
1 k 2 n k
e ( 1 + 2 )
=
k! (n k )!
n!
n!
e ( 1 + 2 )
k
nk
1 2 =
(1 + 2 )n
n!
k = 0 k!(n k )!
n
Binomio de Newton
O sea X+Y tiene distribucin Poisson con parmetro 1 + 2
2- Suma de variables aleatorias binomiales independientes
{X + Y = k }
X + Y ~ B(n1 + n2 , p)
como
unin
de
eventos
excluyentes
n1
n1
n1
n
n
P( X + Y = k ) = P( X = i, Y = k i ) = P( X = i ) P(Y = k i ) = 1 p i (1 p ) n1 i 2 p k i (1 p ) n2 k +i =
i =0
i =0
k =0 i
k i
X e Y independientes
n n
= p k (1 p) n1 + n2 k 1 2
i = 0 i k i
n1
r
En la expresin anterior si j > r entonces = 0
j
110
n1
n1 n 2
n1 + n 2
i k i =
i =0
Y entonces
n +n
P ( X + Y = k ) = 1 2 p k (1 p ) n1 + n2 k
k
O sea X+Y tiene distribucin binomial con parmetros n1 + n2 y p
Observacin: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias
independientes, usando el principio de induccin completa, es decir
1- Si X 1 , X 2 ,..., X n son n variables aleatorias independientes donde
X i ~ P (i ) para todo
n
i =0
i =0
X i ~ P ( i )
i = 1,2,..., n entonces
i =0
i =0
X i ~ B ( ni , p )
i = 1,2,..., n entonces
por
f X +Y ( z ) =
g ( z y)h( y)dy
X + Y ~ N 1 + 2 , 1 + 2
2
) y Y ~ N ( , ) entonces
2
i = 1,2,..., n entonces
i =0
i=0
i =1
~ N ( i , i2 )
aX + b ~ N(a + b, a 2 2 ) tenemos:
a X
i
i =0
i =0
i =1
Se dice
que
n
a X
i
i =0
111
i =1
i = 15 + 5 + 8 + 12 = 50 y
i =1
2
i
2
i
= 4 2 + 12 + 2 2 + 3 2 = 30
i =1
t 50
t 50
Entonces P (T > t ) = 1
= 0.01 , es decir
= 0.99
30
30
t 50
Buscando en la tabla de la normal
= 2.33 t = 2.33 30 + 50 = 62.7619
30
3- El ancho del marco de una puerta tiene una distribucin normal con media 24 pulgadas y desviacin estndar de 1/8 de pulgada. El ancho de la puerta tiene una distribucin normal con media 23.875 de pulgadas y desviacin estndar de 1/16 de pulgadas. Suponer independencia.
a) Determine la distribucin, la media y la desviacin estndar de la diferencia entre el ancho
del marco y de la puerta.
b) Cul es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea mayor que de pulgada?.
112
5
1 1
V ( X Y ) = V ( X ) + V (Y ) = + =
256
8 16
2
16
X Y =
5
16
2 5
0.25 0.125
5
5
16
2 5
2 5
0 0.125
= 1
P ( X Y < 0) =
=
5 = 0.1867
5
5
16
4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respectivamente, de una pieza.
Supongamos adems que X e Y son independientes y que X ~ N(2 , 0.12 ) , Y ~ N(5 , 0.22 ).
Entonces Z = 2X + 2Y es una v.a. que representa el permetro de la pieza.
Calcular la probabilidad de que el permetro sea mayor que 14.5 cm.
2
0
.
2
5- Si se aplican dos cargas aleatorias X 1 y X 2 a una viga voladiza como se muestra en la figura siguiente, el momento de flexin en 0 debido a las cargas es a1 X 1 + a 2 X 2 .
a) Suponga que X 1 y X 2 son v.a. independientes con medias 2
y 4 KLbs respectivamente, y desviaciones estndar 0.5 y
1.0 KLbs, respectivamente.
Si a1 = 5 pies y a 2 = 10 pies, cul es el momento de flexin
esperado
y
cul
es
la
desviacin
estndar del momento de flexin?
b) Si X 1 y X 2 estn normalmente distribuidas, cul es la
113
probabilidad
de
flexin supere 75 KLbs?
que
el
momento
de
65
4
Z =
65
4
65
Por lo tanto
10 65
75 50
= 1 (6.20 ) 1 1 = 0
P( Z > 75) = 1
= 1
65
13
i =1
2
n
X
i =1
1
para todo i = 1,2,..., n
n
2
Adems en este caso i = y i = 2 para todo i = 1,2,..., n
ai =
n
1
1
1
=
= n = y varianza
i
n
i =1 n
i =1 n
n
2
1 2
1 2 1
2
i = = n =
n
n
i =1 n
i =1 n
2
Es decir, X ~ N ,
n
114
Ejemplo:
Una mquina embotelladora puede regularse de tal manera que llene un promedio de onzas por
botella. Se ha observado que la cantidad de contenido que suministra la mquina presenta una
distribucin normal con = 1 onza. De la produccin de la mquina un cierto da, se obtiene una
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se
miden las onzas del contenido de cada una.
a) Determinar la probabilidad de que la media muestral se encuentre a lo ms a 0.3 onzas de la
media real para tales posiciones de control
b) Cuntas observaciones deben incluirse en la muestra si se desea que la media muestral est a
lo ms a 0.3 onzas de con una probabilidad de 0.95?
Solucin:
a) Sean las variables aleatorias X i : contenido en onzas de la botella i i = 1,2,...,9
Entonces X i ~ N ( ,1) para cada i.
1
Por lo tanto X ~ N , . Se desea calcular
9
0 .3
0 .3
X
P( X 0.3) = P(0.3 X 0.3) = P
n
n
n
0 .3
X
0 .3
X
= P
= P 0 .9
0 .9 = ( 0 .9 ) ( 0 .9 ) =
n
n
n
n
= 2 (0.9) 1 = 0.6318
b) Ahora se pretende que
P( X 0.3) = P(0.3 X 0.3) = 0.95
Entonces
0.3 X
0.3
X
P( X 0.3) = P
= P 0.3 n
0.3 n = 0.95
n
n
n
n
X
P 0 .3 n
0.3 n = 2 0.3 n 1 = 0.95 0.3 n = 0.975 0.3 n = 1.96
1
1.96
O sea n
= 42.68
0 .3
Si tomamos n = 43 , entonces P( X 0.3) ser un poco mayor que 0.95
115
1
x
2
Entonces lim P(Z n z ) = ( z ) , esto es lim P n
z =
e
dx
2
n
n
2
n
n
n
n
1- Notar que E (S n ) = E X i = E ( X i ) = n y V (S n ) = V X i = V ( X i ) = n 2
i =1 i =1
i =1 i =1
S n
Por lo tanto Z n = n
es la v.a. S n estandarizada
n 2
S n n
X
S n n
2- Notar que P
z = P
z = P
, por lo tanto tambin se puede enunciar
2
2
n
n
n i =1
n
1
2
dx
116
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeos , en particular donde la
poblacin es continua y simtrica, en otras situaciones se requieren valores de n mas grandes,
dependiendo de la forma de la distribucin de las X i . En muchos casos de inters prctico, si n 30 , la
aproximacin normal ser satisfactoria sin importar cmo sea la forma de la distribucin de las X i . Si
n < 30 , el T.C.L. funciona si la distribucin de las X i no est muy alejada de una distribucin normal
4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a.
exponencial con parmetro = 0.5 , y se calcula el promedio de esos n valores. Esto se repite 1000
veces, por lo tanto tenemos 1000 valores de la v.a. X .
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo (a, b) donde caen
todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de
cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas
frecuencias obtenindose los grficos siguientes que se pueden considerar una aproximacin a la
verdadera distribucin de X .
Se observa que a medida que aumenta el valor de n los grficos se van haciendo ms simtricos,
parecindose a la grfica de una distribucin normal.
150
n=2
80
n=5
60
100
40
50
20
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829303132
40
50
40
n = 15
n = 30
30
30
20
20
10
10
1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829
Ejemplos:
1- Supngase que 30 instrumentos electrnicos D1, D2, ......,D30, se usan de la manera siguiente: tan
pronto como D1 falla empieza a actuar D2. Cuando D2 falla empieza a actuar D3, etc. Supngase que el
tiempo de falla de Di es una v.a. distribuida exponencialmente con parmetro = 0.1 por hora. Sea T el
tiempo total de operacin de los 30 instrumentos. Cul es la probabilidad de que T exceda 350 horas?
117
Solucin:
Si X i : tiempo de falla del instrumento Di
Entonces X
i = 1,2,...,30
E (T ) = E X i = 30 E ( X i ) = 30
= 300
0 .1
i =1
30
1
30
V (T ) = V X i = 30 V ( X i ) = 30 2 = 3000
0 .1
i =1
T 300
Entonces por T.C.L.
~ N(0,1) aproximadamente pues n = 30
3000
La probabilidad pedida es
T 300 350 300
350 300
P(T > 350) = P
>
1
= 1 (0.9128) = 1 0.81859 = 0.18141
3000
3000
3000
T.C.L.
2- Suponga que el consumo de caloras por da de una determinada persona es una v.a. con media
3000 caloras y desviacin estndar de 230 caloras. Cul es la probabilidad de que el promedio de
consumo de caloras diario de dicha persona en el siguiente ao (365 das) sea entre 2959 y 3050?
Solucin:
Definimos las variables aleatorias
X i : cantidad de caloras que una persona consume en el da i i = 1,2,...,365
Se sabe que E ( X i ) = 3000 y V ( X i ) = 230 2
2 230 2
1 365
entonces
E
(
X
)
=
3000
y
V
(
X
)
=
=
X
i
n
365
365 i =1
La probabilidad pedida es
230
230
230
365
365
365
Si X =
3050 3000
2959 3000
230
= (4.15) ( 3.40 ) 1 0 = 1
230
365
365
T.C.L.
118
Supongamos que X tiene una distribucin binomial con parmetros n y p. Para calcular P( X k )
k
debemos hacer la suma P( X k ) = P( X = i ) o recurrir a las tablas de la F.d.a. , pero para valores de
i=0
n grandes no existen tablas, por lo tanto habra que hacer el clculo en forma directa y muchas veces es
laborioso.
Como una opcin podemos considerar a X como suma de variables aleatorias ms simples,
especficamente, si definimos
1 si en la sima repeticin de ocurre xito
Xi =
i = 1,2,..., n
0
caso contrario
se considera P( X = k ) P k X k +
2
2
Tambin se puede usar esta correccin para mejorar la aproximacin en otros casos, especficamente en
lugar de P( X k ) calculamos
1
P ( X k ) P X k +
2
Y en lugar de P( X k ) P X k
2
En los grficos siguientes se muestra para diferentes valores de n y p cmo aproxima la distribucin
N (np, np (1 p )) a la distribucin B(n, p )
119
0.175
0.2
n = 25
p = 0.7
0.15
0.125
n = 15
p = 0.5
0.15
0.1
0.1
0.075
0.05
0.05
0.025
5
10
15
20
25
10
12
14
0.35
0.3
0.25
0.08
n =15
p = 0.9
n = 100
p = 0.7
0.06
0.2
0.04
0.15
0.1
0.02
0.05
5
10
15
50
20
60
70
80
90
100
0.4
0.1
n = 150
p = 0.1
0.08
n = 10
p = 0.1
0.3
0.06
0.2
0.04
0.1
0.02
20
40
60
80
100
120
140
10
Ejemplos:
1- Sea X B(25,0.4). Hallar las probabilidades exactas de que X 8 y X = 8 y comparar estos
resultados con los valores correspondientes encontrados por la aproximacin normal.
Solucin:
De la tabla de la F.d.a. de la binomial encontramos P( X 8) = 0.274
Y P( X = 8) = P( X 8) P( X 7) = 0.274 0.154 = 0.120
Ahora usamos la aproximacin normal
X np
8.5 10
( 0.61) = 0.2709
P( X 8) P( X 8.5) = P
np (1 p )
25
0
.
4
0
.
6
Observar que el valor aproximado est muy cercano al valor exacto para P( X 8) = 0.274
7.5 10 X 10 8.5 10
X 10
P( X = 8) P(7.5 X 8.5) = P
= P 1.02
0.61 =
6
6
6
6
= (2.474 ) = 0.993244
np (1 p )
18
18
c)
25.5 20
14.5 20
P(15 X 25) P(14.5 X 25.5)
=
18
18
121
Entonces planteamos
0.15n
P X p 0.15 = P( 0.15 X p 0.15) = P
np (1 p )
X np
np (1 p )
np (1 p )
T.C.L.
0.15n
0.15n
0.15n 0.98 + 1
Por lo tanto
= 0.99
np (1 p )
2
Adems
0.15n
np (1 p )
0.15 n
p (1 p )
0.15 n
0.5(1 0.5)
= 0 .3 n
2.33
Entonces debe cumplirse que 0.3 n 2.33 o sea n
= 60.3211
0 .3
O sea se debe tomar una muestra de al menos 61 clientes
N (0,1)
N (0,1)
i
i =1
i =1
n
~ P ( n)
i =1
122
i =1
parmetros n = n 1 = n y n 2 = n 1 = n
n
O sea la distribucin de
i =1
X n
0.05
0.2
= 50
0.04
=3
0.15
0.03
0.1
0.02
0.05
0.01
20
40
60
80
100
10
15
20
25
30
Ejemplo:
El nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil tiene una
distribucin de Poisson con parmetro = 50. Cul es la probabilidad aproximada de que:
a) entre 35 y 70 infracciones se expidan en un da en particular?
b) el nmero total de infracciones expedidas durante una semana de 5 das sea entre 225 y 275?
Solucin:
Sea X: nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil
Entonces X ~ P( ) donde = 50
X 50
Como = 50 entonces
N (0,1) (aproximadamente)
50
a) la probabilidad pedida es
70 50
35 50
P(35 X 70 )
= (2.8284 ) ( 2.12132 ) =
50
50
= 0.997599 0.017 = 0.9805
b) Sea Y: nmero total de infracciones expedidas durante una semana de 5 das
Entonces Y ~ P( ) donde = 50 5 = 250
La probabilidad pedida es
275 250
225 250
P(225 Y 275)
= (1.5811) ( 1.5811) =
250
250
123