Tarea 3 Esperanza Matematica
Tarea 3 Esperanza Matematica
Esperanza matemática
DEFINICIÓN DE ESPERANZA MATEMÁTICA
Un concepto muy importante en probabilidad y estadística es el de la esperanza matemática, valor esperado o, sim-
plemente, esperanza, de una variable aleatoria. Dada una variable aleatoria discreta X cuyos posibles valores son x1,
x2, . . . , xn, la esperanza de X se define como
n
E(X) x1P(X x1) xn P(X xn ) xj P(X xj) (1)
j 1
que se conoce como la media aritmética o simplemente la media de x1, x2, . . . , xn.
∞
Si X toma un número infinito de valores x1, x2, . . . , entonces E(X) = ∑ xj f (xj) siempre que esta sucesión infinita
converja de manera absoluta. =1
Dada una variable aleatoria continua X con una función de densidad f (x), la esperanza de X se define como
(4)
EJEMPLO 3.1 Suponga que se va a efectuar un juego con un solo dado que se considera no está cargado. En este juego,
el jugador gana $20 si obtiene 2, $40 si obtiene 4 y pierde $30 si éste es un 6; si obtiene cualquier otro número ni gana ni
pierde. Encuentre la suma esperada de dinero que puede ganar.
Sea X la variable aleatoria que da la cantidad de dinero ganada en un lanzamiento. Las cantidades que se pueden ganar
cuando cae un 1, 2,…, 6 son x1, x2, . . . , x6, respectivamente, y las probabilidades de éstas son f (x1), f (x2), . . . , f (x6). En la
tabla 3-1 se presenta la función de probabilidad de X. Por tanto, el valor esperado o esperanza es
1 1 1 1 1 1
E(X) (0) (20) (0) (40) (0) ( 30) 5
6 6 6 6 6 6
Tabla 3-1
xj 0 20 0 40 0 30
Se concluye que el jugador puede esperar ganar $5. Por tanto, si es un juego legal, el jugador puede esperar pagar $5 por
jugar.
EJEMPLO 3.2 La función de densidad de una variable aleatoria X está dada por
1
2x 0 x 2
f (x)
0 si no es así
El valor esperado de X es, entonces
@ 2 2 2
1 x2 x3 4
E(X) xf (x) dx x x dx dx
` 0 2 0 2 6 0
3
Si X toma los valores x1, x2, . . . , xn y Y los valores y1, y2, c , ym (m n), entonces y1h(y1) y2h(y2) c
ymh( ym ) g(x1)f (x1) g(x2) f (x2) C g(xn) f (xn ). Por tanto,
E[g(X)] g(x1) f (x1) g(x2) f (x2) C g(xn)f (xn )
n
g(xj) f (xj) g(x) f(x) (5)
j 1
De manera similar, sea X una variable aleatoria continua cuya densidad de probabilidad es f (x), entonces puede
demostrarse que
`
E[g(X)] g(x) f(x) dx (6)
`
Observe que ni en (5) ni en (6) intervienen, respectivamente, ni la función de probabilidad ni la función de densidad
de probabilidad de Y 5 g(X).
Es fácil hacer generalizaciones a funciones de dos o más variables aleatorias. Por ejemplo, si X y Y son dos va-
riables aleatorias continuas cuya función de densidad conjunta es f (x, y), la esperanza de g(X, Y) está dada por
` `
E[g(X, Y)] g(x, y) f (x, y) dx dy (7)
` `
En el caso especial en el que todas las probabilidades sean iguales, (13) se convierte en
Varianza pequeña
Varianza grande
Figura 3-1
EJEMPLO 3.4 Encuentre la varianza y la desviación estándar de la variable aleatoria del ejemplo 3.2. En él se determinó
que la media es m 5 E(X) 5 4y3. En consecuencia, la varianza es
2 ` 2 2 2
4 4 4 1 2
,2 E X x f (x) dx x x dx
3 ` 3 0 3 2 9
2 2
y, por tanto, la desviación estándar es , .
9 3
Observe que si X tiene alguna dimensión o unidades, como por ejemplo, centímetros (cm), entonces la varianza
de X tiene como unidades cm2, mientras que la desviación estándar tiene las mismas unidades que X, o sea, cm. A
esto se debe que la desviación estándar se usa con mayor frecuencia.
donde m 5 E(X).
Var (X Y) Var (X) Var (Y) o bien ,2X Y ,2X ,2Y (19)
El teorema 3-7 puede generalizarse con facilidad a más de dos variables independientes. En palabras, la varianza
de una suma de variables independientes es igual a la suma de sus varianzas.
Una propiedad importante de X* es que tiene media cero y varianza 1, lo que explica que se le llame estandarizada,
es decir,
E(X*) 5 0, Var(X*) 5 1 (21)
A los valores de una variable estandarizada suele llamárseles puntuaciones estándar y X se expresa en unidades
estándar (es decir, s se toma como la unidad para medir X 2 m).
Las variables estandarizadas sirven para comparar distribuciones diferentes.
MOMENTOS
El r-ésimo momento de una variable aleatoria X alrededor de la media µ, se le nombra r-ésimo momento central, se
define como
mr 5 E[(X 2m)r] (22)
donde r 5 0, 1, 2, . . . De ello se deduce que µ0 5 1, µ1 5 0 y µ2 5 s2, es decir, el segundo momento central o segun-
do momento alrededor de la media es la varianza. Se tiene, suponiendo que la convergencia es absoluta,
El r-ésimo momento de X alrededor del origen, también se le conoce como r-ésimo momento en bruto, se define
como
r E(Xr) (25)
donde r 5 0, 1, 2, . . . , para este caso existen fórmulas análogas a (23) y (24) en las que µ 5 0.
La relación entre estos momentos está dada por
r C ( 1) j
r j C ( 1)r r
(26)
r r r 1 r j 0
1 j
Como caso especial se tiene, con m19 5 m y m09 5 1.
2
2 2
3 3 3 2 2 3 (27)
4 6 2 3 4
4 4 3 2
MX (t) 1 t
t2 C tr C (31)
2 r
2! r!
La razón del nombre función generadora de momentos es que los coeficientes de esta expansión permiten hallar los
momentos. A partir de esta expansión se puede demostrar que [problema 3.15b)]
dr
r M (t) (32)
dtr X t 0
es decir, µr9 es la r-ésima derivada de MX(t) evaluada en t 5 0. Cuando no hay lugar a confusión, suele escribirse M(t)
en lugar de MX(t).
t
M(X a)b(t) eatbMX (33)
b
Teorema 3-9 Si X y Y son variables aleatorias independientes cuyas funciones generadoras de momentos son MX(t)
y MY(t), respectivamente, entonces
El teorema 3-9 puede generalizarse con facilidad a más de dos variables aleatorias independientes. En palabras, la
función generadora de momentos de una suma de variables aleatorias independientes es igual al producto de sus
funciones generadoras de momentos.
Teorema 3-10 (Teorema de unicidad) Suponga que X y Y sean variables aleatorias cuyas funciones generadoras
de momentos sean MX(t) y MY(t), respectivamente. Entonces, X y Y tienen la misma distribución de
probabilidad si y sólo si MX(t) 5 MY(t) de manera idéntica.
FUNCIONES CARACTERÍSTICAS
Si se hace t 5 iv, donde i es la unidad imaginaria, en la función generadora de momentos se obtiene una función
importante conocida como función característica. Esta función se denota como
`
X(/) ei/x f (x) dx (variable continua) (37)
`
Dado que u eivx u 5 1, tanto la serie como la integral convergen siempre de manera absoluta.
Los resultados correspondientes a (31) y (32) son
/2 C ir
/r C
X(/) 1 i 2 r
2! r! (38)
dr
donde r ( 1)rir X(/) (39)
d/r / 0
Teorema 3-11 Si fX(v) es la función característica de la variable aleatoria X y a y b (b Þ 0) son constantes, enton-
ces la función característica de (X 1 a)yb es
/ (40)
(X a)b(/) eai/ b X
b
Teorema 3-12 Si X y Y son variables aleatorias independientes cuyas funciones características son fX(v) y fY(v),
respectivamente, entonces
Teorema 3-13 (Teorema de unicidad) Suponga que X y Y sean variables aleatorias cuyas funciones características
sean fX(v) y fY(v), respectivamente. Entonces X y Y tienen la misma distribución de probabilidad
si y sólo si fX(v) 5 fY(v) de manera idéntica.
Una razón importante para introducir la función característica es que (37) representa la transformada de Fourier
de la función de densidad f (x). De acuerdo con la teoría de las transformadas de Fourier, la función de densidad
puede determinarse con facilidad a partir de la función característica. En efecto,
`
1
f (x) e i/x
X (/) d/ (42)
2 `
lo que suele conocerse como la fórmula de inversión o transformada inversa de Fourier. De manera similar, en el
caso discreto puede demostrarse que la función de probabilidad f (x) puede obtenerse de (36) usando las series de
Fourier, que en el caso discreto es la análoga a la integral de Fourier. Vea el problema 3.39. Otra razón para usar la
función característica es que ésta siempre existe, mientras que la función generadora de momentos quizá no exista.
Observe que las funciones de densidad marginal de X y de Y no intervienen directamente ni en (43) ni en (44).
Otra cantidad que surge en el caso de dos variables X y Y es la covarianza, que se define como
,XY Cov (X, Y ) E[(X X)(Y Y)] (45)
En términos de la función de densidad conjunta f (x, y), se tiene que
` `
,XY (x X)(y Y) f(x, y) dx dy (46)
` `
Observaciones similares pueden hacerse con respecto a dos variables aleatorias discretas. En tales casos, (43) y
(46) se sustituyen por
El inverso del teorema 3-15 no es necesariamente válido. Si X y Y son independientes, el teorema 3-16 se reduce
al teorema 3-7.
COEFICIENTE DE CORRELACIÓN
Si X y Y son independientes, entonces Cov(X, Y) 5 sXY 5 0. En otro caso, si X y Y son completamente dependientes,
por ejemplo, cuando X 5 Y, entonces Cov(X, Y) 5 sXY 5 sXsY. Esto conduce a una medida de la dependencia de
las variables X y Y. Dada por
,XY
+ ,X ,Y (54)
A r se le conoce como coeficiente de correlación. De acuerdo con el teorema 3-17 21 # r ≤ 1. Cuando r 5 0 (es
decir, en el que la covarianza sea cero), las variables X y Y no están relacionadas. Sin embargo, en tales casos las
variables pueden o no ser independientes. En el capítulo 8 se analizan más casos de correlación.
donde “X 5 x” se interpreta como x , X # x 1 dx en el caso continuo. Los teoremas 3-1 y 3-2 también son válidos
en el caso de la esperanza condicional.
Se apuntan las propiedades siguientes:
1. E(Y Z X 5 x) 5 E(Y) donde X y Y son independientes.
`
2. E(Y) E(Y U X x) f1(x) dx.
`
Suele ser útil calcular las esperanzas empleando la propiedad 2 en lugar de hacerlo directamente.
EJEMPLO 3.5 El tiempo promedio de viaje a una ciudad distante es c horas en automóvil y b horas en autobús. Una
persona no sabe si ir en su automóvil o ir en autobús, por lo que decide lanzar una moneda. ¿Cuál es su tiempo esperado
de viaje?
Aquí se tiene la distribución conjunta del resultado de lanzar una moneda, X, y del tiempo de viaje, Y, donde Y 5
Yautomóvil si X 5 0 y Y 5 Yautobús si X 5 1. Se supone que Yautomóvil y Yautobús son independientes de X, de manera que, de acuerdo
con la propiedad 1 dada
E(Y ) X 5 0) 5 E(Yautomóvil ) X 5 0) 5 E(Yautomóvil) 5 c
donde m2 5 E(Y ) X 5 x). También puede definirse el r-ésimo momento condicional de Y, alrededor a un valor a, dado X
como
`
E[(Y a)r U X x] (y a)r f (y U x) dy (57)
`
Los teoremas usuales de la varianza y los momentos se extienden a la varianza y a los momentos condicionales.
DESIGUALDAD DE CHEBYSHEV
Un teorema importante en probabilidad y estadística que revela una propiedad general de las variables aleatorias
(discretas o continuas) que tienen media y varianza finitas es el que se conoce como desigualdad de Chebyshev.
Teorema 3-18 (Desigualdad de Chebyshev) Suponga que X es una variable aleatoria (discreta o continua) con
media µ y varianza s 2, ambas finitas. Entonces, si e es cualquier número positivo,
,2
P(UX U 0) (58)
02
o, con e 5 ks,
1
P(UX U k,) (59)
k2
EJEMPLO 3.6 Haciendo k 5 2 en la desigualdad de Chebyshev (59), se ve que
Teorema 3-19 (Ley de los grandes números) Sean X1, X2, . . . , Xn, variables aleatorias mutuamente independien-
tes (discretas o continuas), cada una con media m y varianza s2 finitas. Entonces, si Sn 5 X1 1 X2
1 · · · 1 Xn(n 5 1, 2, . . . ),
Sn
lím P n
n3`
& 0 0 (60)
Dado que Sn yn es la media aritmética de X1, X2, . . ., Xn, este teorema afirma que la probabilidad de que la media
aritmética Sn yn difiera de su valor esperado µ, en más de e, tiende a cero a medida que n → `. Un resultado más
fuerte, que podría esperarse que fuera válido, es que lím
n3` n
S n , pero esto en realidad es falso. Sin embargo, puede
demostrarse que lím S
n3` n
n con probabilidad uno. Este resultado suele conocerse como ley fuerte de los grandes
números, mientras que al teorema 3-19 se le conoce como ley débil de los grandes números. Cuando se habla de la
“ley de los grandes números” sin calificativo, se hace referencia a la ley débil.
1. MODA. La moda de una variable aleatoria discreta es aquel valor que se presenta con más frecuencia o, en
otras palabras, tiene la mayor probabilidad de ocurrir. Algunas veces existen 2, 3 o más valores que tienen pro-
babilidades relativamente grandes de ocurrencia. En tales casos, la distribución es bimodal, trimodal o multimo-
dal, respectivamente. La moda de una variable aleatoria continua X es el valor (o los valores) de X en los que la
función de densidad de probabilidad tiene un máximo relativo.
2. MEDIANA. La mediana es el valor x para el que P(X x) 12 y P(X x) 12. En el caso de una distribu-
1
ción continua se tiene P(X x) 2 P(X x), y la mediana divide la curva de densidad en dos partes cuyas
áreas son igual a 1y2 cada una. En el caso de una distribución discreta puede no haber una mediana única (vea
el problema 3.34).
PERCENTILES
Es útil subdividir el área bajo la curva de densidad mediante el uso de ordenadas de manera que el área a la izquierda
de una ordenada sea algún porcentaje del área unitaria total. A los valores correspondientes a tales áreas se les llama
valores percentiles, o simplemente percentiles. Así, por ejemplo, en la figura 3-2 el área a la izquierda de la ordenada
xa es a. Por ejemplo, el área a la izquierda de x0.10 será 0.10, o bien 10%, y se le llamará el décimo percentil (conocido
también como primer decil). La mediana es el quincuagésimo percentil (o quinto decil).
Área
Figura 3-2
1. RANGO SEMIINTERCUARTIL. Si x0.25 y x0.75 representan los valores del vigésimo quinto y del septuagé-
1
simo quinto percentiles, la diferencia x0.75 2 x0.25 se conoce como rango intercuartil y 2 (x0.75 x0.25) es el rango
semiintercuartil.
2. DESVIACIÓN MEDIA. La desviación media (D.M.) de una variable aleatoria X se define como la esperanza
de ) X 2 µ ), es decir, suponiendo que haya convergencia,
D.M.(X) E [U X U] Ux U f (x) (variable discreta) (61)
`
D.M.(X) E [U X U] Ux U f (x) dx (variable continua) (62)
`
SESGO Y CURTOSIS
1. SESGO. Con frecuencia, las distribuciones no son simétricas respecto de algún valor, sino que tienen una de
sus colas más larga que la otra. Si la cola más larga se encuentra a la derecha, como en la figura 3-3, la distribu-
ción es sesgada a la derecha, y si la cola más larga se encuentra a la izquierda, como en la figura 3-4, es sesgada
a la izquierda. A las medidas que describen esta asimetría se les llama coeficientes de sesgo, o simplemente
sesgo. Una de estas medidas es
E[(X )3] 3
3 (63)
,3 ,3
La medida a3 será positiva o negativa si la distribución es sesgada a la derecha o a la izquierda, respectivamente.
En una distribución simétrica, a3 5 0.
Curtosis
Sesgada a Sesgada a grande
la derecha la izquierda
2. CURTOSIS. En algunos casos, las distribuciones tienen todos sus valores concentrados cerca de la media de
manera que tienen un pico grande, como indica la curva de la línea continua de la figura 3-5. En otros casos las
distribuciones pueden ser relativamente planas como la curva punteada de la figura 3-5. A las medidas del grado
de qué tan puntiaguda es una distribución se les llama coeficientes de curtosis, o simplemente curtosis. Una
medida usada con frecuencia es
E[(X )4] 4
4 (64)
,4 ,4
Esta medida acostumbra compararse con la de la curva normal (vea capítulo 4), que tiene un coeficiente de curtosis
igual a 3. Vea también el problema 3.41.
PROBLEMAS RESUELTOS
ESPERANZA DE VARIABLES ALEATORIAS
3.1. Una lotería ofrece 200 premios de $5, 20 premios de $25 y 5 premios de $100. Suponiendo que se van vender
10 000 boletos, ¿cuál es el precio justo que se debe pagar por uno de ellos?
Sea X una variable aleatoria que denote la cantidad de dinero que puede ganarse con un boleto. En la tabla 3-2
se muestran los valores de X junto con sus probabilidades. Por ejemplo, la probabilidad de obtener uno de los 20
boletos con los que se ganan $25 es 20y10 000 5 0.002. Por tanto, la esperanza de X en dólares es
E(X) 5 (5)(0.02) 1 (25)(0.002) 1 (100)(0.0005) 1 (0)(0.9775) 5 0.2
es decir 20 centavos. Por consiguiente, el precio justo a pagar por un boleto es 20 centavos. Sin embargo, como la
lotería suele tener como objeto recaudar dinero, el precio del boleto será mayor.
Tabla 3-2
x (dólares) 5 25 100 0
P(X x) 0.02 0.002 0.0005 0.9775
3.2. Encontrar la esperanza de la suma de los puntos que se obtienen al lanzar un par de dados no cargados.
Sean X y Y los puntos que aparecen al caer los dados. Se tiene
E(X) E(Y) 1
1
2
1 C 6
1 7
6 6 6 2
En consecuencia, de acuerdo con el teorema 3-2,
E(X Y) E(X) E(Y) 7
3.3. Encontrar la esperanza de una variable aleatoria discreta X cuya función de probabilidad está dada por
x
1
f (x) (x 1, 2, 3, C)
2
Tenemos
` x
E(X) x
1 1
2
1
3
1 C
x 1
2 2 4 8
Entonces,
1
S
1
2
1
3
1 C
2 4 8 16
Cuando restamos, 1
S
1 1 1 1 C 1
2 2 4 8 16
Por tanto, S 5 2.
3.4. Una variable aleatoria continua X tiene la densidad de probabilidad dada por
2e 2x x 0
f (x)
0 x 0
2x 2x `
e e 1
2 (x) (1)
2 4 0
2
` `
b) E(X2) x2f (x) dx 2 x2e 2x dx
` 0
2x 2x 2x `
e e e 1
2 (x2) (2x) (2)
2 4 8 0
2
3.5. La función de densidad conjunta de dos variables aleatorias X y Y está dada por
xy96 0 x 4, 1 y 5
f (x, y)
0 si no es así
E(X Y) (x y) f (x, y)
x y
xf (x, y) yf (x, y)
x y x y
E(X) E(Y)
Si cualquiera de estas variables es continua, la prueba es igual y se desarrolla de la misma manera, pero se sustitu-
yen los correspondientes signos de sumatoria por integraciones. Vemos que el teorema se satisface ya sea que X y
Y sean o no independientes.
Sea f (x, y) la función de probabilidad conjunta de X y Y, que se supone son discretas. Si las variables X y Y son
independientes, se tiene que f (x, y) 5 f1(x) f2(y). Por tanto,
xf1(x) yf2( y)
x y
[(xf1(x)E( y)]
x
E(X)E(Y)
Si cualquiera de estas variables es continua, la prueba se desarrolla de la misma manera que el problema anterior,
pero se sustituye las sumatorias correspondientes por integrales. Vemos que la validez de este teorema depende de
que f (x, y) pueda expresarse como una función de x multiplicada por una función de y, para toda x y y, es decir,
de que X y Y sean independientes. Para variables dependientes, en general, este teorema no es válido.
E(X2) E(Y2) 12
1
22
1 C 62
1 91
6 6 6 6
Otro método
De acuerdo con el teorema 3-4,
2
1 1 1
Var (X) E[(X )2] E(X2) [E(X)]2
2 2 4
1 1
b) , Var (X)
4 2
E(X2) 2 2 2 E(X2) 2
E(X2) [E(X)]2
ya que E(X 2 m ) 5 E(X) 2 m 5 0. A partir de lo anterior vemos que el valor mínimo de E[(X 2 a)2] se presenta
cuando ( m 2 a) 2 5 0, es decir, cuando a 5 m.
3.12. Si X* 5 (X 2 m)ys es una variable aleatoria estandarizada, demostrar que a) E(X*) 5 0, b) Var(X*) 5 1,
X 1 1
a) E(X*) E , , [E(X )] , [E(X) ] 0
E [(X 2]
X) (Y Y)
E [(X 2 2
X) 2(X X)(Y Y) (Y Y) ]
E [(X 2 2
X) ] 2E[(X X)(Y Y)] E[(Y Y) ]
Var (X ) Var(Y )
ya que X y Y y, por tanto, X 2 mX y Y 2mY, son independientes. En la prueba de (19), de la página 78, se sustituye
Y por 2 Y y se usa el teorema 3-5.
r E[(X )r]
E Xr
r r
X 1 C ( 1) j
r r
X j j
1 j
C ( 1)r 1
r
X r 1 ( 1)r r
r 1
E(Xr)
r
E(Xr 1) C ( 1) j
r
E(Xr j) j
1 j
C ( 1)r 1
r
E(X ) r 1 ( 1)r r
r 1
r C r
rR rR 1 ( 1) j rR j
j
1 j
C ( 1)r 1r r ( 1) r r
donde los últimos dos términos pueden combinarse para dar (2l)r21(r 2 1)m r.
MX(t) E(etX) E 1 tX
t2X2 t3X3 C
2! 3!
1 tE(X )
t2
E(X2)
t3
E(X3) C
2! 3!
t2 t3 C
1 t 2R 2! 3R 3!
b) Ello es consecuencia inmediata del hecho conocido del cálculo, de que la serie de Taylor de f (t) alrededor de
t 5 a es
`
f (t) cn(t a)n
n 0
1 dn
por lo que cn
n! dtn
f (t)
t a
Dado que X y Y son independientes, cualquier función de X y cualquier función de Y son independientes. Por
tanto,
MX Y (t) E[et(X Y )] E(etXetY ) E(etX )E(etY ) MX(t)MY (t)
3.17. La variable aleatoria X puede tomar los valores 1 y 21, cada uno con probabilidad 21. Encontrar a) la función
generadora de momentos, b) los primeros cuatro momentos alrededor del origen.
1 1 1 t
a) E(etX ) et(1) et( 1) (e e t)
2 2 2
b) Tenemos et 1 t
t2 t3 t4 C
2! 3! 4!
e t 1 t
t2 t3 t4 C
2! 3! 4!
En consecuencia, (1) 1 t
(e e t) 1
t2 t4 C
2 2! 4!
t2 t3 t4 C
Pero (2) MX(t) 1 t 2R 2! 3R 3!
R4
4!
Entonces, comparando (1) y (2), se tiene
0, 2 1, 3 0, 4 1, C
Los momentos impares son cero y los momentos pares valen uno.
` `
etx(2e 2x) dx 2 e(t 2)x dx
0 0
`
2e(t 2)x 2
, suponiendo que t 2
t 2 0
2 t
b) Si |t| , 2 se tiene
2 1
1
t t2 t3 t4 C
2 t 1 t2 2 4 8 16
Pero M(t) 1 t
t2 t3 t4 C
2 2! 3 3! 4 4!
1 1 3 3
Por tanto, comparando términos 2, 2 2, 3 4, 4 2.
3.19. Determinar los primeros cuatro momentos a) alrededor del origen, b) alrededor de la media, de una variable
aleatoria X cuya función de densidad es
4x(9 x2)81 0 x 3
f (x)
0 si no es así
3
4 8
a) 1 E(X) x2(9 x2) dx
81 0 5
3
4
2 E(X2) x3(9 x2) dx 3
81 0
3
4 216
3 E(X3) x4(9 x2) dx
81 0 35
3
4 27
4 E(X4) x5(9 x2) dx
81 0 2
FUNCIONES CARACTERÍSTICAS
3.20. Calcular la función característica de la variable aleatoria X del problema 3.17.
La función característica está dada por
1 1 1 i/
E(ei/X ) ei/(1) ei/( 1) (e e i/) cos /
2 2 2
de manera que
` 0 `
c e a:x: dx c e a( x) dx e a(x) dx
` ` 0
eax 0
e ax ` 2c
c a c a a 1
` 0
3.25. Determinar a) E(X), b) E(Y), c) E(XY), d) E(X 2), e) E(Y 2), f ) Var (X), g) Var (Y), h) Cov (X, Y), i) r, si las
variables aleatorias X y Y están definidas como en el problema 2.8 de las páginas 47-48.
78 13
(0)(6c) (1)(9c) (2)(12c) (3)(15c) 78c
42 7
c) E(XY ) xy f (x, y)
x y
102 17
(0)2(6c) (1)2(14c) (2)2(22c) 102c
42 7
17 29 13 20
h) ,XY Cov (X, Y ) E(XY ) E(X )E(Y )
7 21 7 147
,XY 20147 20
i) + ,X,Y 0.2103 aprox.
230441 5549 230 55
3.26. Repetir el problema 3.25 si las variables aleatorias X y Y están definidas como en el problema 2.33 de las
páginas 61-63.
Usando c 5 1y210, tenemos:
6 5
1 268
a) E(X )
210
(x)(2x y) dx dy
63
x 2 y 0
6 5
1 170
b) E(Y ) (y)(2x y) dx dy
210 x 2 y 0 63
6 5
1 80
c) E(XY ) (xy)(2x y) dx dy
210 x 2 y 0 7
6 5
d) 1 1 220
E(X2) (x2)(2x y) dx dy
210 x 2 y 0 63
6 5
e) 1 1 175
E(Y2) (y2)(2x y) dx dy
210 x 2 y 0 126
2
f) 1 220 268 5 036
,2X Var (X ) E(X2) [E(X )]2
63 63 3 969
2
g) 1 175 170 16 225
,2Y Var (Y) E(Y2) [E(Y )]2
126 63 7 938
donde usamos el hecho de que m2 5 E(Y u X 5 x) 5 2xy3 de acuerdo con el problema 3.28a).
DESIGUALDAD DE CHEBYSHEV
3.30. Demostrar la desigualdad de Chebyshev.
Se presentará la prueba para variables aleatorias continuas. La demostración para variables aleatorias discretas es
similar, sustituyendo solamente las integrales por sumas. Si f (x) es la función de densidad de X, entonces
`
,2 E[(X )2] (x )2f (x) dx
`
Como el integrando es no negativo, el valor de la integral sólo puede disminuir cuando el intervalo de integración
se reduce. Por tanto,
,2 (x )2f (x) dx 02f (x) dx 02 f (x) dx
Ux U 0 Ux U 0 Ux U 0
1
Por tanto, P X 1 1 (1 e 3) e 3 0.04979
2
b) De acuerdo con el problema 3.18, s2 5 m92 2 m2 5 1y4. La desigualdad de Chebyshev con e 5 1 da como
resultado
P( u X 2 m Z $ 1) # s2 5 0.25
Si lo comparamos con a), vemos que la cota que proporciona la desigualdad de Chebyshev es aquí bastante
inexacta. En la práctica, la desigualdad de Chebyshev se usa para obtener estimaciones cuando no es muy
necesario o es imposible obtener valores exactos.
Var (Sn) Var (X1 C Xn) Var (X1) C Var (Xn) n,2
Sn 1 ,2
de manera que Var n Var (Sn) n
n2
donde se ha usado el teorema 3-5 y una extensión del teorema 3-7.
Por tanto, de acuerdo con la desigualdad de Chebyshev con X 5 Snyn, tenemos
Sn ,2
P n 0
n0 2
Tomando el límite cuando n → `, este resultado se convierte en
Sn
lím P n & 0 0
n3`
como se buscaba.
Por consiguiente, x 3 1.73 aproximadamente, que es la moda buscada. Vemos que esto da el máximo
ya que la segunda derivada, 224xy81, es negativa para x 3.
b) La mediana es aquel valor a para el que P( X # a) 5 1y2. Ahora, dado que 0 , a , 3.
a
4 4 9a2 a4
P(X a) x(9 x2) dx
81 0 81 2 4
de donde
Por tanto, la mediana que buscamos, que debe estar entre 0 y 3, está dada por
9
a2 9 2
2
de donde a 5 1.62, aproximadamente.
3 3
4 4 x5
c) E(X ) x2(9 x2) dx 3x3 1.60
81 0 81 5 0
que es casi igual a la mediana. En la figura 3-6 se muestran la moda, la mediana y la media.
Mediana = 1.62
Media = 1.60 Moda =
Figura 3-6
3.34. Una variable aleatoria discreta tiene la función de probabilidad f (x) 5 1y2x donde x 5 1, 2, . . . Determinar
a) la moda, b) la mediana y c) compare moda, mediana y media.
a) La moda es el valor x que tiene la mayor probabilidad. En este caso x 5 1, para el que la probabilidad es
1y2.
b) Si x es cualquier valor entre 1 y 2, P(X x) 12 y P(X x) 12. Por tanto, cualquier número entre 1 y 2
puede emplearse como mediana. Por conveniencia, se elige el punto medio del intervalo, es decir 3y2.
c) Como encontramos en el problema 3.3, m 5 2. Por tanto, el orden en que se presentan estas tres medidas es
precisamente el contrario al que obtuvimos en el problema 3.33.
PERCENTILES
3.35. Determinar los valores correspondientes a los percentiles a) décimo, b) vigésimo quinto y c) septuagésimo
quinto de la distribución del problema 3.33.
De acuerdo con el problema 3.33b) tenemos
4 9a2 a4 18a2 a4
P(X a)
81 2 4 81
a) El décimo percentil es el valor de a para el que P(X # a) 5 0.10, es decir, la solución de (18a2 2 a4)y81 5
0.10. Empleando el método del problema 3.33 obtenemos a 5 0.68 aproximadamente.
b) El vigésimo quinto percentil es el valor de a tal que (18a2 2 a4)y81 5 0.25, y encontramos a 5 1.098, aproxi-
madamente.
c) El septuagésimo quinto percentil es el valor de a tal que (18a2 2 a4)y81 5 0.75, esto es, a 5 2.121, aproxima-
damente.
3
8 4x
x (9 x2) dx
0 5 81
85 3
8 4x 8 4x
x (9 x2) dx x (9 x2) dx
0 5 81 85 5 81
0.555 aproximadamente
SESGO Y CURTOSIS
3.37. Encontrar el coeficiente a) de sesgo, b) de curtosis de la distribución del problema 3.19.
De acuerdo con el problema 3.19b) tenemos
11 32 3 693
,2 3 4
25 875 8 750
3
a) Coeficiente de sesgo 3 0.1253
,3
4
b) Coeficiente de curtosis 4 2.172
,4
Se deduce que existe un sesgo moderado a la izquierda, como lo indica la figura 3-6. Esta distribución también
tiene un pico algo menos puntiagudo que la distribución normal, cuya curtosis es de 3.
PROBLEMAS DIVERSOS
3.38. Si M(t) es la función generadora de momentos de una variable aleatoria X, demostrar que la media es m 5
M9(0) y la varianza es s2 5 M0(0) 2 [M9(0)]2.
De acuerdo con (32), página 79, haciendo r 5 1 y r 5 2,
1 M (0) 2 M (0)
3.39. Sea X una variable aleatoria que tome los valores xk 5 k con probabilidades pk, donde k 5 ± 1, . . . , ± n.
a) Encontrar la función característica f (v) de X, b) calcular pk en términos de f (v).
a) La función característica es
n n
(/) E(ei/X) ei/xk pk pkeik/
k n k n
b) Multiplicamos ambos lados de la expresión del inciso a) por e2ijv e integramos respecto a v de 0 a 2p. En-
tonces,
2 n 2
e ij/ (/) d/ pk ei(k j)/ d/ 2 pj
/ 0 k n / 0
2
ei(k j)/ 2
i(k j) 0 k j
ya que ei(k j)/ d/ 0
/ 0
2 k j
2
1
Por tanto, pj e ij/ (/) d/
2 / 0
A nk n pkeik/ (donde n teóricamente puede ser infinito) se le suele conocer como la serie de Fourier de f (v)
y pk como los coeficientes de Fourier. En el caso de una variable aleatoria continua, la serie de Fourier se sus-
tituye por la integral de Fourier (vea la página 81).
3.40. Use el problema 3.39 para obtener la distribución de probabilidad de una variable aleatoria X cuya función
característica es f (v) 5 cos v.
De acuerdo con el problema 3.39
2)
1 ik/ cos / d/
pk e
2 / 0
2)
1 ik/ ei/ e i/
e d/
2 / 0 2
2) 2
1 1
ei(1 k)/ d/ e i(1 k)/ d/
4 / 0 4 / 0
3.41. Encontrar el coeficiente a) de sesgo, b) de curtosis de la distribución definida por la curva normal, cuya den-
sidad es
1 2
f (x) e x2 ` x `
2
a) El comportamiento de esta distribución es el que se muestra en la figura 3-7. Por simetría m91 5 m 5 0 y m93 5 0.
Por tanto, el coeficiente de sesgo es cero.
Figura 3-7
b) Tenemos
` `
1 x22 dx 2 x22 dx
2 E(X2) x2e x2e
2 ` 2 0
`
2
v 12e v dv
0
2 3 2 1 1
1
2 2 2
donde hemos hecho la transformación x2y2 5 y usado las propiedades de la función gama dadas en (2) y (5) del
apéndice A. De manera similar tenemos
` `
1 2
4R E(X4) x4e x22 dx x4e x22 dx
2 ` 2 0
`
4
v 32e v dv
0
4 5 4 3 1 1
3
2 2 2 2
Ahora,
,2 E[(X )2] E(X )2 2 1
2c,XY
,2Y ,2X c2
,2X
,XY 2 ,2XY
,2Y ,2X c2
,2X ,2X
,2X,2Y ,2XY ,XY 2
,2X c
,2X ,2X
Para que la última cantidad sea mayor o igual a cero para cada valor de c, debemos tener:
,2XY
,2X,2Y ,2XY 0 o bien 1
,2X ,2Y
PROBLEMAS SUPLEMENTARIOS
3x2 0 x 1
3.44. Sea X una variable aleatoria definida mediante la función de densidad f (x) .
0 si no es así
e x x 0
3.45. La función de densidad de una variable aleatoria X es f (x) .
0 si no es así
3.46. ¿Cuál es el número esperado de puntos que se obtendrá en tres lanzamientos sucesivos de un dado no cargado?
¿Parece razonable su respuesta? Explique.
e x x 0
3.47. Una variable aleatoria X tiene la función de densidad f (x) . Encuentre E(e2X3).
0 x 0
3.48. Sean X y Y variables aleatorias independientes que tienen cada una la función de densidad
2e 2u u 0
f (u)
0 si no es así
3.49. En el problema 3.48, ¿a) E(X 1 Y) 5 E(X) 1 E(Y), b) E(XY) 5 E(X)E(Y)? Explique su respuesta.
3
5 x(x y) 0 x 1, 0 y 2
f (x, y)
0 si no es así
3.51. En el problema 3.50, ¿a) E(X 1 Y) 5 E(X) 1 E(Y), b) E(XY) 5 E(X)E(Y)? Explique su respuesta.
4xy 0 x 1, 0 y 1
f (x, y)
0 si no es así
3.53. En el problema 3.52, ¿a) E(X 1 Y) 5 E(X) 1 E(Y), b) E(XY) 5 E(X)E(Y)? Explique su respuesta.
1
4 (2x y) 0 x 1, 0 y 2
3.54. Sea f (x, y) . Encuentre a) E(X), b) E(Y), c) E(X2), d) E(Y 2),
0 si no es así
e) E(X 1 Y), f ) E(XY).
1 prob. 1 3 2 prob. 3 4
X Y
0 prob. 2 3 3 prob. 1
3.56. Sean X1, X2, . . . , Xn n variables aleatorias distribuidas de manera idéntica tales que
1 prob. 1 2
Xk 2 prob. 1 3
1 prob. 1 6
1 4 2 x 2
f (x)
0 si no es así
e x x 0
f (x)
0 si no es así
3.60. Determine la varianza y la desviación estándar de la variable aleatoria X a) del problema 3.43, b) del problema
3.44.
3.61. Una variable aleatoria X tiene E(X) 5 2, E(X 2) 5 8. Determine a) Var(X), b) sX.
3.62. Si una variable aleatoria X es tal que E[(X 2 1)2] 5 10, E[(X 2 2)2] 5 6 calcule a) E(X), b) Var(X), c) sX.
3.64. a) Calcule la función generadora de momentos de la variable aleatoria X cuya función de densidad es
x 2 0 x 2
f (x)
0 si no es así
b) Use la función generadora del inciso a) para determinar los primeros cuatro momentos alrededor del origen.
3.65. Calcule los primeros cuatro momentos alrededor de la media en a) el problema 3.43, b) el problema 3.44.
3.66. a) Determine la función generadora de momentos de una variable aleatoria cuya función de densidad es
e x x 0
f (x)
0 si no es así
3.67. Calcule los primeros cuatro momentos alrededor de la media en el problema 3.66.
1 (b a) a x b
3.68. Si X tiene la función de densidad f (x) . Encuentre el k-ésimo momento alrededor
0 si no es así
a) del origen, b) de la media.
3.69. Si M(t) es la función generadora de momentos de la variable aleatoria X, demuestre que los momentos 3o. y 4o.
alrededor de la media están dados por
FUNCIONES CARACTERÍSTICAS
a prob. p
3.70. Determine la función característica de la variable aleatoria X .
b prob. q 1 p
1 2a U xU a
f (x)
0 si no es así
3.72. Encuentre la función característica de una variable aleatoria cuya función de densidad es
x 2 0 x 2
f (x)
0 si no es así
1 prob. 12
3.73. Sean Xk variables aleatorias independientes (k 5 1, 2, . . . , n). Demuestre que la función ca-
1 prob. 12
racterística de la variable aleatoria
X1 X2 C Xn
n
es [cos (/ n)]n.
Demuestre que cuando n → `, la función característica del problema 3.73 tiende a e2v y2. (Sugerencia: Utilice los
2
3.74.
logaritmos de la función característica y la regla de L’Hopital.)
x y 0 x 1, 0 y 1
f (x, y)
0 si no es así
e (x y) x 0, y 0
3.76. Repita el problema 3.75 con la función de densidad conjunta f (x, y) .
0 si no es así
3.77. Determine a) Var(X), b) Var(Y), c) sX, d) sY, e) sXY, f ) r , de las variables aleatorias del problema 2.56.
3.78. Repita el problema 3.77 con las variables aleatorias del problema 2.94.
3.79. Encuentre a) la covarianza, b) el coeficiente de correlación de dos variables aleatorias X y Y si E(X) 5 2, E(Y) 5 3,
E(XY) 5 10, E(X 2) 5 9, E(Y 2) 5 16.
3.80. El coeficiente de correlación de dos variables aleatorias X y Y es 241 y sus varianzas son 3 y 5. Calcule la cova-
rianza.
x y 0 x 1, 0 y 1
f (x, y)
0 si no es así
2e (x 2y) x 0, y 0
3.82. Repita el problema 3.81 si f (x, y)
0 si no es así
3.83. X y Y tienen la función de probabilidad conjunta dada en la tabla 2-9 de la página 71. Determine la esperanza con-
dicional de a) Y dada X, b) X dada Y.
3.84. Encuentre la varianza condicional de a) Y dada X, b) X dada Y para la distribución del problema 3.81.
DESIGUALDAD DE CHEBYSHEV
3.87. Una variable aleatoria X tiene media 3 y varianza 2. Use la desigualdad de Chebyshev para obtener la cota superior
de a) P( ) X 2 3 ) $ 2), b) P( ) X 2 3 ) $ 1).
3.88. Demuestre la desigualdad de Chebyshev de una variable discreta X. (Sugerencia: Vea el problema 3.30.)
3.89. Una variable aleatoria X tiene como función de densidad f (x) 12 e |x|, ` x `. a) Determine P( ) X 2 µ ) . 2).
b) Use la desigualdad de Chebyshev para obtener la cota superior de P( ) X 2 m ) . 2) y compare con el resultado
del inciso a).
e interprete su respuesta.
PERCENTILES
3.96. Encuentre los valores correspondientes al a) vigésimo quinto, y al b) septuagésimo quinto percentiles de la variable
aleatoria cuya función de densidad es
2(1 x) 0 x 1
f (x)
0 si no es así
3.97. Encuentre los valores correspondientes a a) el décimo, b) vigésimo quinto, c) septuagésimo quinto y d) nonagési-
mo percentiles de la variable aleatoria cuya función de densidad es
c(x x3) 0 x 1
f (x)
0 si no es así
donde c es una constante apropiada.
3.99. Repita el problema 3.98 con la variable aleatoria del problema 3.97.
3.100. Encuentre la desviación media de la variable aleatoria X en cada uno de los casos siguientes.
e x x 0 1
a) f (x) b) f (x) , ` x `.
0 si no es así (1 x2)
3.101. Obtenga la probabilidad de que la variable aleatoria X difiera de su media en más del rango semiintercuartil en el
caso a) del problema 3.96, b) del problema 3.100a).
SESGO Y CURTOSIS
3.102. Encuentre el coeficiente a) de sesgo, b) de curtosis de la distribución del problema 3.100a).
3.103. Si
U xU
c 1 a U xU a
f (x)
0 U xU a
%e %x x 0
f (x)
0 x 0
PROBLEMAS DIVERSOS
3.105. Sea X una variable aleatoria que puede tomar los valores 2, 1 y 3 con probabilidades 1y3, 1y6 y 1y2, respectiva-
mente. Encuentre a) la media, b) la varianza, c) la función generadora de momentos, d) la función característica,
e) el tercer momento alrededor de la media.
c(1 x) 0 x 1
f (x)
0 si no es así
3.107. Se lanzan sucesivamente tres dados, que se supone no están cargados. Encuentre a) la media, b) la varianza de la
suma de los puntos.
cx 0 x 2
f (x)
0 si no es así
donde c es una constante adecuada. Encuentre a) la media, b) la varianza, c) la función generadora de momentos,
d) la función característica, e) el coeficiente de sesgo, f ) el coeficiente de curtosis.
cxy 0 x 1, 0 y 1
f (x, y)
0 si no es así
3.110. Repita el problema 3.109 si X y Y son variables aleatorias independientes distribuidas de forma idéntica cuya fun-
2
ción de densidad es f (u) 5 (2p)21y2e2u y2, 2` , u , `.
1
3.63. a) 2(et 2 e t 2) cosh(t 2) b) 0, 2 1, 3 0, 4 1
3.67. 1 0, 2 1, 3 2, 4 33
3.70. pei/a qei/b 3.71. ( sen a/) a/ 3.72. (e2i/ 2i/e2i/ 1) 2/2
3.77. (a) 73 960 (b) 73 960 (c) 73 960 (d) 73 960 (e) –1 64 (f) –15 73
3.78. (a) 233 324 (b) 233 324 (c) 233 18 (d) 233 18 (e) –91 324 (f) –91 233
3.83. a) b)
X 0 1 2 Y 0 1 2
E(Y U X) 4 3 1 5 7 E(X U Y) 4 3 7 6 1 2
6x2 6x 1 6y2 6y 1
3.84. (a) para 0 x 1 (b) para 0 y 1
18(2x 1)2 18(2y 1)2
3.86. a) b)
X 0 1 2 Y 0 1 2
Var(Y U X) 5 9 4 5 24 49 Var(X U Y) 5 9 29 36 7 12
3.96. (a) 1 2 3
1
(b) 1 2
3.99. (a) 1 (b) 0.17 (c) 0.051 3.100. (a) 1 2e –1 (b) no existe
3.105. (a) 7 3 (b) 5 9 (c) (et 2e2t 3e3t) 6 d) (ei/ 2e2i/ 3e3i/) 6 e) 7 27
3.108. (a) 4 3 (b) 2 9 (c) (1 2te2t e2t) 2t2 (d) (1 2i/e2i/ e2i/) 2/2
(e) 2 18 15 ( f ) 12 5