Documentos de Académico
Documentos de Profesional
Documentos de Cultura
7.1 Introducción
Este capítulo contiene un amplio espectro de material. Los capítulos 5 y 6 tratan con
tipos específicos de distribuciones, tanto discretas como continuas. Éstas son distri-
buciones que encuentran uso en muchas aplicaciones de temas como confiabilidad,
control de calidad y muestreo de aceptación. En este capítulo comenzamos con un
tema más general: las distribuciones de funciones de variables aleatorias. Se presen-
tan las técnicas generales y se ilustran con ejemplos. Van seguidas por un concepto
relacionado, funciones generadoras de momentos, que puede ser útil en el estudio de
distribuciones de funciones lineales de variables aleatorias.
En los métodos estadísticos estándar, el resultado de la prueba de hipótesis esta-
dísticas, la estimación o incluso las gráficas estadísticas no implica una sola variable
aleatoria sino, más bien, funciones de una o más variables aleatorias. Como resulta-
do, la inferencia estadística requiere la distribución de tales funciones. Por ejemplo,
es común el uso de promedios de variables aleatorias. Además, son importantes
las sumas y las combinaciones lineales más generales. Con frecuencia nos interesa la
distribución de sumas de los cuadrados de variables aleatorias, en particular el uso
de las técnicas del análisis de varianza que se estudian en los capítulos 11 a 14.
Teorema 7.1: Suponga que X es una variable aleatoria discreta con distribución de probabili-
dad f(x). Definamos con Y = u(X) una transformación uno a uno entre los valores
de X y Y, de manera que la ecuación y = u(x) se resuelva unívocamente para x en
términos de y, digamos, x = w(y). Entonces, la distribución de probabilidad de Y
es
g(y) = f[w(y)]
Ejemplo 7.1: Sea X una variable aleatoria geométrica con distribución de probabilidad
que definen una transformación uno a uno entre el conjunto de puntos (x1, x2) y (y1,
y2). Al resolver las ecuaciones y1 = u1(x1, x2) y y2 = u2(x1, x2) de forma simultánea,
obtenemos la solución inversa única
Teorema 7.2: Suponga que X1 y X2 son variables aleatorias discretas con distribución de pro-
babilidad conjunta f(x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1,. X2)
una transformación uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que
las ecuaciones
Ejemplo 7.2: Sean X1 y X2 dos variables aleatorias independientes que tienen distribuciones de
Poisson con parámetros μ1 y μ2, respectivamente. Encuentre la distribución de la
variable aleatoria Y1 = X1 + X2.
Solución: Como X1 y X2 son independientes, podemos escribir
de lo cual concluimos que la suma de las dos variables aleatorias independientes que
tienen distribuciones de Poisson, con parámetros μ1 y μ2, tiene una distribución de
Poisson con parámetro μ1 + μ2.
Para encontrar la distribución de probabilidad de la variable aleatoria Y = u(X)
cuando X es una variable aleatoria continua y la transformación es uno a uno, ne-
cesitaremos el teorema 7.3.
Teorema 7.3: Suponga que X es una variable aleatoria continua con distribución de probabili-
dad f(x). Definamos con Y = u(X) una correspondencia uno a uno entre los valo-
res de X y Y, de manera que la ecuación y = u(x) se resuelva unívocamente para
x en términos de y, digamos x = w(y). Entonces, la distribución de probabilidad
de Y es
Prueba: Suponga que y = u(x) es una función creciente como la de la figura 7.1.
Entonces, vemos que siempre que Y cae entre a y b, la variable aleatoria X debe caer
entre w(a) y w(b). De aquí,
Como la integral da la probabilidad que se desea para toda a < b dentro del conjun-
to permisible de valores y, entonces la distribución de probabilidad de Y es
Suponga que y = u(x) es una función decreciente como la de la figura 7.2. Entonces,
escribimos
como antes.
Ejemplo 7.3: Sea X una variable aleatoria continua con distribución de probabilidad
Teorema 7.4: Suponga que X1 y X2 son variables aleatorias continuas con distribución de pro-
babilidad conjunta f(x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1, X2)
una transformación uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que
las ecuaciones y1 = u1(x1, x2) y y2 = u2(x1, x2) se resuelve unívocamente para x1
y x2 en términos de y1 y y2, digamos x1 = w1(y1, y2) y x2 = w2(y1, y2). Entonces,
la distribución de probabilidad conjunta de Y1 y Y2 es
Ejemplo 7.4: Sean X1, y X2 dos variables aleatorias continuas con distribución de probabilidad
conjunta
Sin embargo, cuando 0 < y < 1, podemos dividir el intervalo −1 < x < 1 para ob-
tener las dos funciones inversas
Entonces para todo valor y corresponde un solo valor x para cada partición. De la
figura 7.4 vemos que
donde
218 Capı́tulo 7 Funciones de variables aleatorias (opcional)
y entonces
Este procedimiento para encontrar g(y) cuando 0 < y < 1 se generaliza en el teore-
ma 7.5 para k funciones inversas. Para transformaciones que no son uno a uno de
funciones de varias variables, se recomienda al lector Introduction to Mathematical
Statistics de Hogg y Craig (véase la bibliografía).
7.3 Momentos y funciones generadoras de momentos 219
Teorema 7.5: Suponga que X es una variable aleatoria continua con distribución de probabi-
lidad f(x). Definamos con Y = u(X) una transformación entre los valores de X
y Y que no es uno a uno. Si el intervalo sobre el que se define X se puede dividir
en k conjuntos mutuamente disjuntos, de manera que cada una de las funciones
inversas
Ejemplo 7.5: Muestre que Y = (X − μ)2/σ2 tiene una distribución chi cuadrada con 1 grado de
libertad cuando X tiene una distribución normal con media μ y varianza σ2.
Solución: Sea Z = (X − μ)/σ, donde la variable aleatoria Z tiene la distribución normal es-
tándar
Definición 7.1: El r-ésimo momento alrededor del origen de la variable aleatoria X está dado
por
Como el primer y segundo momentos alrededor del origen están dados por
y podemos escribir la media y la varianza de una variable aleatoria
como
Definición 7.2: La función generadora de momentos de la variable aleatoria X está dada por
E(etX) y se denota con MX(t). De aquí,
Teorema 7.6: Sea X una variable aleatoria con función generadora de momentos MX(t). Enton-
ces,
Prueba: Suponiendo que podemos diferenciar dentro de la sumatoria y los signos de la inte-
gral, obtenemos
Si reconocemos esta última suma como la expansión binomial de (pet + q)n, obte-
nemos
Así,
Al hacer t = 0, obtenemos
Por lo tanto,
Ejemplo 7.7: Muestre que la función generadora de momentos de la variable aleatoria X que tiene
una distribución de probabilidad normal con media μ y varianza σ2 está dada por
y, entonces,
ya que la última integral representa el área bajo una curva de densidad normal es-
tándar y, por ello, es igual a 1.
Ejemplo 7.8: Muestre que la función generadora de momentos de la variable aleatoria X que tiene
una distribución chi cuadrada con v grados de libertad es MX(t) = (1 − 2t)−v/2.
Solución: La distribución chi cuadrada se obtuvo como un caso especial de la distribución
gamma al hacer α = v/2 y β = 2. Al sustituir por f(x) en la definición 7.2, obtene-
mos
Teorema 7.7: (Teorema de unicidad) Sean X y Y dos variables aleatorias con funciones
generadoras de momentos MX(t) y MY(t), respectivamente. Si MX(t) = MY(t)
para todos los valores de t, entonces X y Y tienen la misma distribución de pro-
babilidad.
Teorema 7.10: Si X1, X2 , . . . , Xn son variables aleatorias independientes con funciones generado-
ras de momentos MX1(t), MX2(t), . . . , MXn(t), respectivamente, y Y = X1 + X2
+ · · · + Xn, entonces,
MY(t) = MX1(t)MX2(t) · · · MXn(t).
y entonces
Al sustituir a1t por t, y después a2t por t, en una función generadora de momentos
de la distribución normal que se deriva en el ejemplo 7.7, tenemos
Teorema 7.11: Si X1, X2 , . . . , Xn son variables aleatorias independientes que tienen distribucio-
nes normales con medias μ1, μ2 , . . . , μn y varianzas , respectivamen-
te, entonces la variable aleatoria
y varianza
toria que también tiene el mismo tipo de distribución. La distribución chi cuadrada
también posee esta propiedad reproductiva.
Teorema 7.12: Si X1, X2 , . . . , Xn son variables aleatorias mutuamente independientes que tienen,
respectivamente, distribuciones chi cuadrada con v1, v2 , . . . , vn grados de libertad,
entonces la variable aleatoria
Y = X 1 + X2 + · · · + X n
Por lo tanto,
Corolario 7.1: Si X1, X2 , . . . , Xn son variables aleatorias independientes que tienen distribucio-
nes normales idénticas con media μ y varianza σ2, entonces la variable aleatoria
Este corolario es una consecuencia inmediata del ejemplo 7.5, que establece que
cada una de las n variables aleatorias independientes
tiene una distribución chi cuadrada con 1 grado de libertad. Este corolario es muy
relevante. Establece una relación entre la muy importante distribución chi cuadrada
y la distribución normal. También debe proporcionar al lector una idea clara de lo
que queremos decir con el parámetro que denominamos grados de libertad. Confor-
me avancemos en los capítulos siguientes, la noción de grados de libertad jugará un
papel de importancia creciente. Del corolario 7.1 vemos que si Z1, Z2 , . . . , Zn son
variables aleatorias normales estándar independientes, entonces tiene una