Está en la página 1de 15

Capítulo 7

Funciones de variables aleatorias


(opcional)

7.1 Introducción
Este capítulo contiene un amplio espectro de material. Los capítulos 5 y 6 tratan con
tipos específicos de distribuciones, tanto discretas como continuas. Éstas son distri-
buciones que encuentran uso en muchas aplicaciones de temas como confiabilidad,
control de calidad y muestreo de aceptación. En este capítulo comenzamos con un
tema más general: las distribuciones de funciones de variables aleatorias. Se presen-
tan las técnicas generales y se ilustran con ejemplos. Van seguidas por un concepto
relacionado, funciones generadoras de momentos, que puede ser útil en el estudio de
distribuciones de funciones lineales de variables aleatorias.
En los métodos estadísticos estándar, el resultado de la prueba de hipótesis esta-
dísticas, la estimación o incluso las gráficas estadísticas no implica una sola variable
aleatoria sino, más bien, funciones de una o más variables aleatorias. Como resulta-
do, la inferencia estadística requiere la distribución de tales funciones. Por ejemplo,
es común el uso de promedios de variables aleatorias. Además, son importantes
las sumas y las combinaciones lineales más generales. Con frecuencia nos interesa la
distribución de sumas de los cuadrados de variables aleatorias, en particular el uso
de las técnicas del análisis de varianza que se estudian en los capítulos 11 a 14.

7.2 Transformaciones de variables


Con frecuencia, en estadística, se encuentra la necesidad de derivar la distribución
de probabilidad de una función de una o más variables aleatorias. Por ejemplo,
suponga que X es una variable aleatoria discreta con distribución de probabilidad
f(x) y suponga, además, que Y = u(X) define una transformación uno a uno entre
los valores de X y Y. Queremos encontrar la distribución de probabilidad de Y. Es
importante notar que la transformación uno a uno implica que cada valor x está
relacionado con un, y sólo un, valor y = u(x), y que cada valor y está relacionado
con un, y sólo un, valor x = w(y), donde w(y) se obtiene al resolver y = u(x) para
x en términos de y.
212 Capı́tulo 7 Funciones de variables aleatorias (opcional)

De nuestro estudio de las distribuciones de probabilidad discreta en el capítulo 3


resulta claro que la variable aleatoria Y toma el valor y cuando X toma el valor w(y).
En consecuencia, la distribución de probabilidad de Y está dada por

g(y) = P (Y = y) = P [x = w(y)] = f[w(y)].

Teorema 7.1: Suponga que X es una variable aleatoria discreta con distribución de probabili-
dad f(x). Definamos con Y = u(X) una transformación uno a uno entre los valores
de X y Y, de manera que la ecuación y = u(x) se resuelva unívocamente para x en
términos de y, digamos, x = w(y). Entonces, la distribución de probabilidad de Y
es

g(y) = f[w(y)]

Ejemplo 7.1: Sea X una variable aleatoria geométrica con distribución de probabilidad

Encuentre la distribución de probabilidad de la variable aleatoria Y = X2.


Solución: Como los valores de X son todos positivos, la transformación define una correspon-
dencia uno a uno entre los valores x y y, y = x2 y x = De aquí,

Considere un problema donde X1 y X2 son dos variables aleatorias discretas con


distribución de probabilidad conjunta f(x1, y2) y que deseamos encontrar la distri-
bución de probabilidad conjunta g(y1, y2) de las dos variables aleatorias nuevas

Y1 = u1(X1, X2) y Y2 = u2(X1, X2).

que definen una transformación uno a uno entre el conjunto de puntos (x1, x2) y (y1,
y2). Al resolver las ecuaciones y1 = u1(x1, x2) y y2 = u2(x1, x2) de forma simultánea,
obtenemos la solución inversa única

x1 = w1(y1, y2) y x2 = w2(y1, y2).

De aquí las variables aleatorias Y1 y Y2 toman los valores y1 y y2, respectivamente,


cuando X1 toma el valor w1(y1, y2) y X2 toma el valor w2 = (y1, y2). La distribución
de probabilidad conjunta de Y1, y Y2 es, entonces,
7.2 Transformaciones de variables 213

Teorema 7.2: Suponga que X1 y X2 son variables aleatorias discretas con distribución de pro-
babilidad conjunta f(x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1,. X2)
una transformación uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que
las ecuaciones

y1 = u1(x1, x2) y y2 = u2(x1, x2)

se pueden resolver unívocamente para x1 y x2 en términos de y1 y y2, digamos


x1 = w1(y1, y2) y x2 = w2(y1, y2). Entonces, la distribución de probabilidad con-
junta de Y1 y Y2 es
g(y1, y2) = f[w1(y1, y2), w2(y1, y2)].

El teorema 7.2 es bastante útil para encontrar la distribución de alguna variable


aleatoria Y1 = u1(X1, X2), donde X1 y X2 son variables aleatorias discretas con dis-
tribución de probabilidad conjunta f(x1, x2). Definimos simplemente una segunda
función, digamos Y2 = u2(X1, X2), y mantenemos una correspondencia uno a uno
entre los puntos (x1, x2) y (y1, y2), y obtenemos la distribución de probabilidad
conjunta g(y1, y2). La distribución de Y1 es precisamente la distribución marginal de
g(y1, y2) que se encuentra al sumar los valores y2. Al denotar la distribución de Y1
con h(y1), escribimos

Ejemplo 7.2: Sean X1 y X2 dos variables aleatorias independientes que tienen distribuciones de
Poisson con parámetros μ1 y μ2, respectivamente. Encuentre la distribución de la
variable aleatoria Y1 = X1 + X2.
Solución: Como X1 y X2 son independientes, podemos escribir

donde x1 = 0, 1, 2, . . . y x2 = 0, 1, 2, . . . Definamos ahora una segunda variable aleato-


ria, digamos Y2 = X2. Las funciones inversas están dadas por x1 = y1 − y2 y x2 = y2.
Con el teorema 7.2 encontramos que la distribución de probabilidad conjunta de Y1
y Y2 es

donde y1 = 0, 1, 2, . . . Y y2 = 0, 1, 2, . . . , y1. Note que como x1 > 0, la transforma-


ción x1 = y1 − x2 implica que y2 y, por lo tanto, x2 siempre deben ser menores que
o iguales a y1. En consecuencia, la distribución de probabilidad marginal de Y1 es
214 Capı́tulo 7 Funciones de variables aleatorias (opcional)

Al reconocer esta suma como la expansión binomial de (μ1 + μ2)y1, obtenemos

de lo cual concluimos que la suma de las dos variables aleatorias independientes que
tienen distribuciones de Poisson, con parámetros μ1 y μ2, tiene una distribución de
Poisson con parámetro μ1 + μ2.
Para encontrar la distribución de probabilidad de la variable aleatoria Y = u(X)
cuando X es una variable aleatoria continua y la transformación es uno a uno, ne-
cesitaremos el teorema 7.3.

Teorema 7.3: Suponga que X es una variable aleatoria continua con distribución de probabili-
dad f(x). Definamos con Y = u(X) una correspondencia uno a uno entre los valo-
res de X y Y, de manera que la ecuación y = u(x) se resuelva unívocamente para
x en términos de y, digamos x = w(y). Entonces, la distribución de probabilidad
de Y es

donde J = w(y) y se llama jacobiano de la transformación.

Figura 7.1: Función creciente. Figura 7.2: Función decreciente.

Prueba: Suponga que y = u(x) es una función creciente como la de la figura 7.1.
Entonces, vemos que siempre que Y cae entre a y b, la variable aleatoria X debe caer
entre w(a) y w(b). De aquí,

Al cambiar la variable de integración de x a y mediante la relación x = w (y), obte-


nemos dx = w (y)dy y, por lo tanto,
7.2 Transformaciones de variables 215

Como la integral da la probabilidad que se desea para toda a < b dentro del conjun-
to permisible de valores y, entonces la distribución de probabilidad de Y es

Si reconocemos J = w (y) como el recíproco de la pendiente de la línea tangente a la


curva de la función creciente y = u(x), entonces es evidente que J = |J |. De aquí,

Suponga que y = u(x) es una función decreciente como la de la figura 7.2. Entonces,
escribimos

De nuevo, al cambiar la variable de integración por y, obtenemos

de lo cual concluimos que

En este caso, la pendiente de la curva es negativa y J = − |J |. Entonces,

como antes.

Ejemplo 7.3: Sea X una variable aleatoria continua con distribución de probabilidad

Encuentre la distribución de probabilidad de la variable aleatoria Y = 2X − 3.


Solución: La solución inversa de y = 2x − 3 da x = (y + 3)/2, de la que obtenemos J = w (y) =
dx/dy = 1/2. Por lo tanto, usando el teorema 7.3, encontramos que la función de
densidad de Y es

Para encontrar la distribución de probabilidad conjunta de las variables aleato-


rias Y1 = u1(X1, X2) y Y2 = u2(X1, X2), cuando X1 y X2 son continuas, y la trans-
formación es uno a uno, necesitamos un teorema adicional, análogo al teorema 7.2, que
establecemos sin demostración.
216 Capı́tulo 7 Funciones de variables aleatorias (opcional)

Teorema 7.4: Suponga que X1 y X2 son variables aleatorias continuas con distribución de pro-
babilidad conjunta f(x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1, X2)
una transformación uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que
las ecuaciones y1 = u1(x1, x2) y y2 = u2(x1, x2) se resuelve unívocamente para x1
y x2 en términos de y1 y y2, digamos x1 = w1(y1, y2) y x2 = w2(y1, y2). Entonces,
la distribución de probabilidad conjunta de Y1 y Y2 es

donde el jacobiano es el determinante 2 × 2

y es simplemente la derivada de x1 = w1(y1, y2) con respecto a y1, y y2 perma-


nece constante, que en cálculo se denomina derivada parcial de x1 con respecto a
y1. Las otras derivadas parciales se definen de manera similar.

Ejemplo 7.4: Sean X1, y X2 dos variables aleatorias continuas con distribución de probabilidad
conjunta

Encuentre la distribución de probabilidad conjunta de


Solución: Las soluciones inversas de y y2 = x1x2 son de
las que obtenemos

Para determinar el conjunto B de puntos en el plano y1y2 en el que se traza (mapea)


el conjunto A de puntos en el plano x1x2, escribimos

y después al hacer x1 = 0, x2 = 0, x1 = 1 y x2 = 1, las fronteras del conjunto


A se transforman a y1 = 0, y2 = 0, y1 = 1 y Las dos re-
giones se ilustran en la figura 7.3. Claramente, la transformación es uno a uno,
al trazar el conjunto A = {(x1, x2) | 0 < x1 < 1, 0 < x2 < 1} en el conjunto
Del teorema 7.4, la distribución de proba-
bilidad conjunta de Y1 y Y2 es

A menudo surgen problemas cuando deseamos encontrar la distribución de pro-


babilidad de la variable aleatoria Y = u(X) cuando X es una variable aleatoria con-
7.2 Transformaciones de variables 217

Figura 7.3: Trazo del conjunto A en el conjunto B.

tinua y la transformación no es uno a uno. Es decir, para cada valor x corresponde


exactamente un valor y; pero a cada valor y corresponde más de un valor x. Por
ejemplo, suponga que f(x) es positiva en el intervalo −1 < x < 2 y cero en cualquier
otro caso. Considere la transformación y = x2 . En este caso para 0 < y
<1y para 1 < y < 4. Para el intervalo 1 < y < 4, la distribución de pro-
babilidad de Y se encuentra como antes, con el teorema 7.3. Es decir,

Sin embargo, cuando 0 < y < 1, podemos dividir el intervalo −1 < x < 1 para ob-
tener las dos funciones inversas

Entonces para todo valor y corresponde un solo valor x para cada partición. De la
figura 7.4 vemos que

Al cambiar la variable de integración de x a y, obtenemos

donde
218 Capı́tulo 7 Funciones de variables aleatorias (opcional)

Figura 7.4: Función decreciente y creciente.

De aquí, podemos escribir

y entonces

La distribución de probabilidad de Y para 0 < y < 4 se puede escribir ahora como

Este procedimiento para encontrar g(y) cuando 0 < y < 1 se generaliza en el teore-
ma 7.5 para k funciones inversas. Para transformaciones que no son uno a uno de
funciones de varias variables, se recomienda al lector Introduction to Mathematical
Statistics de Hogg y Craig (véase la bibliografía).
7.3 Momentos y funciones generadoras de momentos 219

Teorema 7.5: Suponga que X es una variable aleatoria continua con distribución de probabi-
lidad f(x). Definamos con Y = u(X) una transformación entre los valores de X
y Y que no es uno a uno. Si el intervalo sobre el que se define X se puede dividir
en k conjuntos mutuamente disjuntos, de manera que cada una de las funciones
inversas

de y = u(x) defina una correspondencia uno a uno, entonces la distribución de


probabilidad de Y es

Ejemplo 7.5: Muestre que Y = (X − μ)2/σ2 tiene una distribución chi cuadrada con 1 grado de
libertad cuando X tiene una distribución normal con media μ y varianza σ2.
Solución: Sea Z = (X − μ)/σ, donde la variable aleatoria Z tiene la distribución normal es-
tándar

Encontraremos ahora la distribución de la variable aleatoria Y = Z 2. Las soluciones


inversas de y = z2 son Si designamos entonces
De aquí, por el teorema 7.5, tenemos

Como g(y) es una función de densidad, se sigue que

la integral es el área bajo una curva de probabilidad gamma con parámetros α =


1/2 y β = 2. Por lo tanto, y la distribución de probabilidad de Y está
dada por

que se considera una distribución chi cuadrada con 1 grado de libertad.

7.3 Momentos y funciones generadoras de momentos


En esta sección nos concentramos en aplicaciones de las funciones generadoras de
momentos. El propósito evidente de la función generadora de momentos es la deter-
220 Capı́tulo 7 Funciones de variables aleatorias (opcional)

minación de los momentos de variables aleatorias. Sin embargo, la contribución más


importante consiste en establecer distribuciones de funciones de variables aleatorias.
Si g(X) = Xr para r = 0, 1, 2, 3, . . . , la definición 7.1 da un valor esperado que
se denomina r-ésimo momento alrededor del origen de la variable aleatoria X,
que denotamos como

Definición 7.1: El r-ésimo momento alrededor del origen de la variable aleatoria X está dado
por

Como el primer y segundo momentos alrededor del origen están dados por
y podemos escribir la media y la varianza de una variable aleatoria
como

Aunque los momentos de una variable aleatoria se pueden determinar directamente


de la definición 7.1, existe un procedimiento alternativo, el cual requiere que utilice-
mos una función generadora de momentos.

Definición 7.2: La función generadora de momentos de la variable aleatoria X está dada por
E(etX) y se denota con MX(t). De aquí,

Las funciones generadoras de momentos existirán sólo si la suma o integral de la


definición 7.2 converge. Si existe una función generadora de momentos de una varia-
ble aleatoria X, se puede utilizar para generar todos los momentos de dicha variable.
El método se describe en el teorema 7.6.

Teorema 7.6: Sea X una variable aleatoria con función generadora de momentos MX(t). Enton-
ces,

Prueba: Suponiendo que podemos diferenciar dentro de la sumatoria y los signos de la inte-
gral, obtenemos

Al hacer t = 0, vemos que ambos casos se reducen a

Ejemplo 7.6.: Encuentre la función generadora de momentos de la variable aleatoria binomial X y


después utilícela para verificar que μ = np y σ2 = npq.
7.3 Momentos y funciones generadoras de momentos 221

Solución: De la definición 7.2, tenemos

Si reconocemos esta última suma como la expansión binomial de (pet + q)n, obte-
nemos

MX(t) = (pet + q)n.

Así,

Al hacer t = 0, obtenemos

Por lo tanto,

que está de acuerdo con los resultados que se obtuvieron en el capítulo 5.

Ejemplo 7.7: Muestre que la función generadora de momentos de la variable aleatoria X que tiene
una distribución de probabilidad normal con media μ y varianza σ2 está dada por

Solución: De la definición 7.2 la función generadora de momentos de la variable aleatoria nor-


mal X es
222 Capı́tulo 7 Funciones de variables aleatorias (opcional)

Al completar el cuadrado en el exponente, escribimos

y, entonces,

ya que la última integral representa el área bajo una curva de densidad normal es-
tándar y, por ello, es igual a 1.

Ejemplo 7.8: Muestre que la función generadora de momentos de la variable aleatoria X que tiene
una distribución chi cuadrada con v grados de libertad es MX(t) = (1 − 2t)−v/2.
Solución: La distribución chi cuadrada se obtuvo como un caso especial de la distribución
gamma al hacer α = v/2 y β = 2. Al sustituir por f(x) en la definición 7.2, obtene-
mos

Al escribir obtenemos para

ya que la última integral es igual a Γ(v/2).


Aunque el método de transformación de variables brinda una forma eficaz para
encontrar la distribución de una función de diversas variables, hay un procedimiento
alternativo y que a menudo se prefiere, cuando la función en cuestión es una com-
binación lineal de variables aleatorias independientes. Este procedimiento utiliza
las propiedades de las funciones generadoras de momentos que se incluyen en los
siguientes cuatro teoremas. Para conservar el alcance matemático de este libro, es-
tablecemos el teorema 7.7 sin demostración.
7.3 Momentos y funciones generadoras de momentos 223

Teorema 7.7: (Teorema de unicidad) Sean X y Y dos variables aleatorias con funciones
generadoras de momentos MX(t) y MY(t), respectivamente. Si MX(t) = MY(t)
para todos los valores de t, entonces X y Y tienen la misma distribución de pro-
babilidad.

Teorema 7.8: MX+a(t) = eatMX(t).

Prueba: MX+a(t) = E[et (X+a)] = eatE(etX) = eatMX(t).

Teorema 7.9: MaX(t) = MX(at).

Prueba: MaX(t) = E[et(aX)] = E[e(at)X] = MX(at).

Teorema 7.10: Si X1, X2 , . . . , Xn son variables aleatorias independientes con funciones generado-
ras de momentos MX1(t), MX2(t), . . . , MXn(t), respectivamente, y Y = X1 + X2
+ · · · + Xn, entonces,
MY(t) = MX1(t)MX2(t) · · · MXn(t).

Prueba: Para el caso continuo

Como las variables son independientes, tenemos

y entonces

La demostración para el caso discreto se obtiene de manera similar, reemplazando


las integrales con sumatorias.
Los teoremas 7.7 a 7.10 son fundamentales para entender las funciones genera-
doras de momentos. A continuación se presenta un ejemplo como ilustración. Hay
muchas situaciones en que necesitamos conocer la distribución de la suma de las va-
riables aleatorias. Podemos utilizar los teoremas 7.7 y 7.10, así como el resultado del
ejercicio 7.19 que sigue de esta sección, para encontrar la distribución de una suma
de dos variables aleatorias independientes de Poisson, con funciones generadoras de
momentos dadas por
224 Capı́tulo 7 Funciones de variables aleatorias (opcional)

respectivamente. De acuerdo con el teorema 7.10, la función generadora de momen-


tos de la variable aleatoria Y1 = X1 + X2 es

que de inmediato identificamos como la función generadora de momentos de una


variable aleatoria que tiene una distribución de Poisson con el parámetro μ1 + μ2.
Por ello, de acuerdo con el teorema 7.7, de nuevo concluimos que la suma de dos
variables aleatorias independientes que tienen distribuciones de Poisson, con pará-
metros μ1 y μ2, tiene una distribución de Poisson con parámetro μ1 + μ2.

Combinaciones lineales de variables aleatorias


En estadística aplicada a menudo se necesita conocer la distribución de probabilidad
de una combinación lineal de variables aleatorias normales independientes. Obten-
gamos la distribución de la variable aleatoria Y = a1X1 + a2 X2 cuando X1 es una
variable normal con media μ1 y varianza y X2 también es una variable normal,
pero independiente de X1, con media μ2 y varinza Primero, por el teorema 7.10,
encontramos

y después, usando el teorema 7.9,

Al sustituir a1t por t, y después a2t por t, en una función generadora de momentos
de la distribución normal que se deriva en el ejemplo 7.7, tenemos

que reconocemos como la función generadora de momentos de una distribución que


es normal con media a1μ1 + a2μ2 y varianza
Para generalizar al caso de n variables normales independientes, establecemos el
siguiente resultado.

Teorema 7.11: Si X1, X2 , . . . , Xn son variables aleatorias independientes que tienen distribucio-
nes normales con medias μ1, μ2 , . . . , μn y varianzas , respectivamen-
te, entonces la variable aleatoria

tiene una distribución normal con media

y varianza

Ahora queda claro que la distribución de Poisson y la distribución normal tienen


una propiedad reproductiva, en el sentido de que la suma de variables aleatorias
independientes que tengan cualquiera de estas distribuciones es una variable alea-
7.3 Momentos y funciones generadoras de momentos 225

toria que también tiene el mismo tipo de distribución. La distribución chi cuadrada
también posee esta propiedad reproductiva.

Teorema 7.12: Si X1, X2 , . . . , Xn son variables aleatorias mutuamente independientes que tienen,
respectivamente, distribuciones chi cuadrada con v1, v2 , . . . , vn grados de libertad,
entonces la variable aleatoria

Y = X 1 + X2 + · · · + X n

tiene una distribución chi cuadrada con v = v1 + v2 + · · · vn grados de libertad.

Prueba: Por el teorema 7.10,

MY(t) = MX1(t) MX2(t) · · · MXn(t).

Del ejemplo 7.8,

Por lo tanto,

que reconocemos como la función generadora de momentos de una distribución chi


cuadrada con v = v1 + v2 + · · · + vn grados de libertad.

Corolario 7.1: Si X1, X2 , . . . , Xn son variables aleatorias independientes que tienen distribucio-
nes normales idénticas con media μ y varianza σ2, entonces la variable aleatoria

tiene una distribución chi cuadrada con v = n grados de libertad.

Este corolario es una consecuencia inmediata del ejemplo 7.5, que establece que
cada una de las n variables aleatorias independientes
tiene una distribución chi cuadrada con 1 grado de libertad. Este corolario es muy
relevante. Establece una relación entre la muy importante distribución chi cuadrada
y la distribución normal. También debe proporcionar al lector una idea clara de lo
que queremos decir con el parámetro que denominamos grados de libertad. Confor-
me avancemos en los capítulos siguientes, la noción de grados de libertad jugará un
papel de importancia creciente. Del corolario 7.1 vemos que si Z1, Z2 , . . . , Zn son
variables aleatorias normales estándar independientes, entonces tiene una

distribución chi cuadrada y el parámetro único, v, los grados de libertad, es n, el


número de variables aleatorias normales estándar. Además, si cada variable alea-
toria normal en Xi, en el corolario 7.1, tiene diferentes media y varianza podemos
tener el siguiente resultado.

También podría gustarte