Está en la página 1de 87

A P L I CA CI ONES DE LA FUN CI ÓN 

GENERA DOR A DE M OMEN TOS 

Andrés Camilo Ramírez Gaita 
andres.camilo.ramirez@gmail.com 

Trabajo de Grado para Optar por el Titulo de Matemático 

Director: Benigno Lozano Rojas 
Estadístico Universidad Nacional de Colombia 

Fundación Universitaria Konrad Lorenz 
Facultad de Matemáticas 
Bogotá D.C. 
2007


AGRADECIMIENTOS 

Agradezco  al  profesor  Benigno  Lozano  Rojas,  quien  me  acompaño  y    apoyo  con  los 
valiosos aportes en la ejecución de este trabajo. 

También quiero  agradecer  al  doctor  Antonio  Velasco  muños  decano  de  la  facultad  de 
matemáticas  y  a  cada  uno  de  los  docentes  y  compañeros  que  tuvieron  un  aporte 
importante para mí formación a lo largo de la carrera.


RESUMEN 

Este  documento  consta  de  cuatro  capítulos  los  cuales  muestran  la  importancia  de  la 
función generadora de momentos y su aplicación a la hora de deducir la distribución de 
una  o  más  variables  aleatorias.  Aunque  existen  tres  técnicas  para  resolver  dicho 
problema, la técnica de la función generadora de momentos es la mas sobresaliente, ya 
que  además  ayuda  en  el  descubrimiento  de  variables  aleatorias  únicas  y  es  muy  útil 
cuando  se  trata  de  encontrar  la  distribución  de  sumas  de  variables  aleatorias 
independientes, ayudando así en la demostración del teorema del límite central. 

This document is made up of four chapters which show the importance of the moment – 
generating – function and its use when deducing the distribution of one or more random 
variables.  Eventhough  there are  three techniques to  solve this problem, the moment – 
generating  –  function  –  technique  is  the  most  widely  –  used  since  it  also  helps  in 
discovering  the  unique  random  variables  and  is  very  useful  when  trying  to  find  the 
distribution of sums of independent random variables, helping in this way in the proof of 
the central – limit  theorem.


CONTENIDO 

Página 
INTRODUCCION  4 

1.  CONCEPTOS BASICOS 
1.1. Variables aleatorias  5 
1.2. Distribuciones de probabilidad  7 
1.2.1. Distribución de probabilidad de variables discretas  7 
1.2.2. Distribuciones de probabilidad de variables continúas  12 
1.3. Valor esperado  18 

2.  MOMENTOS Y FUNCIONES GENRADORAS DE  MOMENTOS 
2.1.  Momentos                                                                                                    26 
2.2.  Función generadora de momentos                                                              37 

3.  DISTRIBUCIÓN DE PROBABILIDAD DE UNA FUNCION DE UNA 
VARIABLE AL EATORIA 
3.1. Técnica de la función acumulativa                                                               45 
3.2. Técnica de transformaciones                                                                       50 
3.2.1. Técnica de transformaciones para variables discretas                     50 
3.2.2. Técnica de transformaciones para variables continuas                   54 

4.  TECNICA DE LA FUNCION GENERADORA DE MOMENTOS 
4.1. Descripción de la técnica  61 
4.2. Distribución de sumas de variables aleatorias                                              67 

APENDICE  74 
CONCLUCIONES  85 
BIBLIOGRAFIA  86


INTRODUCCIÓN 

En el área de la estadística es muy frecuente que el investigador  no conozca como se 
comporta  la  distribución  de  probabilidad  de  su  variable  aleatoria.  Para  este  hecho  se 
han  deducido  los  momentos,  los  cuales  proporcionan  una  caracterización  de  la 
distribución  de  probabilidad.  Muchas  veces  estos  momentos  suelen  ser  complicados 
para  encontrarlos  uno  por  uno,  por  esto  si  todos  estos  momentos  existen,  se  pueden 
asociar  a  una  función  que  los  genere.  Esta  función  toma  el  nombre  de  la  función 
generadora de momentos. 

La  función  generadora  de  momentos  no  solo  es  usada  en  los  momentos  de  una 
variable aleatoria. Frecuentemente en estadística  se presenta la necesidad de deducir 
la  distribución  de  probabilidad  de  una  función  de  una  o  más  variables.  Es  decir  si  se 
conoce  la  distribución  de  una  variable  aleatoria,  y  se  tiene  otra  que  es  función  de  la 
anterior, se podría deducir la distribución de dicha variable. Este es uno de los campos 
donde la función generadora de momentos se aplica y es muy útil a la hora de deducir 
distribuciones de sumas de variables independientes. 

Para abordar este tema se ha creado este documento que consta de 4 capítulos, donde 
el  lector  podrá  observar  desde  los  conceptos  básicos    hasta  la  técnica  de  la  función 
generadora  de  momentos.  En  el  capitulo  1  se  enunciarán  temas  básicos  como,  las 
variables  aleatorias,  distribuciones  de  probabilidad  de  una  variable  aleatoria  y  el  valor 
esperado;  el  segundo  se  trataran  a  fondo  temas  como  momentos  y  la  función 
generadora de momentos, dejando claro así los concepto básicos para la aplicación de 
esta función ; en el tercer capítulo se abordaran 2 técnicas adicionales para deducir la 
probabilidad de una función de una o más variables aleatorias, y por último en el cuarto 
capítulo  se  presentará  la  tercera  técnica  llamada  “técnica  de  función  generadora  de 
momentos” y su útil uso en la distribución de sumas de variables aleatorias.


CAPITULO UNO

CONCEPTOS BÁSICOS 

1.1  Var iable aleator ia 

Definición  1.1:  “Sea  S  un  espacio  muestral  sobre  el  cual  se  encuentra  definida  una 
función de probabilidad. Sea  X  una función de valor real definida sobre S, de manera 
que  transforme  los  resultados  de  S  en  puntos  sobre  la  recta  de  los  reales,  se  dice 
entonces que  X  es una variable aleatoria” 1 . 

El conjunto de valores que una variable aleatoria puede tomar se denomina el rango de 
la variable aleatoria. 

Se dice que  X  es una variable aleatoria si todos los resultados posibles de un espacio 
muestral, se pueden transformar en cantidades numéricas. 

Ejemplo 1.1:  Supóngase  el  espacio  muestral  S  en  el  que  se  consideran  cada  uno  de 
los posibles resultados al lanzar tres monedas al aire: 

S = {ccc, ccs, csc, css, scc, scs, ssc, sss} 

donde c es cara y s es sello. Determinemos la variable  X  como el número de caras que 
hay en el espacio muestral, entonces a cada punto del espacio muestral se le asigna un 
valor  numérico    0,  1,  2  o  3,  estos  pueden  considerarse  como  valores  que  asume  la 
variable aleatoria  X  , tal como lo muestra su grafica. 


Probabilidad y estadística.  George C.Canavos. Pág. 52


X (S) 
S  R 

CCC  3 
CCS 
CSC 

SCC 
CSS 
SCS  1 
SSC 
SSS 
0

Gráfico 1.1 

en  este  caso  podemos  observar  que  la  variable  aleatoria  X  toma  el  valor  1  para  los 
elementos del conjunto 

E = {css, scs, ssc} Ì S. 

En si a cada elemento de espacio muestral, se le asigna un valor numérico. 

S  X 
ccc  3 
ccs  2 
csc  2 
scc  2 
css  1 
scs  1 
ssc  1 
sss  0 

Tabla 1.1 

Definición  1.2:  “Se  dice  que  una  variable  aleatoria  X  es  discreta  si  su  rango  es  un 

conjunto finito o infinito numerable de valores”. 

Ejemplo 1.2: En el ejemplo 1.1 los valores posibles de  X  son 0, 1, 2 y 3. Luego  X  es 


una variable aleatoria discreta. 


Probabilidad y estadística.  George C.Canavos. Pág. 53 


Definición  1.3:  Se  dice  que  una  variable  aleatoria  X  es  continua  si  su  rango  es  un 
conjunto infinito no numerable de valores. Este conjunto puede definirse en un intervalo 
o en un conjunto finito de intervalos. 

Ejemplo 1.3: Consideremos una variable aleatoria  Y  cuyos valores sean los pesos en 
kilogramos de  todas las persona mayores de 20 años, lógicamente hay infinitos valores 
asociados a estos pesos. Si  estos pesos se  asignaran a la recta real, puede definirse 
un número infinito de valores  para describir todos los posibles valores de peso. 

1.2  Distr ibuciones de probabilidad 

Definición  1.4  una  distribución  de  probabilidad  es  un  listado  de  las  probabilidades  de 
todos los posibles resultados del espacio muestral que podrían obtenerse si el experimento 
se lleva a cabo. 

Las distribuciones de probabilidad se clasifican como discretas y continuas. 

1.2.1 Distribuciones de probabilidad de var iables discretas 

Una variable aleatoria asume cada uno de sus resultados  con cierta probabilidad. 
En el ejemplo 1.1 la variable aleatoria  X  que representa el número de caras al lanzar 
tres  monedas  al  aire,  tiene  los  siguientes  valores  posibles  y  con  las  respectivas 
probabilidades siguientes: 

Resultado  Valor de la  Numero de  probabilidad 


variable aleatoria  ocurrencias 

ccc  3  1  1/8 
ccs, csc, scc  2  3  3/8 
ssc, scs, css  1  3  3/8 
Sss  0  1  1/8 

Tabla 1.2


nótese que los valores posibles de  X  conforman los posibles conteos sobre el espacio 
muestral y en consecuencia las probabilidades suman 1. 

Para mayor comodidad es necesario usar una función con el objeto de representar las 
probabilidades de una variable aleatoria y se define por: 

f ( x ) = P ( X  = x ) ; 

y se lee como “la probabilidad de que  X  tome el valor  x ” esta función toma el nombre 


de función de probabilidad o distribución de probabilidad de la variable aleatoria discreta 
X  ,  en  el  ejemplo  1.1  si  se  necesitara  saber  cual  es  la  probabilidad  de  que  salgan  2 
caras  en  el  mismo  lanzamiento  se  usaria  la  función  de  probabilidad,  donde  x =2; 
entonces  f ( 2 )  = P ( X  = 2 )  = 3/8 ; 

Definición 1.5: “ Sea  X  una  variable aleatoria  discreta. Se llamará  f ( x ) = P ( X  = x ) 


función  de  probabilidad  de  la  variable  aleatoria  X  ,  si  satisface  las  siguientes 

propiedades”  . 

1.  P ( x ) ³ 0; 


2. å x P  ( x )  = 1; 

Ejemplo  1.4:  Supóngase  una  variable  aleatoria  X  que  tiene  como    resultado  dar  el 
numero  de  caras  menos  el  numero  de  sellos  en  4  lanzamientos  de  una  moneda. 
Encuentre la distribución de probabilidad para la variable aleatoria  X  . 

Solución: 

El espacio muestral se encuentra dado por: 

S = {cccc,cccs,ccsc,ccss,cscc,cscs,cssc,csss,sccc,sccs,scsc,scss,sscc,sscs,sssc,ssss} 

donde  el número de ocurrencias es 16; 


Probabilidad y estadística.  George C.Canavos. Pág. 54


Resultado  Valor de la  Numero de  probabilidad 
diferencia  ocurrencias 
entre caras y 
sellos 

cccc  4  1  1/16 
cccs,ccsc,cscc,sccc  2  4  4/16 
ccss,cscs,cssc,sccs,scsc,sscc  0  6  6/16 
csss,scss,sscs,sssc  ­2  4  4/16 
ssss  ­4  1  1/16 

Tabla 1.3 

Ahora la distribución de probabilidades será: 

x  ­4  ­2  0  2  4 
f ( x )  1/16  4/16  6/16  4/16  1/16 

Tabla 1.4 

Muchas veces necesitamos encontrar la probabilidad de que  X  sea menor o igual que 
x  para este caso basta con observar que: 

P ( X  £ x ) =…+ P ( X  = 0 ) + P ( X  = 1 ) +…+ P ( X  =  x ­1 ) + P ( X  =  x  ) 

lo cual nos da una idea de sumar probabilidades o de acumularlas. 

Definición  1.6:  “ La  distribución  acumulativa  de  la  variable  aleatoria  X  es  la 
probabilidad  de  que  X  sea  menor  o  igual  a  un  punto  específico  de  x  y  esta  dada 
por” 4 : 

F ( X ) =  P ( X  £ x ) = å


x  x 
f ( x i ) 
i £

Y además satisface las siguientes propiedades: 


Probabilidad y estadística.  George C.Canavos. Pág. 54

10 
1.  0 £  F ( x ) £ 1. 

2.  F ( x i ) £ F ( x j )  si  xi  £ x j . 


3.  p ( X  > x )  = 1 ­  F ( x ) . 
4.  p ( X  = x )  = F  ( x ) - F ( x - 1 ) . 
5.  p ( x i  < X  £ x j )  =  p ( X  £ x j ) ­  p ( X  £ x i ) = F ( x j ) - F ( x i ) . 

Cabe anotar que  P ( X  £ x )  ¹  P ( X  < x )  si  X  es una variable discreta. 

P ( X  £ x ) =…+ P ( X  = 0 ) + P ( X  = 1 ) +…+ P ( X  =  x ­1 ) + P ( X  =  x  ) 

P ( X  < x ) =…+ P ( X  = 0 ) + P ( X  = 1 ) +…+ P ( X  =  x ­1 ) 

Ejemplo  1.5:  Encuentre  la  distribución  acumulada  de  la  variable  aleatoria  X  del 
ejemplo 1.4 y usando las propiedades calcular: 

1. p ( X  > 0 ) 
2. p ( X  ³ 0 ) 
3.  P ( ­2 £ X  £ 2 ) 
4.  P ( ­2 < X  £ 2 ) 
5.  P ( ­2 £ X  < 2 ) 
6.  P ( ­2 < X  < 2 ) 

Solución: 

F ( ­4 )  = P ( X  £ ­4 )  = P ( X  = ­4 ) = 1/16; 

F ( ­2 )  = P ( X  £ ­2 )  = P ( X  = ­4 )  + P ( X  = ­3 )  + P ( X  = ­2 ) 

=  1/16 + 0 + 4/16 = 5/16; 

F ( 0 )  = P ( X  £ 0 )  = P ( X  = ­4 )  + P ( X  = ­3 )  + P ( X  = ­2 )  + P ( X  = 0 ) 

=  1/16 + 4/16 + 6/16= 11/16; 

F ( 2 )  = P ( X  £ 2 )  = P ( X  = ­4 )  + P ( X  = ­2 )  + P ( X  = 0 )  + P ( X  = 2 )

11 
=  1/16 + 4/16 + 6/16 + 4/16 = 15/16; 

F ( 4 )  = P ( X  £ 4 )  = P ( X  = ­4 ) + P ( X  = ­2 ) + P ( X  = 0 ) + P ( X  = 2 ) + P ( X  = 4 ) 

=  1/16 + 4/16 + 6/16 + 4/16 + 1/16 = 1; 

Luego la distribución de probabilidades acumuladas es:

ì 0  x < -4
ï1 / 16  - 4 £ x < -2 
ï
ïï5 / 16  - 2 £ x < 0 
F ( X ) =  í
ï11 / 16  0 £ x < 2 
ï15 / 16  2 £ x < 4 
ï
ïî1  x ³ 4 

A continuación se muestran las graficas de  f ( x )  y  F ( x )  respectivamente 

FUNCIÓN DE PROBABILIDAD 
f (X) 

­5  ­3  ­1  1  3  5 


Gráfico 1.2

12 
FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA 

15/16 

12/16 

F(x) 
8/16 

4/16 


­10  ­5  0  5  10 

Gráfico 1.3 

1. p ( X  > 0 )  = 1 ­  F ( 0 )  = 1 – 11/16  =  5/16. 


2. p ( X  ³ 0 )  = p ( X  > 1 )  = 1 ­  F ( 1 )  =  1 – 11/16  =  5/16. 
3.  P ( ­2 < X  £ 2 )  =  F ( 2 ) ­  F ( ­2 )  = 15/16 – 5/16 = 10/16. 
4.  P ( ­2 £ X  £ 2 )  =  P ( ­3 < X  £ 2 )  =  F ( 2 ) ­ F ( ­3 ) = 15/16 ­1/16  = 14/16. 
5.  P ( ­2 £ X  < 2 )  =  P ( ­3 < X  £ 1 )  =  F ( 1 ) ­ F ( ­3 )  = 11/16 ­ 1/16 = 10/16. 
6.  P ( ­2 < X  < 2 )  =  P ( ­2 < X  £ 1 )  =  F ( 1 ) ­ F ( ­2 ) =  11/16 ­ 5/16  = 6/11 

1.2.2 Distribuciones de probabilidad de var iables continuas 

En el caso de las distribuciones continuas  p ( X  = x ) = 0. 

Ejemplo  1.6:  La  variable  aleatoria  continua  W se  define  como  la  altura  de  todas  las 
personas  mayores  de  20  años  en  un  intervalo  de  170  hasta  180  centímetros. 
Supóngase  que  se  quiere  encontrar p ( X  = 175 ) ,  aparentemente  parece  que  fuera 
sencillo  calcularla,  pero  si  entendiéramos  que  en  el  intervalo  [170,  180]  hay  infinitos 
números,  evidentemente  hay  infinidad  de  estaturas  por  lo  cual p ( X  = 175 )  tiende  a 
ser nulo, para este caso es mejor utilizar intervalos. Entonces para  nuestro caso  seria 
mejor encontrar  p ( 174.9 £ X  £ 175.1 ) .

13 
La distribución de  probabilidad  de  una  variable continúa  X  esta caracterizada por una 
función  f ( x ) ,  la  cual  recibe  el  nombre  de  función  de  densidad  de  probabilidad  y 
proporciona un medio para calcular  p ( a £ X  £ b )  con  b > a. 

De manera formal, la distribución de probabilidad de una variable aleatoria continua se 
define de la siguiente manera: 

Definición 1.7: “ Si existe una función  f ( x )  tal que:” 5

·  f ( x )  ³ 0  ­ ¥ < X < ¥
¥
· ò  f ( x ) dx = 1


·  p ( a £ X  £ b ) = òa   f ( x ) dx  a,b Î Â

Entonces  se  dice  que  f ( x )  es  la  función  de  densidad  de  probabilidad  de  la  variable 
aleatoria continua  X  . De esta definición se derivan otras propiedades. 

1.  p (  X  = a ) = 0 

2.  P (a £ X  £ b ) = P (a< X ≤ b ) = P (a ≤ X < b) = P (a < X < b) 

Solución: 


1.  p (  X =  a  ) =  p ( a £ X  £ a ) = ò  f ( x ) dx  = 0 

2.  p ( a £ X  £ b ) =  p (  X  = a ) +  p ( a < X  < b ) +  p (  X  = b ) =  p ( a < X  < b ) 

Para  entender  mejor  el  concepto  de  función  de  densidad,  lo  ilustraremos  con  un 
ejemplo. 

Ejemplo 1.7: Supóngase que se miden los tiempos entre 2 llamadas consecutivas, de 
1000 clientes de una empresa que funciona de 7:00 AM a 5:00 PM y los agrupamos en 
intervalos  de  1  hora.  En  la  tabla  1.5  se  enuncian  el  número  de  llamadas  en  cada 
intervalo y su respectiva frecuencia relativa. 


Probabilidad y estadística.  George C.Canavos. Pág. 58

14 
Intervalo  N° llamadas  Frecuencia 
relativa 
7 < x £ 8  20  0.020 
8 < x £ 9  60  0.060 
9 < x £ 10  100  0.100 
10 < x £ 11  150  0.150 
11 < x £ 12  170  0.170 
12 < x £ 13  170  0.170 
13 < x £ 14  150  0.150 
14 < x £ 15  100  0.100 
15 < x £ 16  60  0.060 
16 < x £ 17  20  0.020 

Tabla 1.5 

Como se observa en la gráfica 1.3  la base de cada rectángulo tiene como longitud 1 y 
su  altura  es  la  frecuencia  relativa,  luego  el  área  de  cada  rectángulo  es  su  frecuencia 
relativa  y por lo tanto la suma de sus áreas es 1.  Supongamos  ahora que los tiempos 
entre dos llamadas consecutivas se observan para 10000 y se agrupan en 20 intervalos 
de ½ hora, o también para 100000 en 40 intervalos de ¼ de hora, si aumentamos este 
proceso  de  aumentar  el  numero  de  observaciones  y  disminuir  el  tamaño  de  los 
intervalos, se llegara a una curva límite la cual toma el nombre de función de densidad 
de probabilidad para una variable aleatoria continua  X  , y se denota por  f ( x )  ( grafico 
1.4), evidentemente el área total bajo la curva es 1.

15 
0,17  0,17 
0,15  0,15 

frecuencia relativa 
0,1  0,1 

0,06  0,06 

0,02  0,02 

7  8  9  10  11  12  13  14  15  16 


Gráfico 1.3 

FUNCIÓN DE DENSIDAD 

0,09 

0,06 

0,03 


7,1  10,1  13,1  16,1 

Gráfico 1.4 

Al igual que las funciones de probabilidad de las variables aleatorias discretas tienen su 
función  acumulativa,  las  variables  aleatorias  continuas  también  tienen  su  respectiva 
función acumulativa y se define como: 


F ( X ) =  P ( X  £ x ) = ò  f ( t ) dt 

donde t es una variable artificial de integración.

16 
La distribución  F ( X ) es una función lisa no decreciente con las siguientes propiedades: 

1.  F ( ­ ¥ )  = 0 


2.  F (  ¥  )  = 1 
3.  p ( a < X  < b ) =  F ( b ) ­  F ( a ) 
dF  ( X ) 
4.  =  f ( x ) 
dx 

Ejemplo 1.8: Sea  X  una variable aleatoria continua definida por

ì 2 
ï 4 
ï x ³ 2
f ( X ) =  íp  1 +  2 
ï x
ïî0  en  cuaquier otro  caso 

1.  probar que  f ( x ) es una función legítima de probabilidad. 


2.  Calcular P ( X  £  4  3 / 3 ) ,  p (  2  2  £ X  £ 4 ) . 
3.  Encontrar  F ( X ) , graficarla y usarla para encontrar los puntos dados 

Solución: 

1.  Al ser  x > 0 no habrá problema con el radical y claramente se ve que  f ( x )  ³ 0, 

ahora 

¥ 2 2 ¥ 1  2  æ 2 ö ¥ 2 ép ù
ò dx  =  dx  = ar cos ç ÷ - 0 ú =  1 
pò 2 
= ê

4  2 
4  p è x ø p ë 2  û
p 1 +  2 
1 + 
x x 2 

Con lo que se concluye que  f ( x )  es una función legítima de probabilidad. 

2 4  3 / 3  1  2 æ 2 ö 4  3 / 3 


P ( X  £  4  3 / 3 )  dx  =  ar cos ç ÷

2. =  2 

4  p è x ø
1 + 
x 2 

17 
2  æ  3 ö 2  2 p ö 1 
= ar cos çç ÷ ­ ar cos (1 )  = æ 
ç ÷ = 
p ÷ p è 6 ø 3 
è 2  ø p

2 4  1  2 æ 2 ö 4 
P (  2  2  £ X  £ 4 )  =  dx  =  ar cos ç ÷
pò 2  2 
4  p è x ø 2  2 
1 + 
x 2 

2  æ 1 ö 2  æ  2 ö
= ar cos ç ÷ ­ ar cos çç ÷
÷
p è 2 ø p è 2  ø

2 æ p ö 2 æ p ö 2  1  1 
= ç ÷ ­ ç ÷ =  ­  = 
p è 3 ø p è 4 ø 3  2  6 

x 2 2 æ 2 ö x 
3. F ( x ) =  ò dt  =  ar  cos ç ÷ 2 

4  p è t  ø
p 1 + 
t 2 

2 æ 2 ö 2  2 æ 2 ö
= ar  cos ç ÷ ­ ar cos (1 )  = ar  cos ç ÷
p è x ø p p è x ø

Y la gráfica es: 

FUNCIÓN ACUMULATIVA 

0,8 

0,6 
F(X) 

0,4 

0,2 


0  5  10  15  20 

Gráfico 1.4

18 
2  æ  3 ö 2 æ p ö 1 
P ( X  £  4  3 / 3 )  =  F ( 4  3 / 3 )  = ar cos çç ÷ = ç ÷ = 
÷
p è 2  ø p è 6 ø 3 

2  æ 1 ö 2  æ  2 ö
p (  2  2 £ X  £ 4 )  =  F ( 4 )  ­ F ( 2  2 )  = ar cos ç ÷ ­ ar cos çç ÷
÷
p è 2 ø p è 2  ø

2 æ p ö 2 æ p ö 2  1  1 
= ç ÷ ­ ç ÷ =  ­  = 
p è 3 ø p è 4 ø 3  2  6 

1.3  Valor esperado 

Los grandes  jugadores  de  poker    dicen  que  los  jugadores  no  experimentados  pueden 
ganar  dinero  a  corto  plazo  pero  que  perderán  dinero  a  largo  plazo.  Lo  contrario  vale 
para  profesionales  y  muy  buenos  jugadores,  lo  cuales  ganarán  generalmente  a  largo 
plazo. 

¿Por  qué  esto  es  así?  Esto  se  debe  a  un  concepto  conocido  como  “valor  esperado”. 
Valor  esperado  es  el  beneficio  que  se  espera.  Por  ejemplo,  supóngase  que  se  ha 
realizado  una  apuesta  para  lanzar  una  moneda.  Si  sale  cara,  se  perderá  $1,  si  sale 
cruz, se ganará $100. ¿Se debe aceptar teóricamente esta apuesta (asumiendo que la 
moneda es verdadera y existe un cincuenta­cincuenta de posibilidad de que salga cara 
o cruz? 

Obviamente,  se  debería aceptar  la  apuesta.  Existe  una  probabilidad  de  1/2  que  caiga 
en  cara  y  gane  $100.  Por  lo  tanto,  la  ganancia  esperada  es  0.5*$100=50.  Si  saliera 
cruz,  se  pierde  $1.  Por  lo  que,  la  perdida  esperada  0.5*$1=0.50  Y  el  beneficio 
esperado  es  la  ganancia  esperada  menos  la  pérdida  esperada.  Es  decir,  que  el 
beneficio esperado es de $49,5. 

Obviamente,  no  se  ganará  $49,50.  se  Ganará  $100  o  se  perderá  $1.  Sin  embargo, 
debería  verse  la  apuesta  como  "ganar"  $49,50.  Los  resultados  en  los  juegos  de  azar 
están  influenciados  por  la  suerte  a  corto  plazo.  Sin  embargo,  los  resultados  se  verán 
cercanos a semejarse al valor esperado a largo plazo. Si se tira la moneda un millón de 
veces, el beneficio final será muy cercano a 49,50 millones.

19
Entonces resumiendo: 

Sea  X  una variable discreta donde solo podrá tomar dos valores, $100(ganancia), $­1 
(la perdida) o sea x  =  {­1, 100}  ahora la probabilidad de ganancia es 0.5 y la ganancia 
de perdida es 0.5. Por tanto su valor esperado es:

m = (­1) (0.5)+ (100) (0.5)=49.5 

luego se observa que el valor esperado esta dado por:


E ( x ) =  å x i . p ( x i )  =  (­1) (0.5)+ (100) (0.5)=49.5 
i = 0 

Así  se  llega  a  la  definición  de  valor  esperado,  media  o  esperanza  matemática  de  una 
variable aleatoria 

Definición  1.8:  La  media  de  una  variable  aleatoria  se  considera  como  una  cantidad 
numérica  alrededor  de  la  cual los  valores  de  la  variable  aleatoria  tienden  a  agruparse 
por lo tanto la media es una medida de tendencia central y se define por:

m = E ( x ) =  å xp ( x )  Si  X  es una variable discreta


¥
m = E ( x ) =  ò xf ( x ) dx  Si  X  es una variable continua 
- ¥

En general definimos el valor esperado de una función de  X  ,  h ( X ) , por la igualdad

E[h ( x ) ] =  å h ( x ) p ( x )  Si  X  es una variable discreta.


¥
E[h ( x ) ] =  ò h( 
  x ) f ( x ) dx  Si  X  es una variable continua. 
- ¥

Análogamente  para  mas  de  dos  variables  X 1 , X 2 , X 3 ,..., X k  el  valor  esperado  de 

cualquier función h de las variantes, se define por

20 
E [h ( x 1 , x 2 , x 3 ,..., x k  ) ] =  ååå ... å h ( x 1 , x 2 , x 3 ,..., x k  ) p ( x 1 , x 2 , x 3 ,..., x k  ) 
x 1  x 2  x 3  x k 

Si  x1   , x 2 , x 3 ,..., x k  variables discretas.

E [h ( x 1 , x 2 , x 3 ,..., x k  ) ] =  ò h(   x  , x  , x  ,..., x k  ) f ( x  , x  , x  ,..., x k  ) dx dx  dx  ... dx k 
1  2  3  1  2  3  1  2  3 
- ¥

Si  x1   , x 2 , x 3 ,..., x k  variables continúas. 

El valor esperado o media posee algunas propiedades: 

1.  E ( k ) = k  para  k  una constante 

2.  E ( cx + k ) = cE ( x ) + k  para  k , c  constantes 


3.  E[ g ( x ) + h ( x )] = E [( g ( x )] + E [( h ( x )] 
4.  E[ g ( x ) h ( x )] = E [( g ( x )] E [( h ( x )] 

NOTA: El  valor esperado, puede  no existir  dependiendo  si la correspondiente  suma o 


integral  diverge a un valor infinito. 

Ejemplo 1.9: Encontrar la media o valor esperado de la distribución de Poisson 

Solución: la distribución de Poisson esta dada por

ìe - l lx
ï x = 0,  1 ,  2 ,  ... 
f ( x ) =  í x ! 
ï0  en  cualquier otro  valor 
î

luego 

¥
e - l lx ¥
-l
¥
lx -1 
E ( x )  = å x . p ( x )  = å x.  = le å
x =0  x =0  x !  x =1  ( x - 1 
)! 

ahora si hacemos  y = x ­1, se tendría   0 £ y £ ¥ , y por tanto

21
¥
l y 
E ( x )  = le - l å -l l
= l e e  = l
y = 0  ( y )! 

Ejemplo 1.10: Encontrar la media o valor esperado de la distribución binomial. 

Solución: La distribución binomial esta dada por:

ì n! 
ï p x ( 1 - p ) n - x  x = 0 ,  1 ,  2 ,  ...  , n  0 £ p £ 1 ,  n Î Z +
f ( x ) =  í( n - x )! x ! 
ï0  en  cualquier otro  valor 
î

entonces 

n n
n ! 
E ( x )  = å x.  P ( x )  = å x  p x ( 1 - p ) n  x 
-

x = 0  x 
= 0 ( n - x )! x ! 

n -1 
( n - 1 )! 
= n å p x ( 1 - p ) n - x 
x =1  n 
(  - x 
)! 
( x - 1 
)! 

n -1 
( n - 1 )! 
= np  å p x  ( 1 - p ) ( n -1 ) -( x -1 ) 
-1 

x  [( n - 1 
=1  ) - ( x - 1 )]! ( x - 1 )! 

Ahora si  y = x - 1 ,  m = n - 1 se tendría   0 £  y £ m , y  por tanto 


m ! 
E ( x )  = np å p y ( 1 - p ) ( m - y )  =  np 
y = 0  m 
(  -  y 
)! ( y 
)! 

Es  bueno  recordar  para  los  ejemplos  1.11  1.12  1.13  la  función  Gamma  y  la  función 
Beta 

1.  La función Gamma esta definida por:

22 
¥
G ( n ) = ò u n -1  e -u  du  = ( n - 1 )!  n > 0 

y sus propiedades son:
·  G ( n + 1 ) = n ! 
·  G (n
  + 1 ) = n G ( n ) 
· G ( 1 / 2 ) = p

2.  La función Beta esta definida por. 

B( a , b ) = ò xa -1  ( 1 - x ) b -1  dx  a , b > 0  0 £ x £ 1 

La función Beta y la función Gamma se encuentran relacionadas por 

G (a ) G( b ) 
B (a , b ) = 
G ( a + b ) 

Nota:  En  el  apéndice  al  final  de  este  documento  se  muestran  las  deducciones 
anteriores y sus respectivas propiedades. 

Ejemplo 1.11: Encontrar la media o valor esperado de la distribución Gama 

Solución: La distribución Gamma esta dada por 

- x 
ì 1  a - 1 q x > 0,  a, q > 0 , 
ï x  e 
f ( x ; a , q )  = í G( a ) q a
ï en  cualquier otro  valor 
î 0 

entonces 

-x -x
¥ ¥ x  1  ¥
E ( x )  = ò xf ( x )  dx  = ò a
x a -1 e q dx  = ò x a e q dx 
0  0  G (a
  ) q G ( a ) q a 0 

ahora si observamos la integral podría transformarse en una función Gamma 

x  1
Sea u = Þ  du =  dx  Þ dx = qdu 
q  q 

23 
a
a æ x ö
u = ç ÷ Þ xa = u a q a
èq ø
luego 
1  ¥ q ¥ a -u
E ( x )  = ò u a q a e -uq du  = u  e  du 
G ( a ) q a 0    ) ò0 
G (a
q ¥ ( a +1 ) -1  -u qG(a + 1 )  qaG(a ) 
= ò u  e  dx  =  =  = qa
G (a
  )  0  G( a )  G( a ) 

a
Ejemplo 1.12: mostrar que la media de de la distribución Beta es:
a +b
Solución: La distribución Beta se encuentra definida por: 

ì G( a  + b )  a - 1 0 £ x £ 1  a, q > 0 , 


ï x  ( 1 - x ) b -1 
f ( x ; a , q )  = í G( a ) G( b ) 
ïî 0 
en  cualquier otro  valor 

entonces 

1  1  G (a
  + b )  a
E ( x )  = ò xf ( x )  dx  = ò G( a ) G( b ) x ( 1 - x ) b -1  dx 
0  0 

G (a  + b )  1  a
= ò x ( 1 - x ) b -1  dx 
G ( a ) G ( b )  0 

G(a + b )  G(a + b )  G( a + 1 ) G ( b ) 


=  B( a + 1 , b )  = 
G ( a ) G( b )  G ( a ) G ( b )  G ( a + b + 1 ) 

G (a + b )  aG ( a )  a
=  = 
G( a )  ( a + b ) G ( a + b )  (a + b ) 

Ejemplo 1.13 Supóngase que la variable aleatoria  Y  representa el intervalo de tiempo 
entre dos llegadas consecutivas a una tienda y que su función de distribución esta dada 
por:

24
ì1  - 4y  
ï e  y > 0, 
f ( y )  = í 4 
ï0  en  cualquier otro  valor 
î

Si las ganancias de dinero es igual a al cubo del tiempo entre dos llegadas, encontrar el 
valor esperado de las ganancias. 

Solución: El valor esperado de las ganancias, es encontrar  E ( Y 3 ) , luego 


1  1  1  3  - 4 
E ( y 3 )  = 3 
ò  y  f ( y )  dy  = y  e  dy 
0  4 ò0 

Ahora si hacemos 

y  1
u= Þ  du  = dy  Þ  dy =  4du 
4  4 

3  æ y ö
u = ç ÷ Þ  y3  = 64  u 3 
è4ø

Entonces 


E ( y 3 )  = 64 ò u 3 e - u  du  =  64  G (4 )  =  64(3!)  =  384 

Ejemplo  1.14  Encontrar  el  valor  esperado  de  la  distribución  de  Cauchy  en  el  caso 
a = 0 y  b = 1 . 
Solución: La distribución de Cauchy con  a = 0 y  b = 1 se encuentra definida por: 

ì 1 
ï 2  x > 0
f  ( x ; 0,1) = íp ( 1 + x ) 
ï0  en  cualquier otro  valor 
î

25 
¥ ¥ 1  1  ¥ x
E ( X )  = ò xf ( x )  dx  = ò x 2 
dx  = ò dx 
0  0  p ( 1 + x  )  p 0  ( 1 + x 2 ) 
1  ¥
= ln( 1 + x 2 )  0 
2 p

Lo cual indica que a  medida de  que  x crezca  E ( x )  también  va a crecer o sea que la 


integral diverge, por tanto el valor esperado de la distribución no existe.

26 
CAPITULO DOS 

MOMENTOS Y FUNCIONES GENERADORAS 
DE MOMENTOS 

2.1  Momentos 

Los  momentos  de  una  variable  aleatoria  X  son  los  valores  esperados  de  ciertas 
funciones  de  x .  Ellos  forman  una  colección  de  medidas  descriptivas  que  pueden 
ayudar a caracterizar la distribución de probabilidad  X  y verificar si todos los momentos 
son  conocidos.  Generalmente  estos  momentos  se  definen  alrededor  de  0  o  del  valor 
esperado. 

Definición 2.1: “ sea  X  una variable aleatoria. El r­ésimo momento de  X  alrededor de 


0 se define por:” 6

ìå x r   p ( x ) 
ïï x  donde  x  es  discreta 
m r '  r 
=  E ( x  ) = í ¥
ï ò x r  f ( x ) dx  donde  x  es  continua 
ïî- ¥

en el primer momento alrededor de 0 ( r  = 1 ) para  X  una variable discreta. 


Probalidad y estadística.  George C.Canavos. Pág. 67

27 
m1'  =  E ( x 1 )  =  E ( x ) 

Lo  cual  indica  que  es  el  conocido  valor  esperado  o  media,  similarmente  se  tiene  este 
valor si  X  fuese una variable continua. 

Definición  2.2:  “ Sea  X  una  variable  aleatoria.  El  r­ésimo  momento  central  de  X 
(también conocido como el r­eximo momento alrededor de la media) se define por:” 7

ìå( x - m ) r   p ( x ) 


ïï x  donde  x  es  discreta 
m r  =  E [( x - m )  ] = í ¥

ï ò ( x - m ) r  f ( x ) dx  donde  x  es  continua 


ïî- ¥

El momento central cero de cualquier variable aleatoria es 1. 

m 0 = E [( x - m ) 0 ]  = E [1]   =  1 

El primer momento central de cualquier variable aleatoria es 0 

m1 = E [( x - m ) 1 ]  = E [x - m ] =  E ( x ) - E ( m ) = m - m = 0 

El segundo momento alrededor de la media es la varianza que se denota por  var( X ) 

m 2 =  var( X )  = E [( x - m ) 2 ]  =  E ( x 2 - 2 x m + m 2 )  =  E ( x 2 ) - 2 mE ( x ) + m 2 

=  m 2 '  - 2 mm + m 2  =  m 2'  - m 2 

La  varianza  de  cualquier  variable  aleatoria  es  la  diferencia  del  segundo  momento 
alrededor  de  0  y  el  cuadrado  de  la  media  o  valor  esperado.  Generalmente  se  denota 

s 2 aunque  a  veces  será  conveniente  denotarla  por  var( X ) .  La  varianza  de  una 
variable  aleatoria  es  la  medida  de  la  dispersión  de  la  distribución  de  probabilidad  de 
esta. Por ejemplo, en el caso continuo si la mayor parte del área por debajo de la curva 


Probalidad y estadística.  George C.Canavos. Pág. 67

28 
de  distribución  se  encuentra  cercana  a  la  media,  la  varianza  es  pequeña  o  si  por  el 
contrario  la  mayor  parte  del  área  se  encuentra  muy  dispersa  de  la  media  la  varianza 
será grande. La raíz cuadrada de la varianza recibe el nombre de desviación estándar y 
se denota por s . 
La varianza al igual que el valor esperado tiene propiedades, así: 

Dadas dos constantes a y b.

·    + b )  =  a 2  var( X ) 
var(aX
·    + bY ) = a 2  var( X )  +  b 2  var( Y )  + 2 cov( X , Y ) 
var(aX
en al caso en que  X  y  Y sean estadísticamente independientes
·    + bY ) = a 2  var( X )  +  b 2  var( Y ) 
var(aX

Como se ha podido observar el segundo momento alrededor de la media se expresó en 
términos  de  los  primeros    dos  momentos  alrededor  de  0.  En  general  todos  los 
momentos centrales de una variable se pueden expresar en términos de los momentos 
alrededor de 0, dado que: 

m r = E [( x - m ) r  ]  


Recuerdese que
n
æ n ö
( a  + b ) n  = å çç ÷÷a n  i b i 
-

i  i 
= 0  è ø
O sea que:
r
æ r ö
( x - m ) r  = å (- 1 )i çç ÷÷ x r  i m i 
-

i  = 0  i  è ø
ahora

é r  æ r ö ù r r  r r 
m r  = E êå (- 1)i çç ÷÷ x r -i   m i ú =  å (- 1)i æçç ö÷÷ m i E ( x r -i )  =  å æçç ö÷÷(- m ) i m r ' -i 
ë i =0  è i ø û i = 0  è i ø i = 0  è i ø

ejemplo si se necesitara el tercer momento central 


æ 3 ö æ 3ö æ 3 ö æ 3 ö æ 3 ö
m 3 =  å çç ÷÷( - m ) i m ' 
3 -i  =  çç ÷÷( - m ) 0 m 3 '  + çç ÷÷( - m ) m 2 '  + çç ÷÷( - m ) 2 m1 '  + çç ÷÷( - m ) 3 m 0 ' 

= 0 i è ø è 0 ø è 1 ø è 2 ø è 3 ø

=  m 3 '  - 3mm 2 '  + 3 m 2 m 1 '  - m 3  = m 3 '  - 3mm 2 '  + 3 m 3  - m 3 

29 
= m 3 '  - 3mm 2 '  + 2 m 3 

Los  momentos  centrales  tercero  y  cuarto  proporcionan  información  muy  útil  con 
respecto  a  la  forma  de  la  distribución  de  probabilidad  de  X  y  reciben  el  nombre  de 
factores de forma. 

El  tercer  momento  de  cualquier  variable  aleatoria  se  encuentra  relacionado  con  la 
asimetría de la distribución de probabilidad de  X  . 

En  el  caso  en  que  las  distribuciones  de  probabilidad  presenten  más  de  un  pico,  el 
tercer  momento  puede  presentar  datos  erróneos,  por  eso  es  conveniente  usar  el 
tercer momento estandarizado, dado por: 

a 3  = m 3  /( m 2 ) 3 / 2  =  m 3  / var( X ) 3 / 2 

a 3 recibe  el  nombre  de  coeficiente  de  asimetría  y  como  su  nombre  lo  indica  mide  la 
asimetría de la distribución de probabilidad con respecto a su dispersión. La distribución 
puede ser:

· Asimétrica positivamente  a 3 > 0 

0  5  10  15 

Gráfico 2.1

30 
·  Simétrica   a 3 = 0 

0  1  2  3  4  5  6

Gráfico 2.2

·  Asimétrica  negativamente  a 3 < 0 

0  0,5  1  1,5  2  2,5  3 

Gráfico 2.3 

El  cuarto momento  ( m )  de  cualquier  variable  aleatoria  mide  que  tan  puntiaguda  es  la 

distribución de probabilidad de  X  y recibe el nombre de curtosis . 


æ 4 ö
m 4 =  å çç ÷÷( - m ) i m ' 
4 - i 

= 0 i è ø

æ 4ö æ 4 ö æ 4 ö æ 4 ö æ 4 ö


=  çç ÷÷( - m ) 0 m 4 '  + çç ÷÷( - m ) m 3 '  + çç ÷÷( - m ) 2 m 2 '  + çç ÷÷( - m ) 3 m1 '  + çç ÷÷( - m ) 4 m 0 ' 
è 0 ø è 1 ø è 2 ø è 3 ø è 4 ø
=  m 4 '  - 4mm 3 '  + 6 m 2 m 2 '  - 4 m 3 m 1 '  + m 4  =  m 4 '  - 4mm 3 '  + 6 m 2 m 2 '  - 4 m 4  + m 4 

= m 4 '  - 4mm 3 '  + 6 m 2 m 2 '  - 3 m 4 

31
Al  igual  que  en  el  tercer  momento  es  recomendable  usar  el  cuarto  momento 
estandarizado, dado por: 

a 4  = m 4  / m 2  =  m 4  / var( X ) 2 

·  Si  a 4 > 3  la distribución de probabilidad presenta un pico relativamente alto 


y  se  dice  que  la  variable  tiene  distribución  que  recibe  el  nombre  de 
leptocúrtica 

0  5  10  15  20 

Gráfico 2.4

·  Si  a 4 = 3  la  distribución  no  presenta  un  pico  ni  muy  alto  ni  muy  bajo  y 
recibe el nombre de mesocúrtica. 

5  7  9  11  13  15 

Gráfico 2.5

32 
·  Si  a 4 < 3  la distribución de probabilidad es relativamente plana y recibe el 
nombre de platicúrtica. 

5  7  9  11  13  15 

Gráfico 2.6 

Ejemplo 2.1: Encontrar la media, la varianza, y los factores de forma de la distribución 
exponencial. 

ì 1 - qx 
ï e  x > 0, 
f ( x ; q )  = íq 
ï0  en  cualquier otro  valor 
î

Solución: 
Primero se debe encontrar los primeros 4 momentos alrededor de cero, para esto:

¥ x  ¥ r  x 
x r - q r - 1 x 
-
m r '  =  E ( x r ) = ò0 q e  dx  =   q ò0  q r  e  q dx 

si reemplazamos
x  1
u= Þ  du = dx 
q  q 
entonces se tendría que
¥
'  r r  - u 
m r =  q ò u  e  du  =  q r G (r + 1 )  =  r ! q r 
0

Luego

m 1'  =  E ( X )  = 1 ! q  = q

33
m 2'  =  2! q 2  =  2q 2 
m 3'  =  3! q 3  =  6q 3 

m 4'  =  4! q 4  =  24q 4 

ahora ya teniendo los cuatro primeros momentos alrededor de cero, se puede calcular 
los momentos alrededor de la media. 

m2 =  var( X )  =  m 2'  - m 2  =  2q 2  - q 2  =  q 2

m 3 =  m 3 '  - 3mm 2 '  + 2 m 3  =  6q 3  - 3 q ( 2 q 2 ) + 2 q 3  =  6q 3  - 6 q 3  + 2 q 3  =  2q 3 
m 4 =  m 4 '  - 4 mm 3 '  + 6 m 2 m 2 '  - 3 m 4  =  24q 4  - 4 q ( 6 q 3 ) + 6 q 2 ( 2 q 2 ) - 3 q 4 
=  24q 4  - 24 q 4  + 12 q 4  - 3 q 4  = 9q 4 

ahora teniendo estos momentos se puede encontrar los coeficientes de asimetría y de 
curtosis. 

a 3  = m 3  /( m 2 ) 3 / 2  =  m 3  / var( X ) 3 / 2  =  2q 3  /( q 2 ) 3 / 2  = 2. 



a 4  = m 4  / m 2  =  9q 4  / q 4  =  9. 

Luego 

E ( X )  = q ,  var( X )  =  q 2 , a 3 =  2, a 4 =  9. 

entonces si se observa los factores de forma se tiene que la grafica de una distribución 
exponencial siempre es asimétrica positivamente y leptocúrtica.

34
DISTRIBUCION EXPONENCIAL 

0  5  10  15  20 

Gráfico 2.7 

Ejemplo 2.2: Encontrar la media, la varianza, y los factores de forma de la distribución 
de poisson.

ì e - l lx
ï x = 0,  1 ,  2 ,  ... 
f ( X ; l ) =  í x ! 
ï0  en  cualquier otro  valor 
î

Solución: 

Para  este  caso  es  muy  complicado  encontrar  m r'  por  esto  se  procede  a  encontrarlos 
uno por uno.

m 1'  =  E ( X )  = l (ver ejemplo 1.8)

m 2'  =  E ( X 2 )  =  E[ X ( X  - 1 ) + X ]  =  E[ X ( X  - 1 )] + E ( X ) 

ahora 
¥
e - l l x  ¥
l x - 2 
E[  X ( X  - 1 )]  = å x( x - 1 )  = l 2 e -l å

=0  x !  i = 2  ( x - 2 )! 

ahora si se hace  y = x - 2 , se tendría 0 £ y £ ¥ , y por tanto 


¥ y 
E[  X ( X  - 1 )]  = l 2 e - l  l = l 2 e - l e l =  l2 ósea que
å
i = 0  ( y )! 

35 
m 2'  =  l2 + l

m 3'  =  E ( X 3 )  =  E[ X ( X  - 1 )( X  - 2 ) + 3 X 2  - 2 X ] 


=  E[ X ( X  - 1 )( X  - 2 )] + E ( 3 X 2  - 2 X ) 

ahora 
¥
e - l l x 
E[  X ( X  - 1 )( X  - 2 )]  = å
i =0 
x(  
x - 
1  x 
)(  - 2 

x ! 
¥
l x -3 
= l3 e -l å
i = 3  ( x - 3 )! 

si se hace  y = x - 3 , se tendría 0 £ y £ ¥ , y por tanto 


¥
l y 
E[  X ( X  - 1 )( X  - 2 )]  = l3 e - l  å = l 3 e - l e l =  l3 ósea que
i = 0  ( y 
)! 

m 3'  =  l3  + E ( 3 X 2  - 2 X )  =  l3  + 3 E ( X 2 ) - 2 E ( X )  =  l3  + 3l2  + l

m 4'  =  E ( X 4 )  =  E[ X ( X  - 1 )( X  - 2 )( x - 3 ) + 6 X 3  - 11 X 2  + 6 X ] 

=  E[ X ( X  - 1 )( X  - 2 )( x - 3 )] + E ( 6 X 3  - 11 X 2  + 6 X ) 


ahora 
¥
e -l lx 
E[  X ( X  - 1 )( X  - 2 )( x - 3 )]  = å

x( x - 1 )( x - 2 )( x - 3 ) 
=0  x ! 
¥
l x - 4 
= l 4 e -l å
i = 4  ( x - 4 )! 

si se hace  y = x - 4 , se tendría 0 £ y £ ¥ , y por tanto 

¥
l y 
E[  X ( X  - 1 )( X  - 2 )( x - 3 )]  = l 4 e - l  å = l 4 e - l e l =  l4
i = 0  ( y 
)! 
ósea que

m 4'  =  l4 + E ( 6 X 3  - 11 X 2  + 6 X )  =  l4 + 6 E ( X 3 ) - 11 E ( X 2 ) + 6 E ( X ) 

36
4 3 2  2 
=  l + 6 ( l  + 3 l + l ) - 11 ( l + l ) + 6 l

=  l4 + 6 l3  + 18 l2  + 6 l - 11 l2  - 11 l + 6 l

=  l4 + 6 l3  + 7 l2  + l

ahora se procede a  calcular los momentos alrededor de la media. 

m2 =  var( X )  =  m 2'  - m 2  =  l2 + l - l2  = l 


m 3 = m 3 '  - 3mm 2 '  + 2 m 3  =  l3  + 3l2  + l - 3 l ( l2  + l ) + 2 l3 
=  l3  + 3l2  + l - 3 l3  - 3 l2  + 2 l3 
= l 
m 4 = m 4 '  - 4 mm 3 '  + 6 m 2 m 2 '  - 3 m 4 
=  l 4  + 6l3  + 7 l2  + l - 4 l ( l3  + 3 l2  + l ) + 6 l2 ( l2  + l ) - 3 l4 

=  l4  + 6l3  + 7 l2  + l - 4 l4  - 12 l3  - 4 l2  + 6 l4  + 6 l3  - 3 l4 



= 3 l + l

Y con esto calcular los factores de forma 

a 3  = m 3  /( m 2 ) 3 / 2  =  m 3  / var( X ) 3 / 2  =  l /(l ) 3 / 2  =  l / l3  = 1 /  l 

3l2  + l 1 
a 4  = m 4  / m 2 2  =  m 4  / var( X ) 2  =  2 
= 3+
l l 

luego 


E ( X )  = l ,  var( X )  =  l 2 + l , a 3 =  1 /  l  , a 4 =  3 +

Si se observan los factores de forma encontramos que la grafica es asimétrica positiva 
y  leptocúrtica  pero  a  medida  de  que l ® ¥ la  grafica  tiende  a  ser  simétrica  y 
mesocúrtica

37 
DISTRIBUCION DE POISSON 

0,25 

0,2 

0,15 

0,1 

0,05 


0  2  4  6  8  10  12 

Gráfico 2.8 

2.2 Funciones gener ador as de momentos 

Cuando  existen  todos  los  momentos  de  una  distribución  (esto  es  cuando  todos  los 
momentos  son  finitos),  es  posible  asociar  una  función  generadora  de  momentos.  Se 

define esta como  E ( e x .t  )  donde  x  es la variable aleatoria y t una variable continua; el 


valor esperado de  e x . t  será una función de  t que representaremos por

ìåe x. t   p ( x ) 
ïï x  donde  X  es  discreta 
x .t 
M x  ( t )  =  E ( e  ) = í ¥
ï ò e x . t  f ( x ) dx  donde  X  es  continua 
ïî- ¥

M x (t )  Genera todos los momentos de  X  alrededor del origen. 

Para demostrar esto se deriva  M x (t ) con respecto a t  y  se evalúa la derivada  en t =0 


pero antes veamos que: 

E[ h ( t )]' = E [ h ' ( t )] 

38 
d  d 
dt 
E [ h ( t )]  = å [ h ( t ) P ( x )] 
dt  x 


=  åx dt [h 
  ( t ) P ( x )]  la derivada de una suma es la suma de las derivadas. 

= åx   [ h'  ( t ) P ( x )] 

=  E [ h ' ( t )] 

para  el  caso  continuo  hay  que  tener  en  cuenta  que  la  derivada  de  una  integral  es  la 
integral de la derivada, 

Ahora si se tiene 

d r  d r 

M x  t 
(  )  =   r 
E ( e x . t ) 
dt  t = o 
dt  t = o 

é d r  ù
=  E ê r 
e x . t  ú t = o 
ë dt  û

=  E ( x r e x . t  ) 
t = o 

=  E ( x r )  =  m r' 

Así como los momentos alrededor de 0 tienen su función generadora de momentos los 
momentos alrededor de la media también tiene dicha función y se define como:

ìåe t ( x - m ) p ( x ) 
ïï x  donde  x  es  discreta 
M ( x - m ) ( t )  = E ( e t ( x - m ) ) = í ¥
ï ò e t ( x -m )  f ( x ) dx  donde  x  es  continua 
ïî-¥

M ( x- m ) ( t )  genera todos los momentos alrededor de la media

39 
Veamos : 

d r  d r 
M ( m - x )  t 
(  )  =   E ( e t ( x - m ) ) 
dt r  t = o 
dt r 
t = o 

é d r  ù
=  E ê r 
e t ( x - m ) ú t =o 
ë dt  û

=  E[( x - m ) r  e t ( x -m ) ) 


t = o 

=  E ( x - m ) r  =  m r

Ejemplo 2.3: Determinar la  función generadora de momentos de:

· la distribución Gamma
· la distribución Chi­cuadrado
· la distribución Exponencial 

y usela para calcular  la media, la varianza y los factores de forma de cada una de las 
distribuciones. 

Solución: 

La distribución Gamma esta dada por 


ì 1  -
a - 1 q
ï a
x  e  x > 0,  a , q > 0 
f ( x ; a , q )  = íG( a ) q
ï0  en  cualquier otro  valor 
î
Luego su función generadora de momentos es: 

¥ - x  ¥ æ x ö
1  1  ç x. t - ÷
a -1 
M x (t )  =  E ( e x .t )  = a ò
e x. t x a -1 e q dx  = ò x  e è

dx 
G ( a ) q 0  G ( a ) q a 0 

¥ x 
1  a -1 
- (1 -q . t )
q
=
G ( a ) q a ò x  e 

dx 

Ahora

40 
si u  = (1- q . t )

Þ du =
(1- q . t ) dx  Þ  dx =
q .du 
q q 1 - q . t 
q .u 
x =
(1 - q . t ) 

Reemplazando se tiene que 

¥ a -1 
1  æ q . u  ö q
M x (t )  = ò0 ççè (1 - q . t ) ÷÷ø e -u du 
G ( a ) q a 1 - q . t 

¥
q a -1 q
= a -1  ò u a -1 e -u du 
  ) q (1 - q . t ) ( 1 - q . t )  0 
G (a a

qa 1 -a
= a
G( a )  = a
= (1 - q . t )
G (a ) q (1 - q . t ) 
a
(1 - q t.  )

y teniendo esta función se puede calcular los primeros cuatro momentos alrededor de 0. 

d d
m 1'  = 
dt 
m x (t )  =
dt 
[
(1 - q . t )-a ]  = - a (1 - q . t ) 
-a -1 
( -q ) 
t = 0 
= qa (1 - q . t ) 
-a -1 
t =0 
t = o  t = 0 

= qa = m 

d2 d
m 2'  = 
dt 
m ( t )  =
2  x 
dt 
[
qa (1 - q . t )-a -1  ]    - 1 ) (1 - q . t ) 
= qa ( -a
-a - 2 
( -q ) 
t = 0 
t = o  t = 0 

-a - 2 
= q 2 a (a + 1 ) (1 - q . t )  =  q 2a ( a + 1 ) 
t = 0 

d3 d 2 
m 3'  = 
dt 
m ( t )  =
3  x 
dt 
[
q  a (a + 1 ) (1 - q . t )-a - 2  ] 
t = o  t = 0 

-a - 3  -a - 3 
= q 2 a (a + 1 )( -a - 2 ) (1 - q . t )  ( -q )  = q 3 a (a + 1 )( a + 2 ) (1 - q . t ) 
t = 0  t = 0 

=  q 3a ( a + 1 )( a + 2 ) 

41 
d4 d 3 
m 4'  = 
dt 
m ( t )  =
4  x 
dt 
[
q  a (a + 1 )( a + 2 ) (1 - q . t )-a -3  ]  = 
t = o  t = 0 

-a - 4 
= q 3 a (a + 1 )( a + 2 )( -a - 3 ) (1 - q . t )  ( -q ) 
t = 0 

-a - 4 
= q 4 a (a + 1 )( a + 2 )( a + 3 ) (1 - q . t )  =  q 4a ( a + 1 )( a + 2 )( a + 3 ) 
t = 0 

ahora se procede a calcular los momentos alrededor de la media 

m2 =  var( X )  =  m 2'  - m 2  =  q 2 a (a + 1 ) - a 2 q 2  = q 2a 2  + q 2 a - a 2 q 2  = q 2 a

m 3 = m 3 '  - 3mm 2 '  + 2 m 3 


=  q 3 a (a + 1 )( a + 2 ) - 3 ( qa )( q 2 a ( a + 1 )) + 2 q 3 a 3 
=  q 3 a (a 2  + 3 a + 2 ) - 3 q 3 a 2 ( a + 1 ) + 2 q 3 a 3 
= q 3 a 3  + 3a 2 q 3  + 2 q 3 a - 3 q 3 a 3  - 3 q 3 a 2  + 2 q 3 a 3 
=  2q 3 a

m 4 =  m 4 '  - 4 mm 3 '  + 6 m 2 m 2 '  - 3 m 4 

=  q 4 a (a + 1 )( a + 2 )( a + 3 ) - 4 qa [ q 3 a ( a + 1 )( a + 2 )] + 6 q 2 a 2 q 2 a ( a + 1 ) - 3 q 4 a 4 

=  q 4 a (a 3  + 6 a 2  + 11 a + 6 ) - 4 q 4 a 2 ( a 2  + 3 a + 2 ) + 6 q 4 a 4  + 6 q 4 a 3  - 3 q 4 a 4 

=  q 4a [ a 3  + 6 a 2  + 11 a + 6 - 4 a ( a 2  + 3 a + 2 ) + 6 a 3  + 6 a 2  - 3 a 3 ] 

=  q 4a [ 4 a 3  + 12 a 2  + 11 a + 6 - 4 a 3  - 12 a 2  - 8 a ] 

= q 4a [ 3 a + 6 ] 

y por ultimo los factores de forma 

2q 3 a 2q 3 a 2a 2 
a 3  = m 3  /( m 2 ) 3 / 2  =  m 3  / var( X ) 3 / 2  =  =  =  =
( q a ) 2  3 
q 3 
a 3 
a 3 

2  q 4 a (3 a + 6 )  (3 a  + 6 )  æ 2 ö


a 4  = m 4  / m 2  =  m 4  / var( X ) 2  =  2  2 
= = 3 ç1 + ÷
( q a )  a è a  ø

luego

42 
M X (t ) =  (1 - 2 . t ) - v / 2 
2  æ 2 ö
m  = qa ,  var( X )  = q 2 a , a 3 =  , a 4 =  3 ç1 + ÷
a  è a  ø

si  se  observan  los  coeficientes  de  forma,  vemos  que  la  distribución  Gamma  es 
asimétrica positivamente y leptocúrtica, si a tiende a 0. Pero tiende a ser mesocúrtica y 
simétrica a medida de que a tiende a infinito. 

DISTRIB UCION GAMMA 

0  5  10  15  20 

Gráfico 2.9 

v
Ahora  como  la  distribución    Chi­cuadrado  es  una  distribución  Gamma  con  a = y 

q = 2 donde  v son los grados de libertad de la variable. Entonces:

M X (t ) =  (1 - 2 . t ) - v / 2 


4  æ 4 ö
m  =  v ,  var( X )  =  2 v , a 3 =  , a 4 =  3 ç1 +  ÷
2 v  è v ø
Igualmente la distribución exponencial es una distribución Gamma con  a  = 1 , luego

M X (t ) =  (1 - q . t ) -1 

43
m  = q  ,  var( X )  =  q 2 , a 3 =  2, a 4 =  9 
Como esta desarrollado en el ejemplo 2.1 

NOTA: En el apéndice al final de este documento se enuncian la media, la varianza, los 
factores  de  forma    y  la  función  generadora  de  momentos  de  cada  una  de  las 
distribuciones especiales.

44
CAPITULO TRES 

DISTRIBUCIÓN DE PROBABILIDAD DE UNA 
FUNCIÓN DE UNA VARIABLE ALEATORIA 

Frecuentemente en estadística se presenta la necesidad de deducir la probabilidad de 
una función de una o más variables aleatorias. 

Por ejemplo supongamos que dadas las variables aleatorias  X 1 , X 2 ,..., X n  y dadas las 


funciones  g 1 ( x 1 , x 2 ,..., x n ); g 2 ( x 1 , x 2 ,..., x n ) ;…; g k  ( x 1 , x 2 ,..., x n ) .  Queremos en general 

encontrar la distribución de  Y1   , Y 2 ,..., Y n  donde  Yi  =  g i ( x 1 , x 1 ,..., x n )  i = 1, 2 , 3 ,..., k 

Para esto se presentan 3 técnicas:

· Técnica de la distribución acumulativa
· Técnica de las transformaciones
· Técnica de la función generadoras de momentos 

En  este  capítulo  solo  se  presentaran  las  2  primeras  técnicas,  la  tercera  la  trataremos 
mas a fondo en el capítulo 4.

45 
3.1  Técnica de la distr ibución acumulativa 

Esta  técnica  esta  basada  como  su  nombre lo  indica  en  la  distribución  acumulativa  de 
probabilidades de una  variable aleatoria  y es  útil en distribuciones continuas de una o 
más variables. 
Teorema  3.1:  Sea  X  una  variable aleatoria  continua  con  función  de  densidad  f X  ( x ) 
donde  f X  ( x ) > 0  para  a  ≤ x ≤  b,  supóngase  la  función  Y = g ( X )  estrictamente 
monótona creciente, y derivable, por lo tanto continúa para todo  x , entonces la variable 
aleatoria  Y = g ( X )  tiene función de densidad dada por:

d  -1 
f Y ( y ) = f X  (g -1 ( y ) ) (g  ( y ) ) 
dy 

Demostración:

F Y ( y ) = p ( Y  £ y ) = p ( g ( X ) £ y ) = p ( X  £ g -1 ( y )) = F X  (g -1 ( y ) ) 

ahora como f Y  ( y ) = F Y '  ( y )  4 propiedad de la distribución acumulativa

d  -1  d  -1 
f Y ( y ) = F X '  (g -1 ( y ) ) (g  ( y ) )  = f X (g -1 ( y ) ) (g  ( y ) ) 
dy  dy 

Ejemplo  3.1:  Si  X  se  distribuye  uniformemente  en  el  intervalo  (-p / 2 , -p / 2 ) 
encontrar la distribución de  Y = tan( X ) 

Solución: 
X  »  f X ( x ) = U ( -p / 2 ,  p / 2 ) 
ß 
Y  = g ( X ) = tan( X )  » f Y  ( y ) = ? 

f X  ( x )  esta definida como f X  ( x ) =  - p / 2 £ x  £ p / 2 

y el intervalo en el que se mueve  Y  es - ¥ £ y = tan( x ) £ ¥ , por tanto

46 
F Y  ( y ) = p ( Y  £ y ) = p (tan( X ) £ y ) = p ( X  £ arctan y ) = F X  (arctan y ) 
ß

f Y ( y ) =  f X  (arctan y ) (arctan y )  - ¥ £ y £ ¥
dy 

1  1 
= - ¥ £ y £ ¥
p 1 + y 2 

Lo  cual  indica  que  la  distribución  de  Y  es  una  distribución  de Cauchy  con  parámetros 
a = 0 y  b = 1 . 

¿Que sucedería si  g ( X )  fuese una función decreciente? 

Teorema  3.2:  Sea  X  una  variable aleatoria  continua  con  función  de  densidad  f X  ( x ) 
donde  f X  ( x ) > 0  para  a  ≤ x ≤  b ,  suponga  la  función  Y = g ( X )  estrictamente 
monótona  decreciente,  y  derivable,  por  lo  tanto  continúa  para  todo  x ,  entonces  la 
variable aleatoria  y = g ( x )  tiene función de densidad dada por:

d  -1 
f Y ( y ) = - f X  (g -1 ( y ) ) (g  ( y ) ) 
dy 

Demostración:

F Y ( y ) = p ( Y  £ y ) = p ( g ( X )  £ y )  = p ( X  ³ g -1 ( y )) = 1 - p ( X  £ g -1 ( y )) = 1 - F X  (g -1 ( y ) ) 

ahora como f Y  ( y ) = F Y '  ( y ) 

d  -1  d  -1 
f Y ( y ) = - F X '  (g -1 ( y ) ) (g  ( y ) )  = - f X (g -1 ( y ) ) (g  ( y ) ) 
dy  dy 

Ejemplo  3.2:  Si  X  se  distribuye  uniformemente  en  el  intervalo  (0,1)  encontrar  la 
distribución de  Y = -2 ln( X ) 

47
Solución: 
X  » f X ( x ) = U ( 0 , 1 ) 
ß 
Y  = g ( X ) = -2 ln( X )  » f Y  ( y ) = ? 

f X  ( x )  está definida como  f X  ( x ) = 1  0 £ x £ 1 


y el intervalo en el que se mueve  y  es 0 £  y  = -2 Ln ( x ) £ ¥ , por tanto

FY  ( y ) = p ( Y  £ y ) = p ( -2 ln( X ) £ y ) = p ( X  ³ e - y / 2 ) = 1 - p ( X  £ e - y / 2 ) = 1 - F X  (e - y / 2  ) 

d  - y / 2  æ 1  ö
f Y ( y )  = - f X  (e - y / 2 ) (e  ) = - ç - e - y / 2 ÷
dy  è 2  ø

1  - y / 2 
= e 0 £ y £ ¥

Luego la distribución de  y  es la distribución de una variable Chi­cuadrado con 2 grados 
de libertad. 

El problema de esta técnica es que  solo sirve para distribuciones continuas  ya que en 

las distribuciones discretas no se cumplo que f Y  ( y ) = F Y '  ( y ) . 

El  ejemplo  que  sigue  es  muy  particular  porque  recordemos  que  las  funciones 
acumulativas tienen la propiedad de:

F Y  ( y ) =  p (Y 
  £ y )  =  p ( g ( X ) £ y )  = ò f ( x ) dx 
- ¥

y mas general quedaría
y  y  y 
F Y  ( y ) =  p (Y 
  £ y )  =  p ( g ( X 1 , X 2 , X 3 , ) £ y )  = ò ò ò  f ( x  , x  , x  ) dx dx  dx 
1  2  3  1  2  3 
- ¥-¥- ¥

Ejemplo  3.3:  Sea  X 1 ,  X 2 ,  X 3  variables  aleatorias  independientes  cada  una  con 
distribución normal estándar. Halle la distribución de  Y 

Solución:

48 

1  - x 1 2 
X1  » f X  ( x 1 ) =

e  2 
- ¥ £ x1    £ ¥
2 p


1  - x 2 2 
X 2  » f X  ( x 2 ) =

e  2  - ¥ £ x 2  £ ¥
2 p


1  - 2 x 3 2 
X 3  » f X 3 ( x 3 ) = e  - ¥ £ x 3  £ ¥
2 p

Luego la función conjunta es:


- ¥ £ x1    £ ¥
1  - ( x 1 2 + x 2 

+ x 3 2 ) 
f X 1 , X 2 , X 3  ( x 1 , x 2 , x 3 ) =  e 2 
- ¥ £ x 2  £ ¥
( 2 p ) 3 / 2 
- ¥ £ x 3  £ ¥

F Y ( y ) =  p ( Y  £ y )  = p ( x 12   +  x 2 2  + x 3 2  £ y ) .



1  - ( x 1 2 + x 2 2 + x 3 2 ) 
F Y ( y ) = òòò 3 / 2 
e  2  dx 1 dx 2 dx 3 
A  (2 
p ) 

donde A es la región determinada por el circulo de centro  ( 0 , 0 , 0 )  y de radio  y  , para facilidad 


se hace un cambio de variables.  Entonces si:

x1  = r cos q . sen j , x 2 =  r sen q . sen j , x 3 = r cos j

donde  0 £ r  £ y , 0 £ q  £ 2 p , 0 £ j £ p

Luego 

X 12   +  X 22   + X 32   = r 2  cos 2 q . sen 2 j + r 2 sen 2 q .sen 2 j + r 2  cos 2 j
= r 2 [cos 2 q . sen 2 j + sen 2 q .sen 2 j +  cos 2 j ] 
= r 2 [.sen 2 j (cos 2 q +  sen 2q )  +  cos 2 j ] 
= r 2 [.sen 2 j +  cos 2 j ] 
2
=  r

49 
Luego 

y  2 p p 1 - r 2 
F Y ( y )  = ò ò ò (2 p ) 3 / 2 
e  2  r 2 sen j d j d q d r
0  0  0 


y  2 p 2 - r 2 
=ò ò (2 p ) 3 / 2 
e  2  r 2  d q d r
0  0 

1  1  1 
y  2( 2 p )  - 2 r 2  2  2 y - r 2  2  y - r 2 
=ò e  r d r =  ò r 2 e  2  d r =  ò rr e  2  d r

2 p 2 p p 0  p 0 

si hacemos  r = w Þ  r 2 = w
1
Þ  dr
   = dw 
2  w 

w w
2 y  w  - 2 y  w  -
F Y  ( y )  =  e  2  dw  =  e  2  dw 
p  ò0  2  p ò0  2 

ß 
y  y 
2  y - 2  1  -
f Y  ( y )  = e  = ( y) 3 / 2  -1 e  2 
p  2  2 p 

ahora veamos que:

G (3 / 2 )2 3 / 2  = 2 p 


1
G(3 / 2 ) 2 3 / 2  =  G(1 / 2 ) 2  2  = p 2 =  2p 

Luego 
y  3 / 2  y 
1  -
3 / 2  -1  2  1  æ 1 ö 3 / 2  -1 
-
f Y ( y )  = y
(  )  e  =  ç ÷ ( y)  e  2 
G(3 / 2 ) 2 
3 / 2 
G(3 / 2 ) è 2 ø

o sea que  Y tiene una distribución Chi­cuadrado con 3 grados de libertad.

50 
3.2   Técnica de transfor maciones 

Esta  técnica  es  usada  tanto  en  distribuciones  discretas  como  en  distribuciones 
continuas. 

3.2.1  Técnica de tr ansformaciones par a var iables discr etas 

Teorema  3.3:  Supóngase  que  X  es  una  variable  aleatoria  discreta  con  distribución  de 
probabilidad  f X  ( x ) . Si la función  Y = g ( X )  define una transformación uno a uno entre 
los valores  X  y  Y , de tal forma que la ecuación  y = g ( x )  tenga su inversa  x = g ( y ) , 
entonces la distribución de  Y  es:

f Y ( y )  = f X  (g -1 ( y ) ) 

Demostración:

F Y ( y ) = p ( Y  = y ) = p ( g ( X ) = y ) = p ( X  = g -1 ( y )) = f X  (g -1 ( y ) ) 

Ejemplo  3.4:  Sea  X  es  una  variable  aleatoria  discreta  donde  su  distribución  se 
encuentra dada por 

ì x  x = 1, 2 , 3 , 4 


ï
f X  ( x ) = P ( X  = x )  = í10 
ïî0  en  cualquier otro  caso 

Encontrar la distribución de  Y  = 3 X  + 1 

Solución: 
si X varia entre 1 y 4 se ve claramente que Y  4,7,10,13, entonces 
y - 1 
y = g ( x ) = 3 x + 1  Þ  x = g -1  ( y ) =

ahora

æ y - 1 ö æ y - 1 ö


f Y ( y ) =  p ( Y  = y ) = p ( 3 X  + 1 = y ) = p ç X  = ÷ = f X  ç ÷
è 3  ø è 3  ø

51 
æ y - 1 ö
f Y  ( y ) =  ç ÷
è 30  ø

Luego la distribución de  y se encuentra dada por: 

ì y - 1  y = 4, 7 , 10 , 13 


ï
  = y )  = í 30 
f Y  ( y ) = P (Y 
ïî0  en  cualquier otro  caso 

Supongamos  ahora  el  problema  en  el  que  X 1 , X 2 ,..., X n ,  son  variables  aleatorias 

discretas  con  función  conjunta  f X 1 , X 2 ,..., X n  ( x 1 , x 2 ,..., x n ),  y  se  desea  encontrar  la 

probabilidad conjunta  f Y  , Y  ,..., Y n  ( y 1 , y 2 ,..., y n ) de las nuevas variables aleatorias 


1 2 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ), 

las  cuales  definen  una  transformación  uno  a  uno  entre  los  conjuntos  de 
puntos ( x 1 , x 2 ,..., x n ) y  ( y 1 , y 2 ,..., y n ) .Si  se  resuelven  las  ecuaciones  simultáneamente 

se encontrara la solución inversa única 

x1  = g 1 -1 ( y 1 , y 2 ,..., y n ),  x 2  = g 2 -1 ( y 1 , y 2 ,..., y n ),  ...,  x n  = g n -1 ( y 1 , y 2 ,..., y n ), 

Teorema  3.4:  Supóngase  que  X 1 , X 2 ,..., X n ,  son  variables  aleatorias  discretas  con 

distribución  de  probabilidad  conjunta  f X   , X  ,..., X n  ( x 1 , x 2 ,..., x n ) .  Si  las  funciones 
1 2 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ),  definen  una 


transformación uno a uno entre los valores  ( x 1 ,..., x n )  y  ( y 1 ,..., y n )  de tal forma que las 

ecuaciones  y1  = g 1 ( x 1 ,..., x n ),..., y n  = g n ( x 1 ,..., x n )  tengan  inversa  respectivamente 

x1  = g 1 -1 ( y 1 ,..., y n ),..., x n  = g n -1 ( y 1 ,..., y n ),  entonces  la  distribución  conjunta 

de Y 1 , Y 2 ,..., Y n ,  es:

f Y  ,..., Y n , ( y 1 ,..., y n )  = f X   ,..., X n [ g 1 -1 ( x 1 ,..., x n ),... g n -1 ( x 1 ,..., x n )] 


1   1

52
Demostración: 

f Y  , Y  ,..., Y n , ( y 1 , y 2 ,..., y n ) 


1 2   

=  p ( Y 1  = y 1 ,  Y 2  = y 2 ,  ...  , Y n  = y n ) 


=  p ( g 1 ( x 1 , x 2 ,... x n ) = y 1 ,  g 2 ( x 1 , x 2 ,... x n ) = y 2 ,  ...  , g n ( x 1 , x 2 ,... x n ) = y n ) 

=  p ( x 1  = g 1-  1 ( y 1 , y 2 ,... y n ),  x 2  = g -2 1 ( y 1 , y 2 ,... y n ),  ...,  x n  = g n -1 ( y 1 , y 2 ,... y n )) 

= f X   , X  ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] 


1 2 

Ejemplo  3.5:  Sean  X 1 y  X 2  variables  aleatorias  independientes  de  poisson.  Halle  la 
distribución de la suma de dichas variables. 

Solución: 

l1 x  e - l
1  1 

X 1  »  f X   ( x 1 ) = x 1 = 0,1,2,3,… 


1
x 1 ! 

l1 x  e - l
2  2 

X 2  »  f X   ( x 2 ) = x 2  = 0,1,2,3,…


2
x 2 ! 

l1 x  l 2 x  e - ( l +l ) 


1 2  1  2 

f X   , X  ( x 1 , x 2 ) =  x 1 , x 2  = 0,1,2,3,… 


1 2 
x 1 ! x 2 ! 

Y1  = X 1  + X 2  Þ  f Y  ( y 1 ) = ?  1

Usamos una variable auxiliar para poder tener una transformación uno a uno. 
y2  = x 2 
Ahora si procedemos a encontrar las inversas: 

x1  = y 1  - x 2  Þ  x1  =  y 1  - y 2  =  g1- 1 ( y 1 , y 2 ) 


x2  =  y 2  = g 2- 1 ( y 1 , y 2 ) 
Y los Intervalos de  y 1  y  y 2  son: 
x1 ³  0  Þ  y1 - y 2  ³ 0  Þ  y2  £  y 1 
x2 ³ 0  Þ  y2 ³ 0  Þ  0 £ y2  £ y 1 
0 £  y 1  £ ¥
por tanto 
y 1 = 0,1,2,3,…

53 
y 2 = 0,1,2,3,…,  y 1 

aplicando el teorema encontramos la distribución conjunta de  Y 1 y  Y 2  es 

f Y  , Y  ( y 1 , y 2 )  =
1 2 
f X  , X  ( y 1  - y 2 , y 2 ) 
1 2 

l1 y   y  l2 y  e -( l +l ) 


1- 2  2  1  2 


( y 1  - y 2 )! y 2 ! 

y  para  encontrar  la  distribución  de  f Y 1  ( y 1 ) ,  se  calcula  la  distribución  marginal  de  Y1, 

sumando la distribución conjunta con respecto a  y 2 , entonces: 

y 1 
l1 y  - y  l 2 y  e - ( l +l ) 
y 1  1  2  2  1  2 

f Y  ( y 1 ) =
1 å f Y  , Y  ( y 1 , y 2 )  =

1  2  å0  ( y  - y  )! ( y  )! 
1  2  2 

y 1 
l1 y  - y  l2 y 
1  2  2 

= e - ( l +l1  2 ) 


å0  ( y  - y  )! ( y  )! 
1  2  2 

e - ( l + l )  y 
1  2 
y 1 ! 

=  å l1 y  - y  l2 y  1  2  2 

y 1 !  0  ( y 1  - y 2 )! ( y 2 )! 


e - ( l +l ) 
1  2 

=  ( l1  + l2 ) y  1 

y 1 ! 

( l1  + l2 ) y1 
f Y  ( y 1 )  =  e - ( l  +l ) 
1 2 
y 1 = 0,1,2,3,… 
1
y 1 ! 

Luego la distribución de la suma de 2 variables de poisson es una variable de poisson 
con parámetro  l1 + l2 .

54 
3.2.1  Técnica de transformaciones para variables continuas 

En este caso se enuncia el siguiente teorema: 

Teorema 3.5: Supóngase que  X  es una  variable aleatoria continua con distribución de 


probabilidad  f X  ( x ) .  Si  la  función  y = g ( x )  define  una  correspondencia  uno  a  uno 
entre  los  valores  X  y  Y ,de  tal  forma  que  la  ecuación  y = g ( x )  tenga  su  inversa 

x = g -1 ( y ) , entonces la distribución de  Y es:

f Y ( y )  =  f X  (g -1 ( y ) )  J 


d  -1 
donde  J = g  ( y )  y recibe el nombre de jacobiano de la transformación. 
dy 

Demostración: 
La  demostración  puede  abrirse  en  dos  casos,  en  el  caso  en  el  que  y = g ( x )  es 
creciente y en el caso en el que  y = g ( x )  es decreciente.

· Supongamos que  y = g ( x )  es creciente. 


g­1(a) 
0  1,5 

escojamos dos puntos arbitrarios de  y , por ejemplo  a  y  b  entonces:

55 
P (a 
  £ Y  £ b )  =  P (Y 
  £ b ) - P ( Y  £ a ) 
=  P ( g ( X ) £ b ) - P ( g ( X ) £ a ) 

=  P ( X  £ g -1 ( b )) - P ( X  £ g -1 ( a )) 


-1  
=  P[ g  ( a ) £ X  £ g -1 ( b )] 
g -1 ( b ) 
= ò f  X  ( x ) dx 
g - 1 ( a ) 

Ahora  cambiando    la  variable  de  integración  de  x  a  y  por la  relación  x = g -1 ( y )  se 
tendría que: 

dx = [ g -1 ( y )] '  dy 


luego 

 
-1 
P (a 
  £ Y  £ b ) = òa  f X  ( g  ( y ))[ g -1 ( y )] ' dy 

como  a  y  b  recorren todos los valores permisibles de  y  siempre que  a < b  se tiene 


que 

f Y  ( y )  =  f X ( g -1 ( y ))[ g -1 ( y )] ' 


(
= f X  g -1 ( y )  . J  ) 

Se conoce a  J = [ g -1 ( y )] '  como el reciproco de la pendiente de la línea tangente a la 


curva de la función creciente  y = g ( x )  es obvio entonces que  J =  J  . 
Luego

f Y ( y ) =  f X  (g -1 ( y ) )  J

· Supongamos que  y = g ( x )  es decreciente.

56 



g­1(a) 
0  5 

escojamos otra vez  puntos arbitrarios de  y ,  a  y  b  entonces: 

P (a 
  £ Y  £ b )  =  P (Y 
  £ b ) - P ( Y  £ a ) 
=  P ( g ( X ) £ b ) - P ( g ( X ) £ a ) 

=  P ( X  £ g -1 ( b )) - P ( X  £ g -1 ( a )) 


-1  
=  P[ g  ( b ) £ X  £ g -1 ( a )] 
g -1 ( a ) 
= ò f X  ( x ) dx 
g - 1 ( b ) 

otra vez cambiando  la variable de integración de  x  a  y  se tiene que: 


 
-1 
P (a 
  £ Y  £ b ) = òb  f X  ( g  ( y ))[ g -1 ( y )] ' dy 


= -  f X  ( g -1 ( y ))[ g -1 ( y )] ' dy 
òa 
como  a  y  b  recorren todos los valores permisibles de  y siempre que  a < b  se tiene 
que 

  £ Y  £ b )  = - f X  (g -1 ( y ) ).   J 


P (a 

en este caso la pendiente de la curva es negativa, por tanto  J = - J  .

57 
f Y ( y ) =  f X  (g -1 ( y ) )  J 

con lo cual se concluye el teorema. 

Ejemplo 3.6: Sea  X  variable aleatoria  B(a , b ) . Halle la distribución de  y = 1 - x . 

Solución: 
G ( a + b )  a -1 
X  » f X  ( x ) = x  ( 1 - x ) b -1  0 £ x  £ 1 
G( a ) G ( b ) 

Y = g ( X ) = 1 - X  Þ  f Y  ( y ) = ? 

encontramos la inversa de  g ( X ) 

x = 1 - y = g -1 ( y ) 

Y el intervalo en el que se mueve  y  es: 

0 £  y = 1 - x £ 1 

aplicando el teorema encontramos la distribución de  Y

f Y ( y )  =  f X  (1 - Y )  - 1

=  f X (1 - Y ) 

G(a + b ) 
= ( 1 - Y ) a -1 ( Y ) b -1 
G( a ) G( b ) 

Luego  Y  es una distribución  B( b , a ) 

58
Teorema  3.6:  Supóngase  que  X 1 , X 2 ,..., X n  son  variables  aleatorias  continuas  con 
distribución  de  probabilidad  conjunta  f X 1 , X 2 ,..., X n , ( x 1 , x 2 ,..., x n ) .  Si  y1  = g 1 ( x 1 , x 2 ,..., x n ), 
y2  = g 2 ( x 1 , x 2 ,..., x n ),  ...,  y n  = g n ( x 1 , x 2 ,..., x n ),  definen  una  transformación  uno  a 
uno  entre  los  valores  ( x 1 , x 2 ,..., x n )  y  ( y 1 , y 2 ,..., y n )  de  tal  forma  que  las  ecuaciones 

y1  = g 1 ( x 1 , x 2 ,..., x n ),  y 2  = g 2 ( x 1 , x 2 ,..., x n ),..., y n  = g n ( x 1 , x 2 ,..., x n ),  tengan  inversa 

x1  = g 1 -1 ( y 1 , y 2 ,..., y n ),  x 2  = g 2 -1 ( y 1 , y 2 ,..., y n ),..., x n  = g n -1 ( y 1 , y 2 ,..., y n ), , 


respectivamente entonces la distribución conjunta de Y 1 , Y 2 ,..., Y n ,  es: 

f Y  , Y  ,..., Y n , ( y 1 , y 2 ,..., y n ) 


1 2   

=  f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )]  J 

donde el jacobiano es el determinante de n x n. 

¶x 1  ¶x 1  ¶x 1 


... 
y 1  y 2  y n 
¶x 2  ¶x 2  ¶x n 
... 
J =  y 1  y 2  y 2 
M  M M
¶x n  ¶x n  ¶x n 
... 
y 1  y 2  y n 

Ejemplo  3.7:  Sean  X 1 y  X 2  variables  aleatorias  independientes  con  distribución 
normalmente estandarizada. Halle la distribución del cociente de dichas variables. 

Solución: 

1  - 2 x 1 2 
X1  » N ( 0 , 1 ) = f X  ( x 1 ) = e  - ¥ £ x1   £ ¥

2 p

1  - 2 x 2 2 
X1  » N ( 0 , 1 ) = f X  ( x 2 ) = e  - ¥ £ x2  £ ¥

2 p


1  - 2 ( x 1 2 + x 2 2 )  - ¥ £ x1  £ ¥
f X 1 , X 2  ( x 1 , x 2 ) =  e
2 p - ¥ £ x 2  £ ¥

59 
x 1 
y1  = Þ  f Y 1 ( y 1 )  = ? 
x 2 
Usamos una variable auxiliar para poder tener una transformación uno a uno 
y2  = x 1  + x 2 
procedemos a encontrar las inversas: 

y2  = x 1  + x 2  Þ  y2  =  y 1 x 2  + x 2 


y2  = ( y 1  + 1 ) x 2 
y 2 
x 2 =  =  g 2-  1 ( y 1 , y 2 ) 
( y 1  + 1 ) 
y 1 y 2 
x 1 =  =  g1- 1 ( y 1 , y 2 ) 
( y 1  + 1 ) 

Y los Intervalos de  y 1  y  y 2  son: 

en este caso no hay ninguna restricción luego

- ¥ £ y2  £ ¥ - ¥ £ y 1  £ ¥

y el jacobiano es 

y 2 y 1 
( y  + 1 ) 2  y 1  + 1  y 2  y 2 y 1  y  (1 +  y 1 ) 
J  =  1  =  + =  2  =  y 2 ( y 1  + 1 ) -2 
y 2  1  3  3 
( y 1  + 1 )  ( y 1  + 1 )  ( y 1  + 1 ) 3 
-
( y 1  + 1 ) 2  y 1  + 1 

aplicando el teorema encontramos la distribución conjunta de  Y 1 y  Y 2  es 

æ y 1 y 2  y 2  ö
f Y  , Y  ( y 1 , y 2 )  =  f X  , X  çç
1 2 
,  ÷÷ y 2  ( y 1  + 1 ) -2 
è y 1  + 1  y 1  + 1 ø
1  2 

2  2 
1 é æ y  y  ö æ y  ö ù
-  ê çç 1  2  ÷÷ + çç 2  ÷÷ ú
1  2 ê è y 1 +1 ø è y 1 +1 ø ú
= e ë û
y 2  ( y 1  + 1 ) -2 
2 p 
2  2 
1 æ y 2  ( y 1  +1 ) ö
1  - 2 ççè ( y 1 +1 ) 2  ÷ø
÷
y2 
= e - ¥ £ y 2  £ ¥ , - ¥ £ y1  £ ¥
2 p  ( y 1  + 1 ) 2 

60 
y  para  encontrar  la  distribución  de  f Y 1  ( y 1 )  integramos  la  distribución  conjunta  con 

respecto a  y 2 , entonces: 
¥ ¥ 1 æ y22   ( y 1 2 +1 ) ö
1  - 2 çç ( y 1 +1 ) 2  ÷ø
÷
y 2 
f Y 1 ( y 1 ) =  ò f Y1 , Y 2  ( y 1 , y 2 ) dy 2  = ò e  è dy 2 
-¥ -¥
2 p ( y 1  + 1 ) 2 

ahora, si hacemos 

1 y 2 2 ( y 1 2  + 1 )  ( y 1 2  + 1 ) 


u =  Þ  du = y 2 dy 2  Þ 0 £ u £ ¥
2  ( y 1  + 1 ) 2  ( y 1  + 1 ) 2 

luego 

¥
1   -u y 2  ( y 1  + 1 ) 2 
f Y  ( y 1 )  = e  du 
1
2 p ò0  ( y 1  + 1 ) 2 ( y 1 2  + 1 ) y 2 

¥
2  -u
e  du 
2 p ( y  + 1 ) ò
= 2 
1  0 



p ( y12  + 1 ) 


f Y  ( y 1 )  =  - ¥ £ y 1  £ ¥
1
p ( 1 + y12   ) 

con lo que se tiene que la distribución del cociente de  2 variables normal estándar es 
una variable de Cauchy  con  a = 0 y  b = 1

61 
CAPITULO  CUATRO 

TÉCNICA DE FUNCIÓN GENERADORA DE 
MOMENTOS 

4.1  Descr ipción de la técnica 

Este  es  otro  método  para  determinar  la  distribución  de  variables  aleatorias,  es 
construido  en  base  a  la  función  generadora  de  momentos  y  es  muy  útil  en  algunos 
casos. 

“Supongamos  las  variables  aleatorias  X 1 ,..., X n  con  función  de  densidad  conjunta 
f X   ,..., X n  ( x 1 ,..., x n )  y las funciones  g 1 ( x 1 ,..., x n ) ,…, g k ( x 1 ,..., x n ) , se desea encontrar la 
1

distribución  de  Y1  = g 1 ( x 1 ,..., x n ) ,…, Yk  = g k  ( x 1 ,..., x n )  apoyados  en  que  si  la  función 
generadora de momentos de  Y1   , Y 2 ,..., Y k  existe es: 

M Y  ,..., Y n  ( t 1 ,..., t k  ) 
1

= E [exp( t 1Y 
  1  + ... + t k Y k  ) ] 

= ò ... ò exp( t Y  + ... + t k Y k  ) f X 


1  1  1 ,..., X n 
( x 1 ,..., x n ) dx 1 ... dx n 

= ò ... ò exp [g  ( x  ,..., x n ) t  + ... + g k ( x  ,..., x n ) t k  ] f X 


1  1  1  1  1 ,..., X n 
( x 1 ,..., x n ) dx 1 ... dx n 

62 
Después de  encontrar la solución de la anterior  integral, esta  solución estará dada en 
función  de  t1  ,..., t k  y  puede  ser  reconocida  como  la función  generadora  de  momentos 

de  alguna  distribución  conocida,  luego  Y1   , Y 2 ,..., Y k  tendrá  dicha  distribución  gracias  a 

que la función generadora de momentos un única. 

En  el  caso  de  que  k  > 1 este  método  puede  ser  de  uso  limitado  ya  que  porque 
podemos reconocer pocas funciones generadoras de momentos. Para  k  = 1 la función 
generadora  de  momentos  tendrá  un  solo  argumento  por  tanto  será  sencillo  reconocer 
las su función generadora de momentos. 

Esta  técnica  es  muy  útil  cuando  deseemos  encontrar  la  distribución  de  la  suma  de 
variables independientes” 8 . 

Ejemplo 4.1: Sea  X  una variable aleatoria con una distribución Weibull de parámetros

a y q , obtener la distribución de Y = X a 

Solución:
a
a  é æ x ö ù
X  » f X  ( x ) = a x a -1  exp ê - ç ÷ ú x > 0;  a , q > 0 
q êë è q ø úû

¥ 

  ò exp (x  t ) f  ( x ) dx  = 
M y (t )  = E [exp (x  t )] = a
X

¥ a
a é æ x ö ù
= a ò
xa -1 exp ê x a t - ç ÷ ú dx 
q 0  êë èq ø úû

a ¥ a -1  é x a ù
= a ò
x exp ê-  a (1 - q a t )ú dx 
q 0  ë q û

Si hacemos 

xa axa - 1 qa
u  = (
1 q
-  a
)
t    Þ  du  = (1 - q a t )dx  Þ  x a -1 dx  = du 
a (1 - q a t ) 
qa qa


Introduction to the theory of statistics. Mood,Graybill, Boes. Pág 96

63 
Luego reemplazando se tiene que: 

a ¥ -u qa
M y (t )  =  e  du 
q a ò0  a (1 - q a t ) 
¥
1
e -u du 
( 1 - q a t ) ò0 


=  a
=  (1 - q a t ) -1 
( 1 - q t ) 

Luego  Y  es una distribución exponencial negativa con parámetro q a . 

Ejemplo 4.1: Supóngase que  X  tiene una distribución normal con media 0 y varianza 
1, sea  Y = X 2 , encontrar la distribución de probabilidad de  Y 

Solución: 
- x 2 

X » f X  ( x ) = e  2  - ¥ £ x £ ¥
2 p

¥
  ò exp (x  t ) f  ( x ) dx 
M y (t )  = E [e Y . t ] = 2 

- ¥

¥

ò exp (x  t - x  / 2 )dx  = 
2 2 
=
2 p -¥

¥
1  é x 2 ù
= ò ê-  ( 1 - 2 t ) ú dx  = 
exp 
2 p -¥ ë 2  û

1
¥ é 1 æ x  ö ù
exp ê-  ç ÷ ú dx 
2 p -ò¥ êë 2 çè 1 /( 1 - 2 t ) ÷ø úû
=

Luego

64 
mx = 0,  s x2  =  1 /( 1 - 2 t )  Þ  s x = 1 /  ( 1 - 2 t )  = (1 - 2 t ) -1 / 2 

asi 
¥
1  é 1 æ x - m ö 2 ù
-1 / 2 
M y (t )  = (1 - 2 t )  ò exp ê- çç x 
÷÷ ú dx  =  (1 - 2 t ) -1 / 2 
2 p s x  êë 2 è s x  ø ú
-¥ û
Luego  Y  posee  una  distribución  Chi­cuadrado  con  1  grado  de  libertad.  Entonces  la 
distribución del  cuadrado de una distribución normal estándar es una distribución Chi­ 
cuadrado con 1 grado de libertad 

En el siguiente ejemplo será necesario manipular la expresión con el fin de evitarnos la 
integración y encontrar la función generadora de momentos. 

Ejemplo  4.3:  Sea  X 1  y  X 2 variables  aleatorias  independientes  cada  una  con 
( X 2  - X 1 ) 2 
distribución normal estándar. Halle la distribución de  Y =

Solución: 

1  - x 1 2 
X1  » f X  ( x 1 ) =

e  2  - ¥ £ x1   £ ¥
2 p

1  - x 2 2 
X 2  » f X  ( x 2 ) =

e  2  - ¥ £ x 2  £ ¥
2 p

Luego la función conjunta es:


1  - 2 ( x 1 2 + x 2 2 )  - ¥ £ x 1  £ ¥
f X   , X  ( x 1 , x 2 ) =  e
1 2 
2 p - ¥ £ x 2  £ ¥

ahora 
¥ ¥
é æ ( x  - x  ) 2 t ö ù æ ( x 2  - x 1 ) 2 t ö
M y (t )  = E êexp çç 2  1  ÷÷ ú = ò ò ççè 2  ÷÷ø f X 1 , X 2  ( x 1 , x 2 ) dx 1 dx 2  = 
exp 
ë è 2  øû - ¥- ¥

¥ ¥
1  æ ( x2  - x 1 ) 2 t - ( x 1 2  + x 2 2 ) ö
= ò ò 2 p ççè
- ¥- ¥
exp 

÷÷dx 1 dx 2 
ø

entonces

65 
( x2  - x 1 ) 2 t - ( x 1 2  + x 2 2 )  1 
=  -  [( x12   + x 2 2 ) - ( x 2  - x 1 ) 2 t ] 
2  2 

=  -  [ x12   + x 2 2  - x 2 2 t + 2 x 2 x 1 t - x 1 2 t ] 


=  -  [ x12   ( 1 - t ) + x 2 2 ( 1 - t ) + 2 x 2 x 1 t ] 

1 é æ 2 x  x t öù
= -  ê x 2 2 ( 1 - t ) + ( 1 - t ) ç x 1 2  + 2  1  ÷ú
2 ë è 1 - t  øû

1 é 2  é 2  2 x 2 x 1 t  æ x 2 t  ö 2  æ x 2 t  ö 2 ù ù


= -  ê x 2 ( 1 - t ) + ( 1 - t ) ê x 1  + +ç ÷ -ç ÷ úú
2 ê ê
ë 1 - t  è 1 - t ø è 1 - t ø ûú ú
ë û

1 é 2  æ x 2 t  ö ( x 2 t ) 2  ù
= -  ê x 2  ( 1 - t ) + ( 1 - t ) ç x 1  + ÷ - ú
2 ëê è 1 - t ø 1 - t  ûú

x 2 (1 - t )  1 ( x 2 t ) 2  ( 1 - t ) æ x  t  ö
=  -  2  + - ç x 1  + 2  ÷
2  2  1 - t  2  è 1 - t ø

Luego 

¥ ¥ 2 
1  é x2 ( 1 - t )  x 2 2 t 2  ( 1 - t ) æ x 2 t  ö ù
M y (t )  = ò ò 2 p ê 2  2 ( 1 - t )  2  è 1  1 - t ø úúdx 1 dx 2 
exp 
ê -  + - ç x  + ÷
- ¥- ¥ ë û


¥
æ x2 ( 1 - t )  x 2 2 t 2  öìï ¥ é ( 1 - t ) æ x 2 t  ö ù üï

2 p ò exp ççè - 2  + 2 ( 1 - t ) ÷÷øíï-ò¥exp êê- 2  çè x 1  + 1 - t ÷ø úú dx 1 ýïdx 2 
-¥ î ë û þ

ahora 

æ x  t  ö
2  ç x1  + 2  ÷
(1 - t ) æ x 2 t  ö 1 è 1 - t ø
-  ç x 1  + ÷ =  -
2  è 1 - t ø 2  1 /( 1 - t ) 

Luego si hacemos: 

x2 t 
m1 =  -  ,  s x2   =  1 /( 1 - t )  Þ  s x   =  1 /( 1 - t )  = 1 /  ( 1 - t ) 
1 - t  1 1

66 
entones 

M y (t ) 


¥
æ x2 ( 1 - t )  x 2 2 t 2  öìï 1  ¥ 1  é 1 æ x  - m ö 2 ù üï
=  ò-¥ çèç
exp  - + ÷
÷ í ò ê- çç 1  1  ÷÷ ú dx 1 ýdx 2 
exp 
2 p 2  2 ( 1 - t ) øï 1 - t  -¥ 2 p s 1  êë 2 è s 1  ø úû ïþ
î
¥
1  æ x2 ( 1 - t )  x 2 2 t 2  ö 1 

2 p
ò ççè - 2  + 2 ( 1 - t ) ÷÷ø 1 - t  dx 2 

exp 

¥
1  1  æ x 2 ( 1 - t )  x 2 2 t 2  ö
ç-
exp  + ÷dx 2 
1 - t -ò¥ çè

2 p 2  2 ( 1 - t ) ÷ø

luego 

x2 ( 1 - t )  x 2 2 t 2  x 2  é t 2  ù


-  + = -  ( 
1 - t 
) -
2  2 ( 1 - t )  2  êë ( 1 - t ) úû

x 2  é ( 1 - t ) 2  - t 2  ù


= -  ê ú
2  ë ( 1 - t )  û

x 2  é1 - 2 t + t 2  - t 2  ù


= -  ê ú
2  ë ( 1 - t )  û

x 2  é 1 - 2 t ù


= - 
2  êë ( 1 - t ) úû

1 é x 22   ù
= -  ê ú
2 ë ( 1 - t ) /( 1 - 2 t ) û

Luego si hacemos: 


m2   - t ) /( 1 - 2 t ) 
=  0,  s x2  =  (1  Þ  s x1  =    - t ) /( 1 - 2 t ) 
(1 

de aquí 
¥
1  1  æ 1  x 2 2  ö
M y (t )  = 
2 p 1 - t
ò-¥ çè 2 ( 1 - t ) /( 1 - 2 t ) ÷÷ødx 2 
ç
exp  -

67 
1  1 - t 
¥
1  æ 1 æ x  - m ö 2  ö
exp ç - çç 2  2 
÷÷ ÷dx 2 
1 - 2 t  -ò¥

1 - t 2 p s 2  ç 2 è s 2  ø ÷
è ø
1 -1 / 2 
=  =  (1 - 2 t ) 
1 - 2 t 
Lo cual indica que  Y  también es una distribución Chi­cuadrado con 1 grado de libertad. 

4.2  Distr ibución de suma de var iables independientes 

En  esta  sección  utilizaremos  la  técnica  de  la  función  generadora  de  momentos  para 
encontrar la distribución de la suma de variables aleatorias independientes. 

Teor ema 3.1:  Si  X 1 , X 2 ,…, X n  son  variables aleatorias  independientes  y la función 


generadora  de  momentos  existe  para  todo  - h £ t  £ h  para  algún  h > 0 ,  sea
n
Y  = å a i X i  entonces. 
i =1 


M Y (t )  =  Õ

M x  ( a i t ) 
=1 

Demostr ación: 


é ù
M Y (t )  = E êexp å a i X i t ú = E [exp( a 1 X 1 t + ... + a i X i t ) ] 
ë 1  û

= E [exp( X 1 a 1 t )... exp( X i a i t ) ] 

n n 
= E [exp( X 1 a 1 t ) ]... E [exp( X i a i t ) ]  = Õ E [exp( X i a i t ) ] =  Õ M x  ( a i t ) 

i =1  i 
=1 

68 
El  poder  del  anterior  teorema  es  grande  puesto  que  si  pudiésemos  reconocer

Õ
i   
=1 
M x  ( t )  esta  seria  la  función  generadora  de  momentos  de  la  variable  aleatoria

n
Y  = å X i  luego sabríamos como se distribuye la suma de las  X i  . 
i =1 

Ejemplo  4.4:  Sea  X 1 , X 2 ,…, X n  variables  aleatorias  Gamma  independientes, 

encontrar la distribución de  Y =  X 1  + X 2  + ... + X n 

Solución:
X  i  »  M  X  i  ( t )  = ( 1 - q . t ) - a
n  n 
M Y (t )  =  Õ M x  (t ) 

=  Õ (1 - q . t )  a-
=  ( 1 - q . t ) - n a

=1  i =1 

Lo cual indica que  Y  tiene una distribución Gamma con parámetros q y n a  . 

En  el  ejemplo  3.3  del  capitulo  tres  vimos  que  la  suma  de  los  cuadrados  de  3 
distribuciones  normales  estándar  poseen  una  distribución  Chi­cuadrado  con  3  grados 
de libertad, con el siguiente ejemplo se demostrara mas general. 

Ejemplo 4.5: Supóngase que  X 1 , X 2 ,…, X n  son  variables  aleatorias  independientes 


que poseen una distribución normal con media 0 y varianza 1, encontrar la distribución 
de la suma: 

Solución: 

Supóngase que  Y =  X 1  + X 2  + ... + X n 

En  el  ejemplo  4.1  se  vio  que  la  distribución  del    cuadrado  de  una  distribución  normal 
estándar es una distribución Chi­cuadrado con 1 grado de libertad luego 

X i2  »  M X i  (t ) = ( 1 - 2 . t ) -1 / 2 

69 
aplicando el teorema 

n  n 
M Y (t )  =  Õ M x  (t ) 

=  Õ -1 / 2 
( 1 - 2 . t )    - 2 . t ) - n / 2 
= (1 
i =1  i =1 

Luego  la  suma  de  variables  Chi­cuadrado  posee  una  distribución  Chi­cuadrado  con  n 
grados de libertad. 
Ejemplo 4.6:  Mostrar que si  X 1 , X 2 ,…, X n  son variables aleatorias independientes 

de poisson cada una con parámetro  l i , entonces la distribución de la suma es también 

una variable aleatoria de poisson con parámetro igual a å li . 
Solución: 

Sea  Y =  X 1 + X 2  + ... + X n 

X i  »  M X  (t ) = exp l i (e t  - 1 ) 


n  n  n 
M Y (t )  =  Õ M x  (t ) 

=  Õ exp li (e t  - 1 ) =  exp å li  e t  - 1 ( )
i =1  i =1  i =1 

Lo cual muestra la suma tiene una distribución de poisson con parámetro å li . 

Ejemplo 4.7:  supóngase  X 1 , X 2 ,…, X n  variables aleatorias independientes con 

distribución normal de parámetros  m i s i2 , luego  a i X i  »  N ( a i m i ; a i 2s


  2 
i  )  y  también 

n
  2  2 
M a i X i  (t )  =  exp( a i m i t + a i 2s i  t  / 2 ) . Halle la distribución de Y  =  å a i x i 
i =1 

Solución: 

n  n  n 
2  2  2 
M Y (t )  =  Õ M a x  ( t )  = Õ exp(a  i m i t + a i s i  t 
i  i 
/ 2 )  = exp å ( a i  m i t + a i 2 s i 2 t 2  / 2 ) 
i =1  i =1  i =1 

éæ n  ö æ n  ö t 2  ù
= exp êç å a i m i  ÷t + ç å a i 2 s i 2 ÷ ú l
ëè i = 1  ø è i =1  ø 2 û

70 
n n
2 2 
luego  Y  se distribuye normalmente con media å a  i mi  y  varianza
i =1 
å
i   
=1 
a i   s i 

Uno  de  los  resultados  mas  importantes  de  este  teorema  esta  relacionado  con  la 
demostración del  teorema del limite central   pero antes recordemos: 

Si  tenemos  que  X 1 , X 2 ,…, X n  n  variables  aleatorias  independientes  e  idénticamente 


distribuidas  con  una  distribución  de  probabilidad  no  especificada  donde E ( X i ) = m y 

Var ( X i ) = s 2  para todo  i = 1, 2 ,..., n  entonces 

X 1  + X 2  + ... + X n X  X  X  1  n


X  =  =  1 + 2  + ... + n =  å X i 
n  n  n  n  n  i =1 

Se define como la media muestral  donde 

æ x 1 ö æ x  ö æ x  ö
m X = E ( X )  =  E ç ÷ + E ç 2  ÷ + ... + E ç n  ÷
è n  ø è n  ø è n  ø
1 1  1  n m
= m  + m + ... + m =  =m
n  n  n  n 

y varianza

æ x 1  x 2  x  ö 1  1  1 
Var ( X )  =  Var ç + + ... + n  ÷ = 2  Var ( x 1 ) + 2  Var ( x 2 ) + ... + 2  Var ( x n ) 
è n  n  n  ø n n  n 
1 ns 2  s2

n 2 
(
s 2 
+ s 2 
+ ... 
+ s 2 
=   ) 
n 2 

Teor ema  4.2:  Sean  X 1 , X 2 ,…, X n  n  variables  aleatorias  independientes  e 


idénticamente  distribuidas  con  una  distribución  de  probabilidad  no  especificada  y  que 

tiene  una  media m y  una  varianza  s 2 conocidos  y  finitos.  Entonces  X  tiene  una 
distribución  con  media m y  varianza  s 2 / n que  tiende  hacia  una  distribución  normal 
conforme  n  tiende  a  infinito.  En  otras  palabras  la  variable  aleatoria  ( X - m ) /( s /  n ) 
tiende como límite a una distribución normal estándar.

71 
Demostr ación: 

X  - m X i  - m
Sean  Y  = y Zi  =  i = 1,2,3,…,n. 
s / n  s
Dado que.
n
1 i  X  - m 1 1  n  1 1  é n n
ù
å
n  i  s / 
=1  n 
=  å ( X i  - m ) 
n s /  n  i =1 
= ê å
n s /  n  ë i =1  
X i  -å m ú
i =1  û

1 1  é n  n ù 1  1  X  - m
= ê å
n s  /  n  ë n  i =1 
X i  -n m ú = 
n s  /  n 
[n X  - n m ] =
s / n 
û

Luego 

n
1 X  - m
i  n  n  X i  - m 1  n
Y =  å
n  i  s / 
=1  n 
=  å
n  i =1 s
=  å Z i 
n  i 
=1 

ahora usando el teorema 


M Y  (t )  = M  1 
å Z i 
( t )  =  Õ M Z  (t / 

[ ]  [

n )  = M Z i (t /  n )  = E (exp( Z i t /  n ) 
 

n i =1 

dado  que las  Z i  son  variable aleatorias  independientes  al expandir  exp( Z i t /  n )  en 

una serien de Taylor 

Z i t  Z i 2 t 2  Z i 3 t 3  Z i 4 t 4 


exp( Z i t /  n )  =  1 + + + 2 / 3  + + ... 
n  2 n  6 n  24 n 2 

t  t 2 2  t 3  t 4 


=  1 + Z i  + Z i  + 2 / 3  Z i 3  + Z 4  + ... 
2  i 
n  2 n  n 
6  24 n 

si se toman los valores esperados

t  t 2 t 3  t 4 


[
E exp( Z i t /  n )  =  1 + ]  n 
E ( Z i ) +
2 n 
E ( Z i 2 ) + 2 / 3  E ( Z i 3 ) +
6 n  24 n  2 
E ( Z i 4 ) + ... 

72 
Recordemos que por ser normal 

E ( Z i )  =  0  y  Var ( Z i )  =  E ( Z i 2 ) - E 2 ( Z i ) = 1  Þ  E ( Z i 2 ) - 0 = 1  Þ  E ( Z i 2 ) = 1 

luego

t 2 t 3  t 4 


[ ] 
E exp( Z i t /  n )  =  1 + + 2 / 3  E ( Z i 3 ) +
2 n  6 n  24 n 2 
E ( Z i 4 ) + ... 

entonces 


é t 2  t 3  t 4  ù
M Y  (t )  =  ê1 + + 2 / 3  E ( Z i 3 ) + 2 
E ( Z i 4 ) + ... ú
ë 2 n  6 n  24 n  û

ì 1  é t 2  t 3  t 4  ùü
=  í1 + ê + E ( Z i 3 ) + 2 / 3 
E ( Z i 4 ) + ... ú ý
î n ë 2  6  n  24 n  ûþ

t 2 t 3  t 4 


sea  u =  + E ( Z i 3 ) + 2 / 3 
E ( Z i 4 ) + ... 
2  6  n  24 n 


æ uö
M Y  (t )  =  ç1 + ÷
è n ø

ahora 


æ uö
lim M Y  ( t )  = lim ç1 + ÷
n ® ¥ n ® ¥è n ø


æ uö u 
y por definición  lim ç 1 + ÷ = e 
n ® ¥
è n ø
luego

73 
é t 2  t 3  t 4  ù
lim  M Y  ( t )  = exp ê +  E ( Z i 3 ) + 2 / 3 
E ( Z i 4 ) + ... ú ( ) 
= exp t 2  / 2 
n ® ¥
ë 2  6  n  24 n  û
X  - m
con lo cual queda demostrado que a medida de que n crezca  Y  = va a tender a 
s / n 
una distribución normal estándar.

74
APÉNDICE 

Deducción de la función Gamma: 

La función Gamma esta definida por: 

G ( n ) = ò u n -1  e -u  du  n > 0 


ahora veamos que  G ( n) = ( n - 1 )! 


¥
n -1  - u 
G ( n )  = ò u  e  du 

si  z = u n -1 Þ  dz  = ( n - 1 ) u n -2 

dv = e - u du  Þ  v = -e -u 

¥ ¥
¥
G ( n )  = - e -u u n -1  + ( n - 1 ) ò u n -2 e -u  du  = ( n - 1 ) ò u n -2 e -u  du 

0  0 

z = u n -2 Þ  dz  = ( n - 2 ) u n -3 


dv = e -u du  Þ  v = -e - u 

¥ ¥
é ¥ ù
G ( n )  = ( n - 1 ) ê- e - u u n -2  + ( n - 2 ) ò u n -3 e -u  du ú = ( n - 1 )( n - 2 ) ò u n -3 e -u  du 

ë 0  û 0 

75 
z = u n -3 Þ  dz = (n - 3 ) u n -4 
dv = e - u du  Þ  v = -e - u 

¥
é ¥ ù
G ( n )  = ( n - 1 )( n - 2 ) ê- e - u u n -3  + ( n - 3 ) ò u n -4 e -u  du ú

ë 0  û
¥
= ( n - 1 )( n - 2 )( n - 3 )  u n -4 e -u  du 
ò

y si seguimos la secuencia tendríamos

G ( n )  = ( n - 1 )( n - 2 )( n - 3 )...( 3 )( 2 )( 1 ) ò u n -n e -u  du 


= (n - 1 )( n - 2 )( n - 3 )...( 3 )( 2 )( 1 )( 1 )  = (n - 1 )! 

ahora mostremos las propiedades

·  G ( n + 1 ) = n ! 


Si reemplazamos a n por n­1 tendríamos que. 

G (n + 1 ) = ( n + 1 - 1 )!  ósea que  G ( n + 1 ) = ( n )! 

·  G (n  + 1 ) = n G ( n ) 

Por la propiedad anterior tenemos que 

G ( n + 1 ) = n ! =  n (n - 1 )! = nG(n ) 

· G ( 1 / 2 ) = p

G ( 1 / 2 ) = ò u -1  / 2 e -u du  n > 0 


76 
ahora si  u = z 2  Þ  du  = 2 zdz 
luego
¥ ¥
2  2  2 p
G ( 1 / 2 ) = ò z -1 e - z 2 zdz  =  2 ò e - z  dz  = =  p
0  0 

Deducción de la función Beta: 

La función Beta esta definida por. 


B( a , b ) = ò xa -1  ( 1 - x ) b -1  dx  a , b > 0  0 £ x £ 1 

mostremos que se encuentra relacionada con la función Gamma por 

G (a ) G( b ) 
B (a , b ) = 
G ( a + b ) 

  , b ) = ò xa -1 ( 1 - x ) b -1  dx 


B (a

si  u = (1 - x ) b -1  Þ  du  = -( b  - 1 )( 1 - x ) b -2 dx 

x a 
dv = x a -1 du  Þ v =
a

1  1 
xa ( 1 - x ) b -1  b - 1  a b - 2 
B (a
  , b ) = + ò0  x  ( 1 - x )  dx 
a 0 
a

b  - 1 1  a
= ò x ( 1 - x ) b -2  dx 
a 0 

u = (1 - x ) b - 2  Þ  du  = -( b  - 2 )( 1 - x ) b -3 dx 


x a +1
dv = x a du  Þ  v =
a + 1 

77 

b - 1 é xa + 1 ( 1 - x ) b -2  b - 2  1  a +1  ù
B(a
  , b ) = ê + ò x  ( 1 - x ) b -3  dx ú
a ê a + 1  a + 1  0  ú
ë 0  û

( b  - 1 )( b - 2 )  a +1 
= ò x ( 1 - x ) b -3  dx 
a ( a + 1 )  0 

u = (1 - x ) b -3  Þ  du = -( b  - 3 )( 1 - x ) b -4 dx 


x a + 2
dv = x a +1 du  Þ  v =
a + 2 


( b - 1 )( b - 2 ) é xa + 2 ( 1 - x ) b -3  b - 3 1  a + 2  b - 4 
ù
B(a
  , b ) = ê + x  ( 
1 - x 
)  du 
ú
a ( a + 1 )  ê a + 2  a + 2 ò0  úû
ë 0 


( b - 1 )( b - 2 )( b - 3 )  a + 2 
x ( 1 - x ) b - 4  du 
a ( a + 1 )( a + 2 )  ò0 
=

y si seguimos la secuencia tendríamos que


( b - 1 )( b - 2 )( b - 3 ) 
B (a , b ) = ... ò xa + b -2 ( 1 - x ) b - b du 
a ( a + 1 )( a + 2 )  0 


( b - 1 )( b - 2 )( b - 3 ) 
= ... ò xa + b -2  du 
a ( a + 1 )( a + 2 )  0 


( b - 1 )( b - 2 )( b - 3 )  x a + b -1 
=  ... 
a ( a + 1 )( a + 2 )  a + b - 1 0 

( b - 1 )( b - 2 )( b - 3 )  1 


=  ... 
a ( a + 1 )( a + 2 )  a + b - 1 

G( b ) 

a ( a + 1 )( a + 2 )... a + b - 1 

78
(a - 1 )! G ( b ) 

( a - 1 )! a ( a + 1 )( a + 2 )... a + b - 1 

G (a ) G ( b ) 



G( a + b ) 

Propiedades básicas de las distribuciones  discretas 

Distribución uniforme: 

1  x = 1, 2 ,... n  n=1,2,3,…


f ( x ) = 

n
1
m x (t ) =  å e it 
  n 
i =1 

n + 1 n 2 - 1  9 n 2  - 21 


m  = , s 2 =  ,  a 3 = 0 ,  a 4 = 
2  12  240 n 2  - 240 

Distribución bernoulli: 

f ( x ) =  p x q 1 - x  0 £  p £ 1  x = 0, 1 

m x (t ) =  q +  pe t 

q - p  1 
m = p ,  s 2 =  pq ,  a 3 =  ,  a 4 = -3 +
pq  pq 

Distribución binomial

79 
x = 1, 2 ,..., n 
æ n ö
f ( x ) = çç ÷÷ p x q n - x  0 £ p £ 1 
è x ø n = 1 , 2 , 3 ... 

m x (t ) =  (q + pe t )  , 

q - p  1 - 6 pq 
m = np ,  s 2 = npq ,  a 3 =  ,  a 4 = 3 +
npq  npq 

Distribución hipergeométrica

æ k öæ N  - K ö x = 0, 1 , 2 ,..., n 


çç ÷÷çç ÷
è x øè n - x  ÷ø N  = 1 , 2 , 3 ,... 
f ( x ) = 
æ N ö K  = 1 , 2 ,..., N 
çç ÷÷
è n  ø n = 1 , 2 , 3 ,..., N 

nk nk ( N  - k )( N  - n )  ( N - 2 k )( N  - 2 n )( N - 1 ) 1 / 2 


m= , s 2 =  ,  a 3  =
N  n 2 ( N - 1 )  ( N  - 2 )[ nk ( N  - k )( N - n )] 1 / 2 

N 2 ( N  - 1 ){ N ( N  + 1 ) - 6 n ( N - n ) + 3 k ( N  - k )[ N 2 ( n - 2 ) - Nn 2  + 6 n ( N  - n )] / N 2 } 
a 4  =
( N - 2 )( N  - 3 ) nk ( N  - k )( N  - n ) 

Nota:  debe  anotarse  que  la  función  generadora  de  momentos  de  la  distribución 
hipergeométrica es demasiado tediosa de trabajar, por esto no es usada. 

Distribución poisson

80
e - l l x
f  ( x ) =  x = 0, 1 , 2 ,....  l>0
x ! 

M X  [ (
( t )  =  exp  l e t  - 1  , )] 

1  1 
m =l, s 2  = l , a 3 = , a 4 = 3 +
l l

Distribución geométrica 

f ( x )  =  pq x  x = 0, 1 , 2 ,... ,  0 <  p £ 1 ,  p = 1 - q 


M X  ( t ) =  ,
1 - qe t 

q  q  p ( 1 + q )  1 
m  = , s 2 =  ,  a3 = ,  a 4 = 7 + q +
p  p  2  q  q 

Distribución binomial negativa 

æ r + x - 1 ö r  x 


f ( x )  = çç ÷ p  q  x = 0, 1 , 2 ,...  0 < p £ 1  r > 0
è x  ÷ø

81

æ p  ö
M X  ( t ) = çç ÷ ,
t  ÷
è 1 - qe  ø

rq  rq  2 - p p 2  - 6 p + 6 


m  = , s 2 =  ,  a 3  = ,  a 4  = 3 +
p  p  2  k ( 1 - p )  k ( 1 - p ) 

Propiedades básicas de las distribuciones  continuas 

Distribución uniforme 

1  a <  x  < b 
f ( x )  = 
b - a  - ¥ < a  < b < ¥

e bt  - e at 
m x (t ) =  ,
(b - a ) t 

a + b  ( b - a ) 2 
m  = , s 2 =  ,  a 3 = 0 ,  a 4 = 9 / 5 
2  12 

Distribución normal

1  é 1 æ x - m ö 2 ù ¥<m<¥


f ( x ) =  exp ê- ç ÷ ú
2 ps  ëê 2 è s ø ûú s >0

- ¥ < x < ¥

é 1  ù
M X (t   ) = exp êm t + s 2 t 2 ú
ë 2  û

a 3 = 0 ,  a 4 = 3 

82 
Nótese que m y  s 2 son parámetros de la función. 

Distribución Beta 

0 <  x  < 1 

f ( x ) = x a -1 ( 1 - x ) b -1  a  > 0 
B ( a , b ) 
b  > 0 

a ab 2 ( b - a )  a + b + 1 
m= , s 2 =  2 
a 3 =
a + b  ( a + b + 1 )( a + b )  ab ( a + b + 2 ) 

3 ( a + b + 1 )[ 2 ( a + b ) 2  + ab ( a + b - 6 )] 


a4 =
ab ( a + b + 2 )( a + b + 3 ) 

Nota:  La  función  generadora  de  momentos  de  la  distribución  Beta  no  tiene  una  forma 
sencilla de trabajar por esto no se utiliza. 

Distribución Weibull  

a  a -1
f ( x )  = x  exp[ - ( x / q ) a ] 
qa

- t  æ t  ö
M X  (t ) = a  b Gç1 + ÷
è b ø

æ 1 ö é æ 2 ö 2 æ 1 öù


m  = qGç1 + ÷, s 2 =  q 2 êGç1 + ÷ - G ç1 + ÷ú
è aø ë è aø è a øû

G(1 + 3 / a ) - 3 G ( 1 + 1 / a ) G( 1 + 2 / a ) + 2 G 3 ( 1 + 1 / a ) 
a 3  = 
[ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 3 / 2 

G(1 + 4 / a ) - 4 G( 1 + 1 / a ) G( 1 + 3 / a )  6 G 2 ( 1 + 1 / a ) G ( 1 + 2 / a ) - 3 G 4 ( 1 + 1 / a ) 
a 4  = +
[ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 2  [ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 2 

83 
Distribución Gamma


f ( x ) =  x a -1 e - x / q x > 0,  a , b > 0 
G( a ) q a

M X ( t ) = ( 1 - q . t ) a

2  æ 2 ö
m = aq , s 2 =  aq 2 , a 3 = , a 4  = 3 ç1 + ÷
a è aø

Distribución exponencial  

La función gamma en la que  a = 1 se llama distribución exponencial.


f ( x ) =  e - x / q x > 0,  b  > 0 

M X  (t ) = 1 - q . t 

m =q , s 2 =  q 2 ,  a 3 = 2 ,  a 4 = 9 

Distribución Chi­cuadrado  

La función gamma en la que  a = v / 2  y  q = 2 se llama distribución Chi­cuadrado. 


Donde  v es un entero positivo y se denomina grados de libertad de la variable. 

V  / 2 
1  æ 1 ö
f ( x ) =  ç ÷ x V / 2 -1 e - x / 2 
G( V  / 2 ) è 2 ø

M X  ( t ) = ( 1 - 2 . t ) v / 2 

84 
4  æ 4 ö
m  = v , s 2 =  2 v ,  a3 = , a 4 = 3 ç1 + ÷
2 v  è v ø

Distribución Cauchy  


f ( x ) = 
pb { 1 + [( x - a ) / b ] 2 } 

Esta distribución tiene la particularidad de no tener media, porque  E ( x )  no converge, y 


por tanto no existe ningún  momento, ni la función generadora de momentos.

85 
CONCLUCIONES

· La función generadora de momentos es directamente aplicable al descubrimiento 
de la distribución de probabilidad de sumas de variables aleatorias.

· Hallar una función generadora de momentos de una variable  Y = g ( X )  asegura el 

conocimiento de una distribución de probabilidad única.

· El cálculo integral es una buena herramienta para apoyar la función generadora de 
momentos.

· Este trabajo intenta motivar el estudio de escenarios específicos, donde las 
matemáticas son útiles.

86 
BIBLIOGRAFÍA

· WALPOLE Ronald, MEYERS Raymond.2005. Probabilidad y estadística. Mc Graw 
Hill.
· CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw 
Hill.
· HOGG Robert. Introduction to mathemátical. Collier Macmillan publishers.
· MOOD, GRAYBILL, BOES. introduction to the theory of statistics, Mc Graw Hill.
· http://www.pokertips.com.es/strategy/expected­value.php
· http://www.personal.us.es/olmedo/El%20concepto%20de%20Valor%20Esperado.pd

87 

También podría gustarte