Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aplicaciones de La Funcion Generadora de Momentos PDF
Aplicaciones de La Funcion Generadora de Momentos PDF
Andrés Camilo Ramírez Gaita
andres.camilo.ramirez@gmail.com
Trabajo de Grado para Optar por el Titulo de Matemático
Director: Benigno Lozano Rojas
Estadístico Universidad Nacional de Colombia
Fundación Universitaria Konrad Lorenz
Facultad de Matemáticas
Bogotá D.C.
2007
1
AGRADECIMIENTOS
Agradezco al profesor Benigno Lozano Rojas, quien me acompaño y apoyo con los
valiosos aportes en la ejecución de este trabajo.
También quiero agradecer al doctor Antonio Velasco muños decano de la facultad de
matemáticas y a cada uno de los docentes y compañeros que tuvieron un aporte
importante para mí formación a lo largo de la carrera.
2
RESUMEN
Este documento consta de cuatro capítulos los cuales muestran la importancia de la
función generadora de momentos y su aplicación a la hora de deducir la distribución de
una o más variables aleatorias. Aunque existen tres técnicas para resolver dicho
problema, la técnica de la función generadora de momentos es la mas sobresaliente, ya
que además ayuda en el descubrimiento de variables aleatorias únicas y es muy útil
cuando se trata de encontrar la distribución de sumas de variables aleatorias
independientes, ayudando así en la demostración del teorema del límite central.
This document is made up of four chapters which show the importance of the moment –
generating – function and its use when deducing the distribution of one or more random
variables. Eventhough there are three techniques to solve this problem, the moment –
generating – function – technique is the most widely – used since it also helps in
discovering the unique random variables and is very useful when trying to find the
distribution of sums of independent random variables, helping in this way in the proof of
the central – limit theorem.
3
CONTENIDO
Página
INTRODUCCION 4
1. CONCEPTOS BASICOS
1.1. Variables aleatorias 5
1.2. Distribuciones de probabilidad 7
1.2.1. Distribución de probabilidad de variables discretas 7
1.2.2. Distribuciones de probabilidad de variables continúas 12
1.3. Valor esperado 18
2. MOMENTOS Y FUNCIONES GENRADORAS DE MOMENTOS
2.1. Momentos 26
2.2. Función generadora de momentos 37
3. DISTRIBUCIÓN DE PROBABILIDAD DE UNA FUNCION DE UNA
VARIABLE AL EATORIA
3.1. Técnica de la función acumulativa 45
3.2. Técnica de transformaciones 50
3.2.1. Técnica de transformaciones para variables discretas 50
3.2.2. Técnica de transformaciones para variables continuas 54
4. TECNICA DE LA FUNCION GENERADORA DE MOMENTOS
4.1. Descripción de la técnica 61
4.2. Distribución de sumas de variables aleatorias 67
APENDICE 74
CONCLUCIONES 85
BIBLIOGRAFIA 86
4
INTRODUCCIÓN
En el área de la estadística es muy frecuente que el investigador no conozca como se
comporta la distribución de probabilidad de su variable aleatoria. Para este hecho se
han deducido los momentos, los cuales proporcionan una caracterización de la
distribución de probabilidad. Muchas veces estos momentos suelen ser complicados
para encontrarlos uno por uno, por esto si todos estos momentos existen, se pueden
asociar a una función que los genere. Esta función toma el nombre de la función
generadora de momentos.
La función generadora de momentos no solo es usada en los momentos de una
variable aleatoria. Frecuentemente en estadística se presenta la necesidad de deducir
la distribución de probabilidad de una función de una o más variables. Es decir si se
conoce la distribución de una variable aleatoria, y se tiene otra que es función de la
anterior, se podría deducir la distribución de dicha variable. Este es uno de los campos
donde la función generadora de momentos se aplica y es muy útil a la hora de deducir
distribuciones de sumas de variables independientes.
Para abordar este tema se ha creado este documento que consta de 4 capítulos, donde
el lector podrá observar desde los conceptos básicos hasta la técnica de la función
generadora de momentos. En el capitulo 1 se enunciarán temas básicos como, las
variables aleatorias, distribuciones de probabilidad de una variable aleatoria y el valor
esperado; el segundo se trataran a fondo temas como momentos y la función
generadora de momentos, dejando claro así los concepto básicos para la aplicación de
esta función ; en el tercer capítulo se abordaran 2 técnicas adicionales para deducir la
probabilidad de una función de una o más variables aleatorias, y por último en el cuarto
capítulo se presentará la tercera técnica llamada “técnica de función generadora de
momentos” y su útil uso en la distribución de sumas de variables aleatorias.
5
CAPITULO UNO
CONCEPTOS BÁSICOS
Definición 1.1: “Sea S un espacio muestral sobre el cual se encuentra definida una
función de probabilidad. Sea X una función de valor real definida sobre S, de manera
que transforme los resultados de S en puntos sobre la recta de los reales, se dice
entonces que X es una variable aleatoria” 1 .
El conjunto de valores que una variable aleatoria puede tomar se denomina el rango de
la variable aleatoria.
Se dice que X es una variable aleatoria si todos los resultados posibles de un espacio
muestral, se pueden transformar en cantidades numéricas.
Ejemplo 1.1: Supóngase el espacio muestral S en el que se consideran cada uno de
los posibles resultados al lanzar tres monedas al aire:
S = {ccc, ccs, csc, css, scc, scs, ssc, sss}
donde c es cara y s es sello. Determinemos la variable X como el número de caras que
hay en el espacio muestral, entonces a cada punto del espacio muestral se le asigna un
valor numérico 0, 1, 2 o 3, estos pueden considerarse como valores que asume la
variable aleatoria X , tal como lo muestra su grafica.
1
Probabilidad y estadística. George C.Canavos. Pág. 52
6
X (S)
S R
CCC 3
CCS
CSC
2
SCC
CSS
SCS 1
SSC
SSS
0
Gráfico 1.1
en este caso podemos observar que la variable aleatoria X toma el valor 1 para los
elementos del conjunto
E = {css, scs, ssc} Ì S.
En si a cada elemento de espacio muestral, se le asigna un valor numérico.
S X
ccc 3
ccs 2
csc 2
scc 2
css 1
scs 1
ssc 1
sss 0
Tabla 1.1
Definición 1.2: “Se dice que una variable aleatoria X es discreta si su rango es un
2
conjunto finito o infinito numerable de valores”.
2
Probabilidad y estadística. George C.Canavos. Pág. 53
7
Definición 1.3: Se dice que una variable aleatoria X es continua si su rango es un
conjunto infinito no numerable de valores. Este conjunto puede definirse en un intervalo
o en un conjunto finito de intervalos.
Ejemplo 1.3: Consideremos una variable aleatoria Y cuyos valores sean los pesos en
kilogramos de todas las persona mayores de 20 años, lógicamente hay infinitos valores
asociados a estos pesos. Si estos pesos se asignaran a la recta real, puede definirse
un número infinito de valores para describir todos los posibles valores de peso.
1.2 Distr ibuciones de probabilidad
Definición 1.4 una distribución de probabilidad es un listado de las probabilidades de
todos los posibles resultados del espacio muestral que podrían obtenerse si el experimento
se lleva a cabo.
Las distribuciones de probabilidad se clasifican como discretas y continuas.
1.2.1 Distribuciones de probabilidad de var iables discretas
Una variable aleatoria asume cada uno de sus resultados con cierta probabilidad.
En el ejemplo 1.1 la variable aleatoria X que representa el número de caras al lanzar
tres monedas al aire, tiene los siguientes valores posibles y con las respectivas
probabilidades siguientes:
ccc 3 1 1/8
ccs, csc, scc 2 3 3/8
ssc, scs, css 1 3 3/8
Sss 0 1 1/8
Tabla 1.2
8
nótese que los valores posibles de X conforman los posibles conteos sobre el espacio
muestral y en consecuencia las probabilidades suman 1.
Para mayor comodidad es necesario usar una función con el objeto de representar las
probabilidades de una variable aleatoria y se define por:
Ejemplo 1.4: Supóngase una variable aleatoria X que tiene como resultado dar el
numero de caras menos el numero de sellos en 4 lanzamientos de una moneda.
Encuentre la distribución de probabilidad para la variable aleatoria X .
Solución:
El espacio muestral se encuentra dado por:
S = {cccc,cccs,ccsc,ccss,cscc,cscs,cssc,csss,sccc,sccs,scsc,scss,sscc,sscs,sssc,ssss}
donde el número de ocurrencias es 16;
3
Probabilidad y estadística. George C.Canavos. Pág. 54
9
Resultado Valor de la Numero de probabilidad
diferencia ocurrencias
entre caras y
sellos
cccc 4 1 1/16
cccs,ccsc,cscc,sccc 2 4 4/16
ccss,cscs,cssc,sccs,scsc,sscc 0 6 6/16
csss,scss,sscs,sssc 2 4 4/16
ssss 4 1 1/16
Tabla 1.3
Ahora la distribución de probabilidades será:
x 4 2 0 2 4
f ( x ) 1/16 4/16 6/16 4/16 1/16
Tabla 1.4
Muchas veces necesitamos encontrar la probabilidad de que X sea menor o igual que
x para este caso basta con observar que:
lo cual nos da una idea de sumar probabilidades o de acumularlas.
Definición 1.6: “ La distribución acumulativa de la variable aleatoria X es la
probabilidad de que X sea menor o igual a un punto específico de x y esta dada
por” 4 :
Y además satisface las siguientes propiedades:
4
Probabilidad y estadística. George C.Canavos. Pág. 54
10
1. 0 £ F ( x ) £ 1.
Ejemplo 1.5: Encuentre la distribución acumulada de la variable aleatoria X del
ejemplo 1.4 y usando las propiedades calcular:
1. p ( X > 0 )
2. p ( X ³ 0 )
3. P ( 2 £ X £ 2 )
4. P ( 2 < X £ 2 )
5. P ( 2 £ X < 2 )
6. P ( 2 < X < 2 )
Solución:
= 1/16 + 0 + 4/16 = 5/16;
F ( 0 ) = P ( X £ 0 ) = P ( X = 4 ) + P ( X = 3 ) + P ( X = 2 ) + P ( X = 0 )
= 1/16 + 4/16 + 6/16= 11/16;
F ( 2 ) = P ( X £ 2 ) = P ( X = 4 ) + P ( X = 2 ) + P ( X = 0 ) + P ( X = 2 )
11
= 1/16 + 4/16 + 6/16 + 4/16 = 15/16;
F ( 4 ) = P ( X £ 4 ) = P ( X = 4 ) + P ( X = 2 ) + P ( X = 0 ) + P ( X = 2 ) + P ( X = 4 )
= 1/16 + 4/16 + 6/16 + 4/16 + 1/16 = 1;
Luego la distribución de probabilidades acumuladas es:
ì 0 x < -4
ï1 / 16 - 4 £ x < -2
ï
ïï5 / 16 - 2 £ x < 0
F ( X ) = í
ï11 / 16 0 £ x < 2
ï15 / 16 2 £ x < 4
ï
ïî1 x ³ 4
FUNCIÓN DE PROBABILIDAD
f (X)
Gráfico 1.2
12
FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA
15/16
12/16
F(x)
8/16
4/16
0
10 5 0 5 10
x
Gráfico 1.3
1.2.2 Distribuciones de probabilidad de var iables continuas
Ejemplo 1.6: La variable aleatoria continua W se define como la altura de todas las
personas mayores de 20 años en un intervalo de 170 hasta 180 centímetros.
Supóngase que se quiere encontrar p ( X = 175 ) , aparentemente parece que fuera
sencillo calcularla, pero si entendiéramos que en el intervalo [170, 180] hay infinitos
números, evidentemente hay infinidad de estaturas por lo cual p ( X = 175 ) tiende a
ser nulo, para este caso es mejor utilizar intervalos. Entonces para nuestro caso seria
mejor encontrar p ( 174.9 £ X £ 175.1 ) .
13
La distribución de probabilidad de una variable continúa X esta caracterizada por una
función f ( x ) , la cual recibe el nombre de función de densidad de probabilidad y
proporciona un medio para calcular p ( a £ X £ b ) con b > a.
De manera formal, la distribución de probabilidad de una variable aleatoria continua se
define de la siguiente manera:
· f ( x ) ³ 0 ¥ < X < ¥
¥
· ò f ( x ) dx = 1
-¥
b
· p ( a £ X £ b ) = òa f ( x ) dx a,b Î Â
Entonces se dice que f ( x ) es la función de densidad de probabilidad de la variable
aleatoria continua X . De esta definición se derivan otras propiedades.
Solución:
a
1. p ( X = a ) = p ( a £ X £ a ) = ò f ( x ) dx = 0
a
2. p ( a £ X £ b ) = p ( X = a ) + p ( a < X < b ) + p ( X = b ) = p ( a < X < b )
Para entender mejor el concepto de función de densidad, lo ilustraremos con un
ejemplo.
Ejemplo 1.7: Supóngase que se miden los tiempos entre 2 llamadas consecutivas, de
1000 clientes de una empresa que funciona de 7:00 AM a 5:00 PM y los agrupamos en
intervalos de 1 hora. En la tabla 1.5 se enuncian el número de llamadas en cada
intervalo y su respectiva frecuencia relativa.
5
Probabilidad y estadística. George C.Canavos. Pág. 58
14
Intervalo N° llamadas Frecuencia
relativa
7 < x £ 8 20 0.020
8 < x £ 9 60 0.060
9 < x £ 10 100 0.100
10 < x £ 11 150 0.150
11 < x £ 12 170 0.170
12 < x £ 13 170 0.170
13 < x £ 14 150 0.150
14 < x £ 15 100 0.100
15 < x £ 16 60 0.060
16 < x £ 17 20 0.020
Tabla 1.5
Como se observa en la gráfica 1.3 la base de cada rectángulo tiene como longitud 1 y
su altura es la frecuencia relativa, luego el área de cada rectángulo es su frecuencia
relativa y por lo tanto la suma de sus áreas es 1. Supongamos ahora que los tiempos
entre dos llamadas consecutivas se observan para 10000 y se agrupan en 20 intervalos
de ½ hora, o también para 100000 en 40 intervalos de ¼ de hora, si aumentamos este
proceso de aumentar el numero de observaciones y disminuir el tamaño de los
intervalos, se llegara a una curva límite la cual toma el nombre de función de densidad
de probabilidad para una variable aleatoria continua X , y se denota por f ( x ) ( grafico
1.4), evidentemente el área total bajo la curva es 1.
15
0,17 0,17
0,15 0,15
frecuencia relativa
0,1 0,1
0,06 0,06
0,02 0,02
Gráfico 1.3
FUNCIÓN DE DENSIDAD
0,09
0,06
0,03
0
7,1 10,1 13,1 16,1
Gráfico 1.4
Al igual que las funciones de probabilidad de las variables aleatorias discretas tienen su
función acumulativa, las variables aleatorias continuas también tienen su respectiva
función acumulativa y se define como:
x
F ( X ) = P ( X £ x ) = ò f ( t ) dt
-¥
donde t es una variable artificial de integración.
16
La distribución F ( X ) es una función lisa no decreciente con las siguientes propiedades:
Ejemplo 1.8: Sea X una variable aleatoria continua definida por
ì 2
ï 4
ï x ³ 2
f ( X ) = íp 1 + 2
ï x
ïî0 en cuaquier otro caso
Solución:
ahora
¥ 2 2 ¥ 1 2 æ 2 ö ¥ 2 ép ù
ò dx = dx = ar cos ç ÷ - 0 ú = 1
pò 2
= ê
2
4 2
4 p è x ø p ë 2 û
p 1 + 2
1 +
x x 2
17
2 æ 3 ö 2 2 p ö 1
= ar cos çç ÷ ar cos (1 ) = æ
ç ÷ =
p ÷ p è 6 ø 3
è 2 ø p
2 4 1 2 æ 2 ö 4
P ( 2 2 £ X £ 4 ) = dx = ar cos ç ÷
pò 2 2
4 p è x ø 2 2
1 +
x 2
2 æ 1 ö 2 æ 2 ö
= ar cos ç ÷ ar cos çç ÷
÷
p è 2 ø p è 2 ø
2 æ p ö 2 æ p ö 2 1 1
= ç ÷ ç ÷ = =
p è 3 ø p è 4 ø 3 2 6
x 2 2 æ 2 ö x
3. F ( x ) = ò dt = ar cos ç ÷ 2
2
4 p è t ø
p 1 +
t 2
2 æ 2 ö 2 2 æ 2 ö
= ar cos ç ÷ ar cos (1 ) = ar cos ç ÷
p è x ø p p è x ø
Y la gráfica es:
FUNCIÓN ACUMULATIVA
1
0,8
0,6
F(X)
0,4
0,2
0
0 5 10 15 20
X
Gráfico 1.4
18
2 æ 3 ö 2 æ p ö 1
P ( X £ 4 3 / 3 ) = F ( 4 3 / 3 ) = ar cos çç ÷ = ç ÷ =
÷
p è 2 ø p è 6 ø 3
2 æ 1 ö 2 æ 2 ö
p ( 2 2 £ X £ 4 ) = F ( 4 ) F ( 2 2 ) = ar cos ç ÷ ar cos çç ÷
÷
p è 2 ø p è 2 ø
2 æ p ö 2 æ p ö 2 1 1
= ç ÷ ç ÷ = =
p è 3 ø p è 4 ø 3 2 6
1.3 Valor esperado
Los grandes jugadores de poker dicen que los jugadores no experimentados pueden
ganar dinero a corto plazo pero que perderán dinero a largo plazo. Lo contrario vale
para profesionales y muy buenos jugadores, lo cuales ganarán generalmente a largo
plazo.
¿Por qué esto es así? Esto se debe a un concepto conocido como “valor esperado”.
Valor esperado es el beneficio que se espera. Por ejemplo, supóngase que se ha
realizado una apuesta para lanzar una moneda. Si sale cara, se perderá $1, si sale
cruz, se ganará $100. ¿Se debe aceptar teóricamente esta apuesta (asumiendo que la
moneda es verdadera y existe un cincuentacincuenta de posibilidad de que salga cara
o cruz?
Obviamente, se debería aceptar la apuesta. Existe una probabilidad de 1/2 que caiga
en cara y gane $100. Por lo tanto, la ganancia esperada es 0.5*$100=50. Si saliera
cruz, se pierde $1. Por lo que, la perdida esperada 0.5*$1=0.50 Y el beneficio
esperado es la ganancia esperada menos la pérdida esperada. Es decir, que el
beneficio esperado es de $49,5.
Obviamente, no se ganará $49,50. se Ganará $100 o se perderá $1. Sin embargo,
debería verse la apuesta como "ganar" $49,50. Los resultados en los juegos de azar
están influenciados por la suerte a corto plazo. Sin embargo, los resultados se verán
cercanos a semejarse al valor esperado a largo plazo. Si se tira la moneda un millón de
veces, el beneficio final será muy cercano a 49,50 millones.
19
Entonces resumiendo:
Sea X una variable discreta donde solo podrá tomar dos valores, $100(ganancia), $1
(la perdida) o sea x = {1, 100} ahora la probabilidad de ganancia es 0.5 y la ganancia
de perdida es 0.5. Por tanto su valor esperado es:
m = (1) (0.5)+ (100) (0.5)=49.5
luego se observa que el valor esperado esta dado por:
1
E ( x ) = å x i . p ( x i ) = (1) (0.5)+ (100) (0.5)=49.5
i = 0
Así se llega a la definición de valor esperado, media o esperanza matemática de una
variable aleatoria
Definición 1.8: La media de una variable aleatoria se considera como una cantidad
numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse
por lo tanto la media es una medida de tendencia central y se define por:
¥
m = E ( x ) = ò xf ( x ) dx Si X es una variable continua
- ¥
¥
E[h ( x ) ] = ò h(
x ) f ( x ) dx Si X es una variable continua.
- ¥
Análogamente para mas de dos variables X 1 , X 2 , X 3 ,..., X k el valor esperado de
cualquier función h de las variantes, se define por
20
E [h ( x 1 , x 2 , x 3 ,..., x k ) ] = ååå ... å h ( x 1 , x 2 , x 3 ,..., x k ) p ( x 1 , x 2 , x 3 ,..., x k )
x 1 x 2 x 3 x k
E [h ( x 1 , x 2 , x 3 ,..., x k ) ] = ò h( x , x , x ,..., x k ) f ( x , x , x ,..., x k ) dx dx dx ... dx k
1 2 3 1 2 3 1 2 3
- ¥
El valor esperado o media posee algunas propiedades:
Ejemplo 1.9: Encontrar la media o valor esperado de la distribución de Poisson
Solución: la distribución de Poisson esta dada por
ìe - l lx
ï x = 0, 1 , 2 , ...
f ( x ) = í x !
ï0 en cualquier otro valor
î
luego
¥
e - l lx ¥
-l
¥
lx -1
E ( x ) = å x . p ( x ) = å x. = le å
x =0 x =0 x ! x =1 ( x - 1
)!
21
¥
l y
E ( x ) = le - l å -l l
= l e e = l
y = 0 ( y )!
Ejemplo 1.10: Encontrar la media o valor esperado de la distribución binomial.
Solución: La distribución binomial esta dada por:
ì n!
ï p x ( 1 - p ) n - x x = 0 , 1 , 2 , ... , n 0 £ p £ 1 , n Î Z +
f ( x ) = í( n - x )! x !
ï0 en cualquier otro valor
î
entonces
n n
n !
E ( x ) = å x. P ( x ) = å x p x ( 1 - p ) n x
-
x = 0 x
= 0 ( n - x )! x !
n -1
( n - 1 )!
= n å p x ( 1 - p ) n - x
x =1 n
( - x
)!
( x - 1
)!
n -1
( n - 1 )!
= np å p x ( 1 - p ) ( n -1 ) -( x -1 )
-1
x [( n - 1
=1 ) - ( x - 1 )]! ( x - 1 )!
m
m !
E ( x ) = np å p y ( 1 - p ) ( m - y ) = np
y = 0 m
( - y
)! ( y
)!
Es bueno recordar para los ejemplos 1.11 1.12 1.13 la función Gamma y la función
Beta
1. La función Gamma esta definida por:
22
¥
G ( n ) = ò u n -1 e -u du = ( n - 1 )! n > 0
0
y sus propiedades son:
· G ( n + 1 ) = n !
· G (n
+ 1 ) = n G ( n )
· G ( 1 / 2 ) = p
2. La función Beta esta definida por.
1
B( a , b ) = ò xa -1 ( 1 - x ) b -1 dx a , b > 0 0 £ x £ 1
0
La función Beta y la función Gamma se encuentran relacionadas por
G (a ) G( b )
B (a , b ) =
G ( a + b )
Nota: En el apéndice al final de este documento se muestran las deducciones
anteriores y sus respectivas propiedades.
Ejemplo 1.11: Encontrar la media o valor esperado de la distribución Gama
Solución: La distribución Gamma esta dada por
- x
ì 1 a - 1 q x > 0, a, q > 0 ,
ï x e
f ( x ; a , q ) = í G( a ) q a
ï en cualquier otro valor
î 0
entonces
-x -x
¥ ¥ x 1 ¥
E ( x ) = ò xf ( x ) dx = ò a
x a -1 e q dx = ò x a e q dx
0 0 G (a
) q G ( a ) q a 0
ahora si observamos la integral podría transformarse en una función Gamma
x 1
Sea u = Þ du = dx Þ dx = qdu
q q
23
a
a æ x ö
u = ç ÷ Þ xa = u a q a
èq ø
luego
1 ¥ q ¥ a -u
E ( x ) = ò u a q a e -uq du = u e du
G ( a ) q a 0 ) ò0
G (a
q ¥ ( a +1 ) -1 -u qG(a + 1 ) qaG(a )
= ò u e dx = = = qa
G (a
) 0 G( a ) G( a )
a
Ejemplo 1.12: mostrar que la media de de la distribución Beta es:
a +b
Solución: La distribución Beta se encuentra definida por:
entonces
1 1 G (a
+ b ) a
E ( x ) = ò xf ( x ) dx = ò G( a ) G( b ) x ( 1 - x ) b -1 dx
0 0
G (a + b ) 1 a
= ò x ( 1 - x ) b -1 dx
G ( a ) G ( b ) 0
G (a + b ) aG ( a ) a
= =
G( a ) ( a + b ) G ( a + b ) (a + b )
Ejemplo 1.13 Supóngase que la variable aleatoria Y representa el intervalo de tiempo
entre dos llegadas consecutivas a una tienda y que su función de distribución esta dada
por:
24
ì1 - 4y
ï e y > 0,
f ( y ) = í 4
ï0 en cualquier otro valor
î
Si las ganancias de dinero es igual a al cubo del tiempo entre dos llegadas, encontrar el
valor esperado de las ganancias.
Solución: El valor esperado de las ganancias, es encontrar E ( Y 3 ) , luego
y
1 1 1 3 - 4
E ( y 3 ) = 3
ò y f ( y ) dy = y e dy
0 4 ò0
Ahora si hacemos
y 1
u= Þ du = dy Þ dy = 4du
4 4
3
3 æ y ö
u = ç ÷ Þ y3 = 64 u 3
è4ø
Entonces
1
E ( y 3 ) = 64 ò u 3 e - u du = 64 G (4 ) = 64(3!) = 384
0
Ejemplo 1.14 Encontrar el valor esperado de la distribución de Cauchy en el caso
a = 0 y b = 1 .
Solución: La distribución de Cauchy con a = 0 y b = 1 se encuentra definida por:
ì 1
ï 2 x > 0
f ( x ; 0,1) = íp ( 1 + x )
ï0 en cualquier otro valor
î
25
¥ ¥ 1 1 ¥ x
E ( X ) = ò xf ( x ) dx = ò x 2
dx = ò dx
0 0 p ( 1 + x ) p 0 ( 1 + x 2 )
1 ¥
= ln( 1 + x 2 ) 0
2 p
26
CAPITULO DOS
MOMENTOS Y FUNCIONES GENERADORAS
DE MOMENTOS
2.1 Momentos
Los momentos de una variable aleatoria X son los valores esperados de ciertas
funciones de x . Ellos forman una colección de medidas descriptivas que pueden
ayudar a caracterizar la distribución de probabilidad X y verificar si todos los momentos
son conocidos. Generalmente estos momentos se definen alrededor de 0 o del valor
esperado.
ìå x r p ( x )
ïï x donde x es discreta
m r ' r
= E ( x ) = í ¥
ï ò x r f ( x ) dx donde x es continua
ïî- ¥
6
Probalidad y estadística. George C.Canavos. Pág. 67
27
m1' = E ( x 1 ) = E ( x )
Lo cual indica que es el conocido valor esperado o media, similarmente se tiene este
valor si X fuese una variable continua.
Definición 2.2: “ Sea X una variable aleatoria. El résimo momento central de X
(también conocido como el reximo momento alrededor de la media) se define por:” 7
El momento central cero de cualquier variable aleatoria es 1.
El primer momento central de cualquier variable aleatoria es 0
m 2 = var( X ) = E [( x - m ) 2 ] = E ( x 2 - 2 x m + m 2 ) = E ( x 2 ) - 2 mE ( x ) + m 2
La varianza de cualquier variable aleatoria es la diferencia del segundo momento
alrededor de 0 y el cuadrado de la media o valor esperado. Generalmente se denota
s 2 aunque a veces será conveniente denotarla por var( X ) . La varianza de una
variable aleatoria es la medida de la dispersión de la distribución de probabilidad de
esta. Por ejemplo, en el caso continuo si la mayor parte del área por debajo de la curva
7
Probalidad y estadística. George C.Canavos. Pág. 67
28
de distribución se encuentra cercana a la media, la varianza es pequeña o si por el
contrario la mayor parte del área se encuentra muy dispersa de la media la varianza
será grande. La raíz cuadrada de la varianza recibe el nombre de desviación estándar y
se denota por s .
La varianza al igual que el valor esperado tiene propiedades, así:
Dadas dos constantes a y b.
· + b ) = a 2 var( X )
var(aX
· + bY ) = a 2 var( X ) + b 2 var( Y ) + 2 cov( X , Y )
var(aX
en al caso en que X y Y sean estadísticamente independientes
· + bY ) = a 2 var( X ) + b 2 var( Y )
var(aX
Como se ha podido observar el segundo momento alrededor de la media se expresó en
términos de los primeros dos momentos alrededor de 0. En general todos los
momentos centrales de una variable se pueden expresar en términos de los momentos
alrededor de 0, dado que:
i i
= 0 è ø
O sea que:
r
æ r ö
( x - m ) r = å (- 1 )i çç ÷÷ x r i m i
-
i = 0 i è ø
ahora
é r æ r ö ù r r r r
m r = E êå (- 1)i çç ÷÷ x r -i m i ú = å (- 1)i æçç ö÷÷ m i E ( x r -i ) = å æçç ö÷÷(- m ) i m r ' -i
ë i =0 è i ø û i = 0 è i ø i = 0 è i ø
ejemplo si se necesitara el tercer momento central
3
æ 3 ö æ 3ö æ 3 ö æ 3 ö æ 3 ö
m 3 = å çç ÷÷( - m ) i m '
3 -i = çç ÷÷( - m ) 0 m 3 ' + çç ÷÷( - m ) m 2 ' + çç ÷÷( - m ) 2 m1 ' + çç ÷÷( - m ) 3 m 0 '
i
= 0 i è ø è 0 ø è 1 ø è 2 ø è 3 ø
= m 3 ' - 3mm 2 ' + 3 m 2 m 1 ' - m 3 = m 3 ' - 3mm 2 ' + 3 m 3 - m 3
29
= m 3 ' - 3mm 2 ' + 2 m 3
Los momentos centrales tercero y cuarto proporcionan información muy útil con
respecto a la forma de la distribución de probabilidad de X y reciben el nombre de
factores de forma.
El tercer momento de cualquier variable aleatoria se encuentra relacionado con la
asimetría de la distribución de probabilidad de X .
En el caso en que las distribuciones de probabilidad presenten más de un pico, el
tercer momento puede presentar datos erróneos, por eso es conveniente usar el
tercer momento estandarizado, dado por:
a 3 recibe el nombre de coeficiente de asimetría y como su nombre lo indica mide la
asimetría de la distribución de probabilidad con respecto a su dispersión. La distribución
puede ser:
· Asimétrica positivamente a 3 > 0
0 5 10 15
Gráfico 2.1
30
· Simétrica a 3 = 0
0 1 2 3 4 5 6
Gráfico 2.2
Gráfico 2.3
El cuarto momento ( m ) de cualquier variable aleatoria mide que tan puntiaguda es la
distribución de probabilidad de X y recibe el nombre de curtosis .
4
æ 4 ö
m 4 = å çç ÷÷( - m ) i m '
4 - i
i
= 0 i è ø
31
Al igual que en el tercer momento es recomendable usar el cuarto momento
estandarizado, dado por:
2
a 4 = m 4 / m 2 = m 4 / var( X ) 2
Gráfico 2.4
· Si a 4 = 3 la distribución no presenta un pico ni muy alto ni muy bajo y
recibe el nombre de mesocúrtica.
Gráfico 2.5
32
· Si a 4 < 3 la distribución de probabilidad es relativamente plana y recibe el
nombre de platicúrtica.
Gráfico 2.6
Ejemplo 2.1: Encontrar la media, la varianza, y los factores de forma de la distribución
exponencial.
ì 1 - qx
ï e x > 0,
f ( x ; q ) = íq
ï0 en cualquier otro valor
î
Solución:
Primero se debe encontrar los primeros 4 momentos alrededor de cero, para esto:
¥ x ¥ r x
x r - q r - 1 x
-
m r ' = E ( x r ) = ò0 q e dx = q ò0 q r e q dx
si reemplazamos
x 1
u= Þ du = dx
q q
entonces se tendría que
¥
' r r - u
m r = q ò u e du = q r G (r + 1 ) = r ! q r
0
Luego
33
m 2' = 2! q 2 = 2q 2
m 3' = 3! q 3 = 6q 3
ahora ya teniendo los cuatro primeros momentos alrededor de cero, se puede calcular
los momentos alrededor de la media.
m 3 = m 3 ' - 3mm 2 ' + 2 m 3 = 6q 3 - 3 q ( 2 q 2 ) + 2 q 3 = 6q 3 - 6 q 3 + 2 q 3 = 2q 3
m 4 = m 4 ' - 4 mm 3 ' + 6 m 2 m 2 ' - 3 m 4 = 24q 4 - 4 q ( 6 q 3 ) + 6 q 2 ( 2 q 2 ) - 3 q 4
= 24q 4 - 24 q 4 + 12 q 4 - 3 q 4 = 9q 4
ahora teniendo estos momentos se puede encontrar los coeficientes de asimetría y de
curtosis.
Luego
entonces si se observa los factores de forma se tiene que la grafica de una distribución
exponencial siempre es asimétrica positivamente y leptocúrtica.
34
DISTRIBUCION EXPONENCIAL
Gráfico 2.7
Ejemplo 2.2: Encontrar la media, la varianza, y los factores de forma de la distribución
de poisson.
ì e - l lx
ï x = 0, 1 , 2 , ...
f ( X ; l ) = í x !
ï0 en cualquier otro valor
î
Solución:
Para este caso es muy complicado encontrar m r' por esto se procede a encontrarlos
uno por uno.
ahora
¥
e - l l x ¥
l x - 2
E[ X ( X - 1 )] = å x( x - 1 ) = l 2 e -l å
i
=0 x ! i = 2 ( x - 2 )!
35
m 2' = l2 + l
ahora
¥
e - l l x
E[ X ( X - 1 )( X - 2 )] = å
i =0
x(
x -
1 x
)( - 2
)
x !
¥
l x -3
= l3 e -l å
i = 3 ( x - 3 )!
m 3' = l3 + E ( 3 X 2 - 2 X ) = l3 + 3 E ( X 2 ) - 2 E ( X ) = l3 + 3l2 + l
¥
l y
E[ X ( X - 1 )( X - 2 )( x - 3 )] = l 4 e - l å = l 4 e - l e l = l4
i = 0 ( y
)!
ósea que
36
4 3 2 2
= l + 6 ( l + 3 l + l ) - 11 ( l + l ) + 6 l
= l4 + 6 l3 + 7 l2 + l
ahora se procede a calcular los momentos alrededor de la media.
Y con esto calcular los factores de forma
3l2 + l 1
a 4 = m 4 / m 2 2 = m 4 / var( X ) 2 = 2
= 3+
l l
luego
1
E ( X ) = l , var( X ) = l 2 + l , a 3 = 1 / l , a 4 = 3 +
l
Si se observan los factores de forma encontramos que la grafica es asimétrica positiva
y leptocúrtica pero a medida de que l ® ¥ la grafica tiende a ser simétrica y
mesocúrtica
37
DISTRIBUCION DE POISSON
0,25
0,2
0,15
0,1
0,05
0
0 2 4 6 8 10 12
Gráfico 2.8
Cuando existen todos los momentos de una distribución (esto es cuando todos los
momentos son finitos), es posible asociar una función generadora de momentos. Se
ìåe x. t p ( x )
ïï x donde X es discreta
x .t
M x ( t ) = E ( e ) = í ¥
ï ò e x . t f ( x ) dx donde X es continua
ïî- ¥
E[ h ( t )]' = E [ h ' ( t )]
38
d d
dt
E [ h ( t )] = å [ h ( t ) P ( x )]
dt x
d
= åx dt [h
( t ) P ( x )] la derivada de una suma es la suma de las derivadas.
= åx [ h' ( t ) P ( x )]
= E [ h ' ( t )]
para el caso continuo hay que tener en cuenta que la derivada de una integral es la
integral de la derivada,
Ahora si se tiene
d r d r
r
M x t
( ) = r
E ( e x . t )
dt t = o
dt t = o
é d r ù
= E ê r
e x . t ú t = o
ë dt û
= E ( x r e x . t )
t = o
= E ( x r ) = m r'
Así como los momentos alrededor de 0 tienen su función generadora de momentos los
momentos alrededor de la media también tiene dicha función y se define como:
ìåe t ( x - m ) p ( x )
ïï x donde x es discreta
M ( x - m ) ( t ) = E ( e t ( x - m ) ) = í ¥
ï ò e t ( x -m ) f ( x ) dx donde x es continua
ïî-¥
39
Veamos :
d r d r
M ( m - x ) t
( ) = E ( e t ( x - m ) )
dt r t = o
dt r
t = o
é d r ù
= E ê r
e t ( x - m ) ú t =o
ë dt û
Ejemplo 2.3: Determinar la función generadora de momentos de:
· la distribución Gamma
· la distribución Chicuadrado
· la distribución Exponencial
y usela para calcular la media, la varianza y los factores de forma de cada una de las
distribuciones.
Solución:
La distribución Gamma esta dada por
x
ì 1 -
a - 1 q
ï a
x e x > 0, a , q > 0
f ( x ; a , q ) = íG( a ) q
ï0 en cualquier otro valor
î
Luego su función generadora de momentos es:
¥ - x ¥ æ x ö
1 1 ç x. t - ÷
a -1
M x (t ) = E ( e x .t ) = a ò
e x. t x a -1 e q dx = ò x e è
qø
dx
G ( a ) q 0 G ( a ) q a 0
¥ x
1 a -1
- (1 -q . t )
q
=
G ( a ) q a ò x e
0
dx
Ahora
40
si u = (1- q . t )
x
Þ du =
(1- q . t ) dx Þ dx =
q .du
q q 1 - q . t
q .u
x =
(1 - q . t )
Reemplazando se tiene que
¥ a -1
1 æ q . u ö q
M x (t ) = ò0 ççè (1 - q . t ) ÷÷ø e -u du
G ( a ) q a 1 - q . t
¥
q a -1 q
= a -1 ò u a -1 e -u du
) q (1 - q . t ) ( 1 - q . t ) 0
G (a a
qa 1 -a
= a
G( a ) = a
= (1 - q . t )
G (a ) q (1 - q . t )
a
(1 - q t. )
y teniendo esta función se puede calcular los primeros cuatro momentos alrededor de 0.
d d
m 1' =
dt
m x (t ) =
dt
[
(1 - q . t )-a ] = - a (1 - q . t )
-a -1
( -q )
t = 0
= qa (1 - q . t )
-a -1
t =0
t = o t = 0
= qa = m
d2 d
m 2' =
dt
m ( t ) =
2 x
dt
[
qa (1 - q . t )-a -1 ] - 1 ) (1 - q . t )
= qa ( -a
-a - 2
( -q )
t = 0
t = o t = 0
-a - 2
= q 2 a (a + 1 ) (1 - q . t ) = q 2a ( a + 1 )
t = 0
d3 d 2
m 3' =
dt
m ( t ) =
3 x
dt
[
q a (a + 1 ) (1 - q . t )-a - 2 ]
t = o t = 0
-a - 3 -a - 3
= q 2 a (a + 1 )( -a - 2 ) (1 - q . t ) ( -q ) = q 3 a (a + 1 )( a + 2 ) (1 - q . t )
t = 0 t = 0
41
d4 d 3
m 4' =
dt
m ( t ) =
4 x
dt
[
q a (a + 1 )( a + 2 ) (1 - q . t )-a -3 ] =
t = o t = 0
-a - 4
= q 3 a (a + 1 )( a + 2 )( -a - 3 ) (1 - q . t ) ( -q )
t = 0
-a - 4
= q 4 a (a + 1 )( a + 2 )( a + 3 ) (1 - q . t ) = q 4a ( a + 1 )( a + 2 )( a + 3 )
t = 0
ahora se procede a calcular los momentos alrededor de la media
m2 = var( X ) = m 2' - m 2 = q 2 a (a + 1 ) - a 2 q 2 = q 2a 2 + q 2 a - a 2 q 2 = q 2 a
= q 4 a (a + 1 )( a + 2 )( a + 3 ) - 4 qa [ q 3 a ( a + 1 )( a + 2 )] + 6 q 2 a 2 q 2 a ( a + 1 ) - 3 q 4 a 4
= q 4 a (a 3 + 6 a 2 + 11 a + 6 ) - 4 q 4 a 2 ( a 2 + 3 a + 2 ) + 6 q 4 a 4 + 6 q 4 a 3 - 3 q 4 a 4
= q 4a [ a 3 + 6 a 2 + 11 a + 6 - 4 a ( a 2 + 3 a + 2 ) + 6 a 3 + 6 a 2 - 3 a 3 ]
= q 4a [ 3 a + 6 ]
y por ultimo los factores de forma
2q 3 a 2q 3 a 2a 2
a 3 = m 3 /( m 2 ) 3 / 2 = m 3 / var( X ) 3 / 2 = = = =
( q a ) 2 3
q 3
a 3
a 3
a
luego
42
M X (t ) = (1 - 2 . t ) - v / 2
2 æ 2 ö
m = qa , var( X ) = q 2 a , a 3 = , a 4 = 3 ç1 + ÷
a è a ø
si se observan los coeficientes de forma, vemos que la distribución Gamma es
asimétrica positivamente y leptocúrtica, si a tiende a 0. Pero tiende a ser mesocúrtica y
simétrica a medida de que a tiende a infinito.
DISTRIB UCION GAMMA
Gráfico 2.9
v
Ahora como la distribución Chicuadrado es una distribución Gamma con a = y
2
q = 2 donde v son los grados de libertad de la variable. Entonces:
43
m = q , var( X ) = q 2 , a 3 = 2, a 4 = 9
Como esta desarrollado en el ejemplo 2.1
NOTA: En el apéndice al final de este documento se enuncian la media, la varianza, los
factores de forma y la función generadora de momentos de cada una de las
distribuciones especiales.
44
CAPITULO TRES
DISTRIBUCIÓN DE PROBABILIDAD DE UNA
FUNCIÓN DE UNA VARIABLE ALEATORIA
Frecuentemente en estadística se presenta la necesidad de deducir la probabilidad de
una función de una o más variables aleatorias.
Para esto se presentan 3 técnicas:
· Técnica de la distribución acumulativa
· Técnica de las transformaciones
· Técnica de la función generadoras de momentos
En este capítulo solo se presentaran las 2 primeras técnicas, la tercera la trataremos
mas a fondo en el capítulo 4.
45
3.1 Técnica de la distr ibución acumulativa
Esta técnica esta basada como su nombre lo indica en la distribución acumulativa de
probabilidades de una variable aleatoria y es útil en distribuciones continuas de una o
más variables.
Teorema 3.1: Sea X una variable aleatoria continua con función de densidad f X ( x )
donde f X ( x ) > 0 para a ≤ x ≤ b, supóngase la función Y = g ( X ) estrictamente
monótona creciente, y derivable, por lo tanto continúa para todo x , entonces la variable
aleatoria Y = g ( X ) tiene función de densidad dada por:
d -1
f Y ( y ) = f X (g -1 ( y ) ) (g ( y ) )
dy
Demostración:
F Y ( y ) = p ( Y £ y ) = p ( g ( X ) £ y ) = p ( X £ g -1 ( y )) = F X (g -1 ( y ) )
d -1 d -1
f Y ( y ) = F X ' (g -1 ( y ) ) (g ( y ) ) = f X (g -1 ( y ) ) (g ( y ) )
dy dy
Ejemplo 3.1: Si X se distribuye uniformemente en el intervalo (-p / 2 , -p / 2 )
encontrar la distribución de Y = tan( X )
Solución:
X » f X ( x ) = U ( -p / 2 , p / 2 )
ß
Y = g ( X ) = tan( X ) » f Y ( y ) = ?
1
f X ( x ) esta definida como f X ( x ) = - p / 2 £ x £ p / 2
p
y el intervalo en el que se mueve Y es - ¥ £ y = tan( x ) £ ¥ , por tanto
46
F Y ( y ) = p ( Y £ y ) = p (tan( X ) £ y ) = p ( X £ arctan y ) = F X (arctan y )
ß
d
f Y ( y ) = f X (arctan y ) (arctan y ) - ¥ £ y £ ¥
dy
1 1
= - ¥ £ y £ ¥
p 1 + y 2
Lo cual indica que la distribución de Y es una distribución de Cauchy con parámetros
a = 0 y b = 1 .
Teorema 3.2: Sea X una variable aleatoria continua con función de densidad f X ( x )
donde f X ( x ) > 0 para a ≤ x ≤ b , suponga la función Y = g ( X ) estrictamente
monótona decreciente, y derivable, por lo tanto continúa para todo x , entonces la
variable aleatoria y = g ( x ) tiene función de densidad dada por:
d -1
f Y ( y ) = - f X (g -1 ( y ) ) (g ( y ) )
dy
Demostración:
F Y ( y ) = p ( Y £ y ) = p ( g ( X ) £ y ) = p ( X ³ g -1 ( y )) = 1 - p ( X £ g -1 ( y )) = 1 - F X (g -1 ( y ) )
d -1 d -1
f Y ( y ) = - F X ' (g -1 ( y ) ) (g ( y ) ) = - f X (g -1 ( y ) ) (g ( y ) )
dy dy
Ejemplo 3.2: Si X se distribuye uniformemente en el intervalo (0,1) encontrar la
distribución de Y = -2 ln( X )
47
Solución:
X » f X ( x ) = U ( 0 , 1 )
ß
Y = g ( X ) = -2 ln( X ) » f Y ( y ) = ?
FY ( y ) = p ( Y £ y ) = p ( -2 ln( X ) £ y ) = p ( X ³ e - y / 2 ) = 1 - p ( X £ e - y / 2 ) = 1 - F X (e - y / 2 )
d - y / 2 æ 1 ö
f Y ( y ) = - f X (e - y / 2 ) (e ) = - ç - e - y / 2 ÷
dy è 2 ø
1 - y / 2
= e 0 £ y £ ¥
2
Luego la distribución de y es la distribución de una variable Chicuadrado con 2 grados
de libertad.
El ejemplo que sigue es muy particular porque recordemos que las funciones
acumulativas tienen la propiedad de:
y
F Y ( y ) = p (Y
£ y ) = p ( g ( X ) £ y ) = ò f ( x ) dx
- ¥
y mas general quedaría
y y y
F Y ( y ) = p (Y
£ y ) = p ( g ( X 1 , X 2 , X 3 , ) £ y ) = ò ò ò f ( x , x , x ) dx dx dx
1 2 3 1 2 3
- ¥-¥- ¥
Ejemplo 3.3: Sea X 1 , X 2 , X 3 variables aleatorias independientes cada una con
distribución normal estándar. Halle la distribución de Y
Solución:
48
1
1 - x 1 2
X1 » f X ( x 1 ) =
1
e 2
- ¥ £ x1 £ ¥
2 p
1
1 - x 2 2
X 2 » f X ( x 2 ) =
2
e 2 - ¥ £ x 2 £ ¥
2 p
1
1 - 2 x 3 2
X 3 » f X 3 ( x 3 ) = e - ¥ £ x 3 £ ¥
2 p
Luego la función conjunta es:
1
- ¥ £ x1 £ ¥
1 - ( x 1 2 + x 2
2
+ x 3 2 )
f X 1 , X 2 , X 3 ( x 1 , x 2 , x 3 ) = e 2
- ¥ £ x 2 £ ¥
( 2 p ) 3 / 2
- ¥ £ x 3 £ ¥
Luego
X 12 + X 22 + X 32 = r 2 cos 2 q . sen 2 j + r 2 sen 2 q .sen 2 j + r 2 cos 2 j
= r 2 [cos 2 q . sen 2 j + sen 2 q .sen 2 j + cos 2 j ]
= r 2 [.sen 2 j (cos 2 q + sen 2q ) + cos 2 j ]
= r 2 [.sen 2 j + cos 2 j ]
2
= r
49
Luego
1
y 2 p p 1 - r 2
F Y ( y ) = ò ò ò (2 p ) 3 / 2
e 2 r 2 sen j d j d q d r
0 0 0
1
y 2 p 2 - r 2
=ò ò (2 p ) 3 / 2
e 2 r 2 d q d r
0 0
1 1 1
y 2( 2 p ) - 2 r 2 2 2 y - r 2 2 y - r 2
=ò e r d r = ò r 2 e 2 d r = ò rr e 2 d r
0
2 p 2 p p 0 p 0
si hacemos r = w Þ r 2 = w
1
Þ dr
= dw
2 w
w w
2 y w - 2 y w -
F Y ( y ) = e 2 dw = e 2 dw
p ò0 2 p ò0 2
ß
y y
2 y - 2 1 -
f Y ( y ) = e = ( y) 3 / 2 -1 e 2
p 2 2 p
ahora veamos que:
o sea que Y tiene una distribución Chicuadrado con 3 grados de libertad.
50
3.2 Técnica de transfor maciones
Esta técnica es usada tanto en distribuciones discretas como en distribuciones
continuas.
Teorema 3.3: Supóngase que X es una variable aleatoria discreta con distribución de
probabilidad f X ( x ) . Si la función Y = g ( X ) define una transformación uno a uno entre
los valores X y Y , de tal forma que la ecuación y = g ( x ) tenga su inversa x = g ( y ) ,
entonces la distribución de Y es:
Demostración:
F Y ( y ) = p ( Y = y ) = p ( g ( X ) = y ) = p ( X = g -1 ( y )) = f X (g -1 ( y ) )
Ejemplo 3.4: Sea X es una variable aleatoria discreta donde su distribución se
encuentra dada por
Encontrar la distribución de Y = 3 X + 1
Solución:
si X varia entre 1 y 4 se ve claramente que Y 4,7,10,13, entonces
y - 1
y = g ( x ) = 3 x + 1 Þ x = g -1 ( y ) =
3
ahora
51
æ y - 1 ö
f Y ( y ) = ç ÷
è 30 ø
Luego la distribución de y se encuentra dada por:
Supongamos ahora el problema en el que X 1 , X 2 ,..., X n , son variables aleatorias
discretas con función conjunta f X 1 , X 2 ,..., X n ( x 1 , x 2 ,..., x n ), y se desea encontrar la
las cuales definen una transformación uno a uno entre los conjuntos de
puntos ( x 1 , x 2 ,..., x n ) y ( y 1 , y 2 ,..., y n ) .Si se resuelven las ecuaciones simultáneamente
se encontrara la solución inversa única
Teorema 3.4: Supóngase que X 1 , X 2 ,..., X n , son variables aleatorias discretas con
distribución de probabilidad conjunta f X , X ,..., X n ( x 1 , x 2 ,..., x n ) . Si las funciones
1 2
de Y 1 , Y 2 ,..., Y n , es:
52
Demostración:
Ejemplo 3.5: Sean X 1 y X 2 variables aleatorias independientes de poisson. Halle la
distribución de la suma de dichas variables.
Solución:
l1 x e - l
1 1
l1 x e - l
2 2
Usamos una variable auxiliar para poder tener una transformación uno a uno.
y2 = x 2
Ahora si procedemos a encontrar las inversas:
53
y 2 = 0,1,2,3,…, y 1
f Y , Y ( y 1 , y 2 ) =
1 2
f X , X ( y 1 - y 2 , y 2 )
1 2
=
( y 1 - y 2 )! y 2 !
y para encontrar la distribución de f Y 1 ( y 1 ) , se calcula la distribución marginal de Y1,
sumando la distribución conjunta con respecto a y 2 , entonces:
y 1
l1 y - y l 2 y e - ( l +l )
y 1 1 2 2 1 2
f Y ( y 1 ) =
1 å f Y , Y ( y 1 , y 2 ) =
0
1 2 å0 ( y - y )! ( y )!
1 2 2
y 1
l1 y - y l2 y
1 2 2
e - ( l + l ) y
1 2
y 1 !
1
= å l1 y - y l2 y 1 2 2
= ( l1 + l2 ) y 1
y 1 !
( l1 + l2 ) y1
f Y ( y 1 ) = e - ( l +l )
1 2
y 1 = 0,1,2,3,…
1
y 1 !
Luego la distribución de la suma de 2 variables de poisson es una variable de poisson
con parámetro l1 + l2 .
54
3.2.1 Técnica de transformaciones para variables continuas
En este caso se enuncia el siguiente teorema:
x = g -1 ( y ) , entonces la distribución de Y es:
Demostración:
La demostración puede abrirse en dos casos, en el caso en el que y = g ( x ) es
creciente y en el caso en el que y = g ( x ) es decreciente.
4
b
a
0
g1(a)
0 1,5
55
P (a
£ Y £ b ) = P (Y
£ b ) - P ( Y £ a )
= P ( g ( X ) £ b ) - P ( g ( X ) £ a )
Ahora cambiando la variable de integración de x a y por la relación x = g -1 ( y ) se
tendría que:
56
b
a
0
g1(a)
0 5
P (a
£ Y £ b ) = P (Y
£ b ) - P ( Y £ a )
= P ( g ( X ) £ b ) - P ( g ( X ) £ a )
otra vez cambiando la variable de integración de x a y se tiene que:
a
-1
P (a
£ Y £ b ) = òb f X ( g ( y ))[ g -1 ( y )] ' dy
b
= - f X ( g -1 ( y ))[ g -1 ( y )] ' dy
òa
como a y b recorren todos los valores permisibles de y siempre que a < b se tiene
que
en este caso la pendiente de la curva es negativa, por tanto J = - J .
57
f Y ( y ) = f X (g -1 ( y ) ) J
con lo cual se concluye el teorema.
Solución:
G ( a + b ) a -1
X » f X ( x ) = x ( 1 - x ) b -1 0 £ x £ 1
G( a ) G ( b )
Y el intervalo en el que se mueve y es:
aplicando el teorema encontramos la distribución de Y
G(a + b )
= ( 1 - Y ) a -1 ( Y ) b -1
G( a ) G( b )
58
Teorema 3.6: Supóngase que X 1 , X 2 ,..., X n son variables aleatorias continuas con
distribución de probabilidad conjunta f X 1 , X 2 ,..., X n , ( x 1 , x 2 ,..., x n ) . Si y1 = g 1 ( x 1 , x 2 ,..., x n ),
y2 = g 2 ( x 1 , x 2 ,..., x n ), ..., y n = g n ( x 1 , x 2 ,..., x n ), definen una transformación uno a
uno entre los valores ( x 1 , x 2 ,..., x n ) y ( y 1 , y 2 ,..., y n ) de tal forma que las ecuaciones
= f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] J
donde el jacobiano es el determinante de n x n.
Ejemplo 3.7: Sean X 1 y X 2 variables aleatorias independientes con distribución
normalmente estandarizada. Halle la distribución del cociente de dichas variables.
Solución:
1
1 - 2 x 1 2
X1 » N ( 0 , 1 ) = f X ( x 1 ) = e - ¥ £ x1 £ ¥
1
2 p
1
1 - 2 x 2 2
X1 » N ( 0 , 1 ) = f X ( x 2 ) = e - ¥ £ x2 £ ¥
2
2 p
1
1 - 2 ( x 1 2 + x 2 2 ) - ¥ £ x1 £ ¥
f X 1 , X 2 ( x 1 , x 2 ) = e
2 p - ¥ £ x 2 £ ¥
59
x 1
y1 = Þ f Y 1 ( y 1 ) = ?
x 2
Usamos una variable auxiliar para poder tener una transformación uno a uno
y2 = x 1 + x 2
procedemos a encontrar las inversas:
en este caso no hay ninguna restricción luego
y el jacobiano es
y 2 y 1
( y + 1 ) 2 y 1 + 1 y 2 y 2 y 1 y (1 + y 1 )
J = 1 = + = 2 = y 2 ( y 1 + 1 ) -2
y 2 1 3 3
( y 1 + 1 ) ( y 1 + 1 ) ( y 1 + 1 ) 3
-
( y 1 + 1 ) 2 y 1 + 1
æ y 1 y 2 y 2 ö
f Y , Y ( y 1 , y 2 ) = f X , X çç
1 2
, ÷÷ y 2 ( y 1 + 1 ) -2
è y 1 + 1 y 1 + 1 ø
1 2
2 2
1 é æ y y ö æ y ö ù
- ê çç 1 2 ÷÷ + çç 2 ÷÷ ú
1 2 ê è y 1 +1 ø è y 1 +1 ø ú
= e ë û
y 2 ( y 1 + 1 ) -2
2 p
2 2
1 æ y 2 ( y 1 +1 ) ö
1 - 2 ççè ( y 1 +1 ) 2 ÷ø
÷
y2
= e - ¥ £ y 2 £ ¥ , - ¥ £ y1 £ ¥
2 p ( y 1 + 1 ) 2
60
y para encontrar la distribución de f Y 1 ( y 1 ) integramos la distribución conjunta con
respecto a y 2 , entonces:
¥ ¥ 1 æ y22 ( y 1 2 +1 ) ö
1 - 2 çç ( y 1 +1 ) 2 ÷ø
÷
y 2
f Y 1 ( y 1 ) = ò f Y1 , Y 2 ( y 1 , y 2 ) dy 2 = ò e è dy 2
-¥ -¥
2 p ( y 1 + 1 ) 2
ahora, si hacemos
luego
¥
1 -u y 2 ( y 1 + 1 ) 2
f Y ( y 1 ) = e du
1
2 p ò0 ( y 1 + 1 ) 2 ( y 1 2 + 1 ) y 2
¥
2 -u
e du
2 p ( y + 1 ) ò
= 2
1 0
1
=
p ( y12 + 1 )
1
f Y ( y 1 ) = - ¥ £ y 1 £ ¥
1
p ( 1 + y12 )
con lo que se tiene que la distribución del cociente de 2 variables normal estándar es
una variable de Cauchy con a = 0 y b = 1
61
CAPITULO CUATRO
TÉCNICA DE FUNCIÓN GENERADORA DE
MOMENTOS
Este es otro método para determinar la distribución de variables aleatorias, es
construido en base a la función generadora de momentos y es muy útil en algunos
casos.
“Supongamos las variables aleatorias X 1 ,..., X n con función de densidad conjunta
f X ,..., X n ( x 1 ,..., x n ) y las funciones g 1 ( x 1 ,..., x n ) ,…, g k ( x 1 ,..., x n ) , se desea encontrar la
1
distribución de Y1 = g 1 ( x 1 ,..., x n ) ,…, Yk = g k ( x 1 ,..., x n ) apoyados en que si la función
generadora de momentos de Y1 , Y 2 ,..., Y k existe es:
M Y ,..., Y n ( t 1 ,..., t k )
1
= E [exp( t 1Y
1 + ... + t k Y k ) ]
62
Después de encontrar la solución de la anterior integral, esta solución estará dada en
función de t1 ,..., t k y puede ser reconocida como la función generadora de momentos
de alguna distribución conocida, luego Y1 , Y 2 ,..., Y k tendrá dicha distribución gracias a
que la función generadora de momentos un única.
En el caso de que k > 1 este método puede ser de uso limitado ya que porque
podemos reconocer pocas funciones generadoras de momentos. Para k = 1 la función
generadora de momentos tendrá un solo argumento por tanto será sencillo reconocer
las su función generadora de momentos.
Esta técnica es muy útil cuando deseemos encontrar la distribución de la suma de
variables independientes” 8 .
Ejemplo 4.1: Sea X una variable aleatoria con una distribución Weibull de parámetros
a y q , obtener la distribución de Y = X a
Solución:
a
a é æ x ö ù
X » f X ( x ) = a x a -1 exp ê - ç ÷ ú x > 0; a , q > 0
q êë è q ø úû
¥
a
ò exp (x t ) f ( x ) dx =
M y (t ) = E [exp (x t )] = a
X
0
¥ a
a é æ x ö ù
= a ò
xa -1 exp ê x a t - ç ÷ ú dx
q 0 êë èq ø úû
a ¥ a -1 é x a ù
= a ò
x exp ê- a (1 - q a t )ú dx
q 0 ë q û
Si hacemos
xa axa - 1 qa
u = (
1 q
- a
)
t Þ du = (1 - q a t )dx Þ x a -1 dx = du
a (1 - q a t )
qa qa
8
Introduction to the theory of statistics. Mood,Graybill, Boes. Pág 96
63
Luego reemplazando se tiene que:
a ¥ -u qa
M y (t ) = e du
q a ò0 a (1 - q a t )
¥
1
e -u du
( 1 - q a t ) ò0
=
1
= a
= (1 - q a t ) -1
( 1 - q t )
Luego Y es una distribución exponencial negativa con parámetro q a .
Ejemplo 4.1: Supóngase que X tiene una distribución normal con media 0 y varianza
1, sea Y = X 2 , encontrar la distribución de probabilidad de Y
Solución:
- x 2
1
X » f X ( x ) = e 2 - ¥ £ x £ ¥
2 p
¥
ò exp (x t ) f ( x ) dx
M y (t ) = E [e Y . t ] = 2
X
- ¥
¥
1
ò exp (x t - x / 2 )dx =
2 2
=
2 p -¥
¥
1 é x 2 ù
= ò ê- ( 1 - 2 t ) ú dx =
exp
2 p -¥ ë 2 û
2
1
¥ é 1 æ x ö ù
exp ê- ç ÷ ú dx
2 p -ò¥ êë 2 çè 1 /( 1 - 2 t ) ÷ø úû
=
Luego
64
mx = 0, s x2 = 1 /( 1 - 2 t ) Þ s x = 1 / ( 1 - 2 t ) = (1 - 2 t ) -1 / 2
asi
¥
1 é 1 æ x - m ö 2 ù
-1 / 2
M y (t ) = (1 - 2 t ) ò exp ê- çç x
÷÷ ú dx = (1 - 2 t ) -1 / 2
2 p s x êë 2 è s x ø ú
-¥ û
Luego Y posee una distribución Chicuadrado con 1 grado de libertad. Entonces la
distribución del cuadrado de una distribución normal estándar es una distribución Chi
cuadrado con 1 grado de libertad
En el siguiente ejemplo será necesario manipular la expresión con el fin de evitarnos la
integración y encontrar la función generadora de momentos.
Ejemplo 4.3: Sea X 1 y X 2 variables aleatorias independientes cada una con
( X 2 - X 1 ) 2
distribución normal estándar. Halle la distribución de Y =
2
Solución:
1
1 - x 1 2
X1 » f X ( x 1 ) =
1
e 2 - ¥ £ x1 £ ¥
2 p
1
1 - x 2 2
X 2 » f X ( x 2 ) =
2
e 2 - ¥ £ x 2 £ ¥
2 p
Luego la función conjunta es:
1
1 - 2 ( x 1 2 + x 2 2 ) - ¥ £ x 1 £ ¥
f X , X ( x 1 , x 2 ) = e
1 2
2 p - ¥ £ x 2 £ ¥
ahora
¥ ¥
é æ ( x - x ) 2 t ö ù æ ( x 2 - x 1 ) 2 t ö
M y (t ) = E êexp çç 2 1 ÷÷ ú = ò ò ççè 2 ÷÷ø f X 1 , X 2 ( x 1 , x 2 ) dx 1 dx 2 =
exp
ë è 2 øû - ¥- ¥
¥ ¥
1 æ ( x2 - x 1 ) 2 t - ( x 1 2 + x 2 2 ) ö
= ò ò 2 p ççè
- ¥- ¥
exp
2
÷÷dx 1 dx 2
ø
entonces
65
( x2 - x 1 ) 2 t - ( x 1 2 + x 2 2 ) 1
= - [( x12 + x 2 2 ) - ( x 2 - x 1 ) 2 t ]
2 2
1
= - [ x12 + x 2 2 - x 2 2 t + 2 x 2 x 1 t - x 1 2 t ]
2
1
= - [ x12 ( 1 - t ) + x 2 2 ( 1 - t ) + 2 x 2 x 1 t ]
2
1 é æ 2 x x t öù
= - ê x 2 2 ( 1 - t ) + ( 1 - t ) ç x 1 2 + 2 1 ÷ú
2 ë è 1 - t øû
Luego
¥ ¥ 2
1 é x2 ( 1 - t ) x 2 2 t 2 ( 1 - t ) æ x 2 t ö ù
M y (t ) = ò ò 2 p ê 2 2 ( 1 - t ) 2 è 1 1 - t ø úúdx 1 dx 2
exp
ê - + - ç x + ÷
- ¥- ¥ ë û
2
1
¥
æ x2 ( 1 - t ) x 2 2 t 2 öìï ¥ é ( 1 - t ) æ x 2 t ö ù üï
=
2 p ò exp ççè - 2 + 2 ( 1 - t ) ÷÷øíï-ò¥exp êê- 2 çè x 1 + 1 - t ÷ø úú dx 1 ýïdx 2
-¥ î ë û þ
ahora
2
æ x t ö
2 ç x1 + 2 ÷
(1 - t ) æ x 2 t ö 1 è 1 - t ø
- ç x 1 + ÷ = -
2 è 1 - t ø 2 1 /( 1 - t )
Luego si hacemos:
x2 t
m1 = - , s x2 = 1 /( 1 - t ) Þ s x = 1 /( 1 - t ) = 1 / ( 1 - t )
1 - t 1 1
66
entones
M y (t )
1
¥
æ x2 ( 1 - t ) x 2 2 t 2 öìï 1 ¥ 1 é 1 æ x - m ö 2 ù üï
= ò-¥ çèç
exp - + ÷
÷ í ò ê- çç 1 1 ÷÷ ú dx 1 ýdx 2
exp
2 p 2 2 ( 1 - t ) øï 1 - t -¥ 2 p s 1 êë 2 è s 1 ø úû ïþ
î
¥
1 æ x2 ( 1 - t ) x 2 2 t 2 ö 1
=
2 p
ò ççè - 2 + 2 ( 1 - t ) ÷÷ø 1 - t dx 2
-¥
exp
¥
1 1 æ x 2 ( 1 - t ) x 2 2 t 2 ö
ç-
exp + ÷dx 2
1 - t -ò¥ çè
=
2 p 2 2 ( 1 - t ) ÷ø
luego
1 é x 22 ù
= - ê ú
2 ë ( 1 - t ) /( 1 - 2 t ) û
Luego si hacemos:
2
m2 - t ) /( 1 - 2 t )
= 0, s x2 = (1 Þ s x1 = - t ) /( 1 - 2 t )
(1
de aquí
¥
1 1 æ 1 x 2 2 ö
M y (t ) =
2 p 1 - t
ò-¥ çè 2 ( 1 - t ) /( 1 - 2 t ) ÷÷ødx 2
ç
exp -
67
1 1 - t
¥
1 æ 1 æ x - m ö 2 ö
exp ç - çç 2 2
÷÷ ÷dx 2
1 - 2 t -ò¥
=
1 - t 2 p s 2 ç 2 è s 2 ø ÷
è ø
1 -1 / 2
= = (1 - 2 t )
1 - 2 t
Lo cual indica que Y también es una distribución Chicuadrado con 1 grado de libertad.
En esta sección utilizaremos la técnica de la función generadora de momentos para
encontrar la distribución de la suma de variables aleatorias independientes.
n
M Y (t ) = Õ
i
M x ( a i t )
=1
i
Demostr ación:
n
é ù
M Y (t ) = E êexp å a i X i t ú = E [exp( a 1 X 1 t + ... + a i X i t ) ]
ë 1 û
= E [exp( X 1 a 1 t )... exp( X i a i t ) ]
n n
= E [exp( X 1 a 1 t ) ]... E [exp( X i a i t ) ] = Õ E [exp( X i a i t ) ] = Õ M x ( a i t )
i
i =1 i
=1
68
El poder del anterior teorema es grande puesto que si pudiésemos reconocer
n
Õ
i
=1
M x ( t ) esta seria la función generadora de momentos de la variable aleatoria
i
n
Y = å X i luego sabríamos como se distribuye la suma de las X i .
i =1
Solución:
X i » M X i ( t ) = ( 1 - q . t ) - a
n n
M Y (t ) = Õ M x (t )
i
= Õ (1 - q . t ) a-
= ( 1 - q . t ) - n a
i
=1 i =1
En el ejemplo 3.3 del capitulo tres vimos que la suma de los cuadrados de 3
distribuciones normales estándar poseen una distribución Chicuadrado con 3 grados
de libertad, con el siguiente ejemplo se demostrara mas general.
Solución:
En el ejemplo 4.1 se vio que la distribución del cuadrado de una distribución normal
estándar es una distribución Chicuadrado con 1 grado de libertad luego
69
aplicando el teorema
n n
M Y (t ) = Õ M x (t )
i
= Õ -1 / 2
( 1 - 2 . t ) - 2 . t ) - n / 2
= (1
i =1 i =1
Luego la suma de variables Chicuadrado posee una distribución Chicuadrado con n
grados de libertad.
Ejemplo 4.6: Mostrar que si X 1 , X 2 ,…, X n son variables aleatorias independientes
de poisson cada una con parámetro l i , entonces la distribución de la suma es también
una variable aleatoria de poisson con parámetro igual a å li .
Solución:
Lo cual muestra la suma tiene una distribución de poisson con parámetro å li .
n
2 2
M a i X i (t ) = exp( a i m i t + a i 2s i t / 2 ) . Halle la distribución de Y = å a i x i
i =1
Solución:
n n n
2 2 2
M Y (t ) = Õ M a x ( t ) = Õ exp(a i m i t + a i s i t
i i
/ 2 ) = exp å ( a i m i t + a i 2 s i 2 t 2 / 2 )
i =1 i =1 i =1
éæ n ö æ n ö t 2 ù
= exp êç å a i m i ÷t + ç å a i 2 s i 2 ÷ ú l
ëè i = 1 ø è i =1 ø 2 û
70
n n
2 2
luego Y se distribuye normalmente con media å a i mi y varianza
i =1
å
i
=1
a i s i
Uno de los resultados mas importantes de este teorema esta relacionado con la
demostración del teorema del limite central pero antes recordemos:
Se define como la media muestral donde
æ x 1 ö æ x ö æ x ö
m X = E ( X ) = E ç ÷ + E ç 2 ÷ + ... + E ç n ÷
è n ø è n ø è n ø
1 1 1 n m
= m + m + ... + m = =m
n n n n
y varianza
æ x 1 x 2 x ö 1 1 1
Var ( X ) = Var ç + + ... + n ÷ = 2 Var ( x 1 ) + 2 Var ( x 2 ) + ... + 2 Var ( x n )
è n n n ø n n n
1 ns 2 s2
=
n 2
(
s 2
+ s 2
+ ...
+ s 2
= )
n 2
=
n
tiene una media m y una varianza s 2 conocidos y finitos. Entonces X tiene una
distribución con media m y varianza s 2 / n que tiende hacia una distribución normal
conforme n tiende a infinito. En otras palabras la variable aleatoria ( X - m ) /( s / n )
tiende como límite a una distribución normal estándar.
71
Demostr ación:
X - m X i - m
Sean Y = y Zi = i = 1,2,3,…,n.
s / n s
Dado que.
n
1 i X - m 1 1 n 1 1 é n n
ù
å
n i s /
=1 n
= å ( X i - m )
n s / n i =1
= ê å
n s / n ë i =1
X i -å m ú
i =1 û
1 1 é n n ù 1 1 X - m
= ê å
n s / n ë n i =1
X i -n m ú =
n s / n
[n X - n m ] =
s / n
û
Luego
n
1 X - m
i n n X i - m 1 n
Y = å
n i s /
=1 n
= å
n i =1 s
= å Z i
n i
=1
ahora usando el teorema
n
M Y (t ) = M 1
å Z i
( t ) = Õ M Z (t /
i
[ ] [
n
n ) = M Z i (t / n ) = E (exp( Z i t / n )
]
n
n i =1
dado que las Z i son variable aleatorias independientes al expandir exp( Z i t / n ) en
una serien de Taylor
si se toman los valores esperados
72
Recordemos que por ser normal
E ( Z i ) = 0 y Var ( Z i ) = E ( Z i 2 ) - E 2 ( Z i ) = 1 Þ E ( Z i 2 ) - 0 = 1 Þ E ( Z i 2 ) = 1
luego
entonces
n
é t 2 t 3 t 4 ù
M Y (t ) = ê1 + + 2 / 3 E ( Z i 3 ) + 2
E ( Z i 4 ) + ... ú
ë 2 n 6 n 24 n û
n
ì 1 é t 2 t 3 t 4 ùü
= í1 + ê + E ( Z i 3 ) + 2 / 3
E ( Z i 4 ) + ... ú ý
î n ë 2 6 n 24 n ûþ
n
æ uö
M Y (t ) = ç1 + ÷
è n ø
ahora
n
æ uö
lim M Y ( t ) = lim ç1 + ÷
n ® ¥ n ® ¥è n ø
n
æ uö u
y por definición lim ç 1 + ÷ = e
n ® ¥
è n ø
luego
73
é t 2 t 3 t 4 ù
lim M Y ( t ) = exp ê + E ( Z i 3 ) + 2 / 3
E ( Z i 4 ) + ... ú ( )
= exp t 2 / 2
n ® ¥
ë 2 6 n 24 n û
X - m
con lo cual queda demostrado que a medida de que n crezca Y = va a tender a
s / n
una distribución normal estándar.
74
APÉNDICE
Deducción de la función Gamma:
La función Gamma esta definida por:
¥ ¥
¥
G ( n ) = - e -u u n -1 + ( n - 1 ) ò u n -2 e -u du = ( n - 1 ) ò u n -2 e -u du
0
0 0
¥ ¥
é ¥ ù
G ( n ) = ( n - 1 ) ê- e - u u n -2 + ( n - 2 ) ò u n -3 e -u du ú = ( n - 1 )( n - 2 ) ò u n -3 e -u du
0
ë 0 û 0
75
z = u n -3 Þ dz = (n - 3 ) u n -4
dv = e - u du Þ v = -e - u
¥
é ¥ ù
G ( n ) = ( n - 1 )( n - 2 ) ê- e - u u n -3 + ( n - 3 ) ò u n -4 e -u du ú
0
ë 0 û
¥
= ( n - 1 )( n - 2 )( n - 3 ) u n -4 e -u du
ò
0
y si seguimos la secuencia tendríamos
ahora mostremos las propiedades
Por la propiedad anterior tenemos que
· G ( 1 / 2 ) = p
76
ahora si u = z 2 Þ du = 2 zdz
luego
¥ ¥
2 2 2 p
G ( 1 / 2 ) = ò z -1 e - z 2 zdz = 2 ò e - z dz = = p
0 0
2
Deducción de la función Beta:
La función Beta esta definida por.
1
B( a , b ) = ò xa -1 ( 1 - x ) b -1 dx a , b > 0 0 £ x £ 1
0
mostremos que se encuentra relacionada con la función Gamma por
G (a ) G( b )
B (a , b ) =
G ( a + b )
1
x a
dv = x a -1 du Þ v =
a
1 1
xa ( 1 - x ) b -1 b - 1 a b - 2
B (a
, b ) = + ò0 x ( 1 - x ) dx
a 0
a
b - 1 1 a
= ò x ( 1 - x ) b -2 dx
a 0
77
1
b - 1 é xa + 1 ( 1 - x ) b -2 b - 2 1 a +1 ù
B(a
, b ) = ê + ò x ( 1 - x ) b -3 dx ú
a ê a + 1 a + 1 0 ú
ë 0 û
1
( b - 1 )( b - 2 ) a +1
= ò x ( 1 - x ) b -3 dx
a ( a + 1 ) 0
1
( b - 1 )( b - 2 ) é xa + 2 ( 1 - x ) b -3 b - 3 1 a + 2 b - 4
ù
B(a
, b ) = ê + x (
1 - x
) du
ú
a ( a + 1 ) ê a + 2 a + 2 ò0 úû
ë 0
1
( b - 1 )( b - 2 )( b - 3 ) a + 2
x ( 1 - x ) b - 4 du
a ( a + 1 )( a + 2 ) ò0
=
y si seguimos la secuencia tendríamos que
1
( b - 1 )( b - 2 )( b - 3 )
B (a , b ) = ... ò xa + b -2 ( 1 - x ) b - b du
a ( a + 1 )( a + 2 ) 0
1
( b - 1 )( b - 2 )( b - 3 )
= ... ò xa + b -2 du
a ( a + 1 )( a + 2 ) 0
1
( b - 1 )( b - 2 )( b - 3 ) x a + b -1
= ...
a ( a + 1 )( a + 2 ) a + b - 1 0
G( b )
=
a ( a + 1 )( a + 2 )... a + b - 1
78
(a - 1 )! G ( b )
=
( a - 1 )! a ( a + 1 )( a + 2 )... a + b - 1
Propiedades básicas de las distribuciones discretas
Distribución uniforme:
n
1
m x (t ) = å e it
n
i =1
Distribución bernoulli:
q - p 1
m = p , s 2 = pq , a 3 = , a 4 = -3 +
pq pq
Distribución binomial
79
x = 1, 2 ,..., n
æ n ö
f ( x ) = çç ÷÷ p x q n - x 0 £ p £ 1
è x ø n = 1 , 2 , 3 ...
m x (t ) = (q + pe t ) ,
n
q - p 1 - 6 pq
m = np , s 2 = npq , a 3 = , a 4 = 3 +
npq npq
Distribución hipergeométrica
N 2 ( N - 1 ){ N ( N + 1 ) - 6 n ( N - n ) + 3 k ( N - k )[ N 2 ( n - 2 ) - Nn 2 + 6 n ( N - n )] / N 2 }
a 4 =
( N - 2 )( N - 3 ) nk ( N - k )( N - n )
Nota: debe anotarse que la función generadora de momentos de la distribución
hipergeométrica es demasiado tediosa de trabajar, por esto no es usada.
Distribución poisson
80
e - l l x
f ( x ) = x = 0, 1 , 2 ,.... l>0
x !
M X [ (
( t ) = exp l e t - 1 , )]
1 1
m =l, s 2 = l , a 3 = , a 4 = 3 +
l l
Distribución geométrica
p
M X ( t ) = ,
1 - qe t
q q p ( 1 + q ) 1
m = , s 2 = , a3 = , a 4 = 7 + q +
p p 2 q q
Distribución binomial negativa
81
r
æ p ö
M X ( t ) = çç ÷ ,
t ÷
è 1 - qe ø
Propiedades básicas de las distribuciones continuas
Distribución uniforme
1 a < x < b
f ( x ) =
b - a - ¥ < a < b < ¥
e bt - e at
m x (t ) = ,
(b - a ) t
a + b ( b - a ) 2
m = , s 2 = , a 3 = 0 , a 4 = 9 / 5
2 12
Distribución normal
é 1 ù
M X (t ) = exp êm t + s 2 t 2 ú
ë 2 û
a 3 = 0 , a 4 = 3
82
Nótese que m y s 2 son parámetros de la función.
Distribución Beta
0 < x < 1
1
f ( x ) = x a -1 ( 1 - x ) b -1 a > 0
B ( a , b )
b > 0
a ab 2 ( b - a ) a + b + 1
m= , s 2 = 2
a 3 =
a + b ( a + b + 1 )( a + b ) ab ( a + b + 2 )
Nota: La función generadora de momentos de la distribución Beta no tiene una forma
sencilla de trabajar por esto no se utiliza.
Distribución Weibull
a a -1
f ( x ) = x exp[ - ( x / q ) a ]
qa
- t æ t ö
M X (t ) = a b Gç1 + ÷
è b ø
G(1 + 3 / a ) - 3 G ( 1 + 1 / a ) G( 1 + 2 / a ) + 2 G 3 ( 1 + 1 / a )
a 3 =
[ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 3 / 2
G(1 + 4 / a ) - 4 G( 1 + 1 / a ) G( 1 + 3 / a ) 6 G 2 ( 1 + 1 / a ) G ( 1 + 2 / a ) - 3 G 4 ( 1 + 1 / a )
a 4 = +
[ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 2 [ G( 1 + 2 / a ) - G 2 ( 1 + 1 / a )] 2
83
Distribución Gamma
1
f ( x ) = x a -1 e - x / q x > 0, a , b > 0
G( a ) q a
2 æ 2 ö
m = aq , s 2 = aq 2 , a 3 = , a 4 = 3 ç1 + ÷
a è aø
Distribución exponencial
La función gamma en la que a = 1 se llama distribución exponencial.
1
f ( x ) = e - x / q x > 0, b > 0
q
Distribución Chicuadrado
V / 2
1 æ 1 ö
f ( x ) = ç ÷ x V / 2 -1 e - x / 2
G( V / 2 ) è 2 ø
84
4 æ 4 ö
m = v , s 2 = 2 v , a3 = , a 4 = 3 ç1 + ÷
2 v è v ø
Distribución Cauchy
1
f ( x ) =
pb { 1 + [( x - a ) / b ] 2 }
85
CONCLUCIONES
· La función generadora de momentos es directamente aplicable al descubrimiento
de la distribución de probabilidad de sumas de variables aleatorias.
conocimiento de una distribución de probabilidad única.
· El cálculo integral es una buena herramienta para apoyar la función generadora de
momentos.
· Este trabajo intenta motivar el estudio de escenarios específicos, donde las
matemáticas son útiles.
86
BIBLIOGRAFÍA
· WALPOLE Ronald, MEYERS Raymond.2005. Probabilidad y estadística. Mc Graw
Hill.
· CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw
Hill.
· HOGG Robert. Introduction to mathemátical. Collier Macmillan publishers.
· MOOD, GRAYBILL, BOES. introduction to the theory of statistics, Mc Graw Hill.
· http://www.pokertips.com.es/strategy/expectedvalue.php
· http://www.personal.us.es/olmedo/El%20concepto%20de%20Valor%20Esperado.pd
87