Está en la página 1de 10

Probabilidad y Estadística - Grado en Matemáticas

Curso 2012-2013

Tema 7. Función generatriz de momentos y función


característica
Profesores: José Manuel Prada Sánchez y César Sánchez Sellero

índice

1. Introducción 2

2. Función generatriz de momentos de una variable aleatoria X 2


2.1 La función generatriz y los momentos respecto del origen y de la media 3

3. Función característica de una variable aleatoria X 4


3.1 Propiedades de la función característica de una variable aleatoria 4
3.2 La función característica y los momentos respecto del origen y de la media 5
3.3 La función característica caracteriza la distribución 6

4. Funciones generatriz y característica de un vector aleatorio X 8

Referencias 10
2

1. Introducción

En este tema estudiaremos dos funciones instrumentales en el cálculo de


probabilidades, la función generatriz de momentos y la función característica de una
variable o un vector aleatorio, que nos permitirán calcular con facilidad momentos de
sus distribuciones (en particular su media y varianza o su vector de medias y su matriz
de covarianzas), o bien, analizar la reproductividad de algunos modelos paramétricos
conocidos (el hecho de que la suma de variables independientes de dichos modelos
sea otra variable de dicho modelo con parámetro la suma de los correspondientes a
los sumandos).
Estas funciones, que caracterizan a las correspondientes distribuciones, serán de
utilidad también en el estudio de la convergencia de sucesiones de variables aleatorias
que veremos en el tema 8.

2. Función generatriz de momentos de una variable aleatoria X


Recordemos (tema 2, teorema 1) que si X : W® ¡ es una variable aleatoria unidimen-
sional con función de distribución F y g : ¡ ® ¡ una función medible, entonces
ìï
ïï å g (x k )pk (
si X discreta pk = P (X = x k ) )
ï
( ) ò
E g (X ) =
¡
g (x )F (dx ) = í k
ïï ò g (x ) f (x )dx si X es a .c. (con densidad f )
ïï ¡
î

suponiendo que existen esas expresiones:

å g (x ) p k k
< ¥ y ò g (x ) f (x )dx < ¥ .
k ¡

Llamaremos momentos de orden k respecto del origen y respecto de la media de X ,


respectivamente, a las siguientes expresiones

a k = E X k = ò x k F (dx ) (a 1 = m)
( ) ¡
æ kö k
b k = E çç(X - m) ÷
÷ = ò (x - m) F (dx ) (b = s2 )
è ø ¡ 2

Definición. Llamaremos función generatriz de momentos respecto del origen de la


variable aleatoria X con función de distribución F a
ìï
ïï å e k pk si å e k pk < ¥ ( )
tx tx
caso discreto
( )= ò
M (t ) = E e tX
¡
e F (dx ) = í
tx
k
ïï e tx f x dx si
k

ïïî ò¡ () ò¡ e f (x )dx < ¥ caso a.c. ( )


tx

Notemos que si X ³ 0 y t £ 0 , entonces M (t ) existe siempre pues e tx £ 1 (transformada


de Laplace, caso a.c.).
3

No se puede asegurar, sin embargo, su existencia en un entorno del origen.

2.1 La función generatriz y los momentos respecto del origen y de la media

Si desarrollamos en serie e tx y esta serie fuera uniformemente convergente, pudiendo


además integrarse término a término, tendríamos
æ 2 ö
ç1 + t x + t x 2 + ...÷
÷
M (t ) =ò¡ ò¡ ççè 1! 2 !
e tx F (dx ) = ç
÷ ( )
÷
ø
F dx =

t t2
= ò F (dx ) + ò xF (dx ) + ò x 2F (dx ) + ... =
¡ 1! ¡ 2! ¡
t t2 tk
= 1 + a1 + a + ... + a + ...
1! 2! 2 k! k
tk
siendo el momento de orden k respecto al origen el coeficiente de .
k!
Así pues, si para una variable aleatoria es posible calcular la función generatriz de
momentos y es posible el desarrollo anterior, los momentos de dicha variable se
podrán calcular como sigue
dM (t )
dt
= ò ¡
xe tx F (dx )
y si hacemos t = 0,
dM (t )
= a1
dt t = 0
Análogamente, si existe la derivada k-ésima,

(k )
d M (t )
= ak.
dt k
t= 0
Notemos también que si en la expresión anterior
t t2 tk
M (t ) = 1 + a + a + ... + a + ...
1! 1 2 ! 2 k! k
derivamos, obtenemos el mismo resultado.

Como generalización de la función generatriz de momentos respecto del origen,


tenemos

Definición. Llamaremos función generatriz de momentos respecto de la media de la


variable aleatoria X con función de distribución F a

M X - m(t ) = E e ( ( )) = ò e (
t X- m

¡
t x - m)
F (dx ).
t (x - m)
Como antes, si desarrollamos en serie e , en los mismos supuestos, tendríamos
ahora (sin más que reemplazar X por X - m )
4

(k )
d M X - m(t )
= bk .
dt k
t= 0

3. Función característica de una variable aleatoria X

Si X es una variable aleatoria unidimensional, eitX = cos tX + isentX es una variable


aleatoria con valores complejos y de módulo 1, para cada t Î ¡ , por lo que tiene
sentido hablar de su esperanza matemática.

Definición. Llamaremos función característica de una variable aleatoria X con función


de distribución F , a la función
( ) òe
j (t ) = E e itX =
¡
itx
F (dx ) = ò ¡
cos txF (dx ) + i ò sentxF (dx ).
¡

En el caso discreto,

å
itx k
j (t ) = e pk .
k

Si X es absolutamente continua,

j (t ) = òe (transformada de Fourier ).
itx
f (x )dx
¡

Notemos que la función característica de cualquier variable aleatoria existe siempre.


En efecto,

" t Î ¡ , e itx = cos tx + isentx = 1 Þ j (t ) = òe F (dx )


itx
¡

es absolutamente convergente, ya que

ò
¡
e itx F (dx ) = 1 < ¥ Þ j (t ) existe " t Î ¡ .

3.1 Propiedades de la función característica de una variable aleatoria

Notemos que la función característica tiene una parte real y otra imaginaria.

1) j (0) = 1, ya que j (0) = ò F (dx ) = 1.


¡

2) j (t ) £ 1, ya que j (t ) = ò e F (dx ) £ ò
¡
itx
¡
e itx F (dx ) = 1.

3) Si Y = a + bX , y denotamos por j Y , j X
a las funciones características de Y , X ,
respectivamente, entonces

( )
j Y (t ) = E e itY = E e ( it (a + bX )
) = e E (e ) = eita itbX ita
j X (bt ).
5

En particular, si hacemos a=0 y b=-1, entonces


j - X (t ) = j X (- t ) = j X (t ) = cos tX - isentX .

3.2 La función característica y los momentos respecto del origen y de la media

Supuesto que los momentos de la variable aleatoria X existen, éstos se pueden hallar
mediante sucesivas derivadas de la función característica como antes, es decir,

(k )
1 d j X (t )
ak = k .
i dt k
t= 0

Ejemplo 1.

La distribución Binomial B (n , p ) asigna a los enteros k = 0,1, 2,..., n , probabilidades


n
pk    p k q n  p  q  1  p .
k
Función característica:
n n
n n
  t   E  eitX    eitk   p k q nk      peit  q nk   peit  q  .
k n

k k 0 k   k 0  
Momentos:
1 d  1   t  1
  n  peit  q  ipeit 
n 1
E X    np.
i dt y 0
i t 0

1 d  2   t  1
E X2   n  n  1   peit  q  ipeit ipeit  i 2 peit n  peit  q  
n2 n 1
 2 

i2 dt y 0
i t 0

 n  n  1  p 2  pn  n 2 p 2  np 2  pn 
Var  X   E  X 2    E  X    n 2 p 2  np 2  pn  n 2 p 2  np  np 2  npq.
2

Ejemplo 2.

La distribución Gamma G(a, p ) tiene como función de densidad

f  x 
a p  ax p 1
 p 
e x x0   p    

0 
a p e  ax x p 1 .

Función característica:
 a p  ax p 1 a p   a it  x p 1 ap  p 
  t   E  eitX    eitx e x dx   e x dx  
0  p   p  0   p   a  it  p
p p
a  it 
    1   .
it
 a   a
6

Momentos:
1 d  1   t 
 p 1
1   i 
   p  1  
it p
E X    a   .
i dt y 0
i  a    t 0 a

1 d  2   t  p  p  1
 p 2
1  it  i  i 
E X   2  2  p   p  1  1     
a  a   t 0
2
i dt y 0
i   a a2
p  p  1  p2 p
Var  X   E  X 2    E  X     2  2.
2
2
a a a

Proposición 1. Si X 1, X 2 son variables aleatorias independientes con funciones


características j 1 (t ), j 2 (t ), respectivamente, entonces la función característica de la
suma de dichas variables es el producto de sus funciones características.
Para demostrarlo, basta para ello observar que

 X1  X 2  t   E  eit  X1  X 2    E  eitX1 eitX2   E  eitX1  E  eitX2   1  t 2  t  ,


puesto que eitX1 , eitX 2 son variables aleatorias independientes al serlo X1 y X 2 .

Ejemplo 3.

La distribución Binomial B(n,p), definida como el número de éxitos en n pruebas


independientes (p=P(éxito)), es la suma de n variables aleatorias independientes de
Bernouilli de parámetro p. Como la función de probabilidad de cada sumando X j es
p x q1 x , x  0,1, q  1  p, cuya función característica es

 X j  t   E  eitX j   peit1  qeit 0  peit  q, j  1, 2,..., n,

la función característica de la distribución Binomial será


n
 t    X j  t     X j  t     peit  q  .
n

n


n
Xj
j 1 j 1

3.3 La función característica caracteriza la distribución

Dada una función de distribución F , la correspondiente función característica queda,


como hemos visto, unívocamente determinada por la expresión

j (t ) = ò ¡
e itx F (dx ).

Se plantea el problema de si dadas dos funciones de distribución F1 y F2 distintas


pueden tener ambas la misma función característica. Es decir, si

òe F1 (dx ) = òe F2 (dx ), " t Î ¡ .


itx itx
¡ ¡
7

La respuesta es negativa y la proporciona el teorema de inversión (que no


demostraremos, [2], pag. 257), al afirmar que si x1 y x2 son puntos de continuidad de
F , entonces
1 c eitx1  eitx2
F  x2   F  x1   lim
c  2 c it   t  dt.
La fórmula de inversión indica que los incrementos de una función de distribución F
entre dos puntos de continuidad x1  x2 están determinados por la función
característica. Pues bien, a partir de ello se deduce fácilmente que dos funciones de
distribución F1 y F2 con la misma función característica coinciden. En efecto, como las
funciones de distribución tienen a lo sumo una cantidad numerable de
discontinuidades, cualquier par de valores x  y  pueden aproximarse por
sucesiones decrecientes a j , b j de puntos de continuidad. Entonces, aplicando la
aproximación anterior,
F1  y   F1  x   lim  F1  a j   F1  b j    lim  F2  a j   F2  b j    F2  y   F2  x  .
j  j 

La diferencia F1  F2 es pues una función constante y más exactamente F1  F2


puesto que F1     F2     0.

La aplicación más usual de este último resultado consiste en reconocer la función


característica de una distribución conocida.

Ejemplo 4.

 peit  1  p 
n
La función característica corresponde a la distribución Binomial
B  n, p  y sólo a ella. Por la proposición 1 sabemos que la función característica de la
suma de dos variables aleatorias independientes, B  n, p  y B  m, p  , tiene función
característica

 peit 1 p  peit  1  p    peit  1  p 


n m n m
,

Lo que establece que su distribución es B  n  m, p  . Diremos por ello que la


distribución Binomial es reproductiva respecto de su primer parámetro.

Ejemplo 5.
p
La función característica  1   corresponde a la distribución Gamma   a, p  y
it
 a
sólo a ella. Por la proposición 1 sabemos que la función característica de la suma de
dos variables aleatorias independientes,   a, p  y   a, q  , tiene función
característica
p q  p  q 
 1  it   1  it    1  
it
 a   a 
,
  a
8

Lo que establece que su distribución es   a, p  q  . Diremos por ello que la


distribución Gamma es reproductiva respecto de su segundo parámetro.

4. Funciones generatriz y característica de un vector aleatorio X

Para un vector aleatorio X   X1 , X 2 ,..., X n t se pueden definir análogamente las


funciones generatriz y característica utilizando el producto escalar de dos vectores,

  n 
M (t )  E e  tt X
  E  exp   t j X j   .
  j 1 
  
 
n
 (t )  E eit X  E  exp  i  t j X j   .
t

  j 1 
En general son también válidas todas las consideraciones hechas en el caso unidimen-
t
sional. La función característica de X existe siempre, eit x = cos t t x + isent t x tiene
módulo unidad, y también caracteriza a la distribución de X .
z z2 z3 z
Como antes, utilizando el desarrollo e = 1 + + + + ... , tenemos que
1! 2! 3!
  n
  i n i2  n 2 2  
 (t )  E  exp  i  t j X j    E  1 
1!  2!  i
t j X j  t j X j   ti t j X i X j   ...  .
  j 1   j 1  j 1 i j  


 (t )  0   iE  X k    2tk E  X k2   2 ti E  X i X k    ...
i2
0  iE  X k  .
tk t  ...  2!  ik  t  ... 
 
0 0
   

2
 (t )  0   i 2 E  X j X k   ...  g  t  t  ...0   i 2 E  X j X k  .
t j tk t  ... 
 
 
  0
0
 

En general se tiene que


1   l1 ...ln 
E X  X
l1 ln
  il ...l t  0.
t1l1 ...tnln
1 n 1 n
t  ... 
 
0
 

Análogamente
1   l1 ...ln 
E  ( X 1  1 )l1 ...( X n  n )l n    X   t   0  .
i l1 ...ln t1l1 ...tnln t  ... 
 
0
 

Observación.
Notemos que si Y = a t X (a Î ¡ n
), entonces
9

æ æ n öö
÷÷
j Y (t ) = E e itY = E çççexp çççi å a j tX j ÷÷
t
( ) çè çè j = 1 ÷
÷÷= j
ø÷
÷ X (a1t ,..., ant ) .
ø

Por lo tanto, si ak = 1, a j = 0 (j ¹ k ), tenemos el concepto de función característica


marginal de X k
t
j Xk
(t k ) = j X (0,..., tk ,...0) .
Análogas expresiones se tendrán para la función generatriz (omitiendo la unidad
imaginaria i ).

Ejemplo 6.

Vamos a calcular la función generatriz de un vector aleatorio normal multidimensional


X   X1 , X 2 ,..., X n  con vector de medias m y matriz de covarianzas S . Recorde-
t

mos que su función de densidad conjunta en cualquier punto x Î ¡ n , viene dada por
æ 1 ö æ 1 ö
exp ççç- (x - m) S - 1 (x - m)÷ = k exp ççç- (x - m) S - 1 (x - m)÷
-n 2 -12 t t
f (x ) = (2p ) S ÷
÷ ÷
÷.
è 2 ÷
ø è 2 ÷
ø

Función generatriz:

( { }) = ò
M X (t ) = E exp t t X
¡n
{ }
exp t t x f (x )dx =
( )ò
a ¡n
{ }
exp t t (y + m) f (y + m)dy =
ìïï t 1 t -1 ü ïï
= ò¡ n k exp í
ïïî
t (y + m) -
2
y S y ýdy =
ïïþ (b)
æ ìï 1 ï ö
ü ìï ü
ï ìï ü
ï
= çççò n k exp ïí - (y - S t ) S - 1 (y - S t )ïýdy ÷
1 1
exp ïí t t m + t t S t ïý = exp ïí t t m + t t S t ïý .
t
÷
÷
çè ¡ ïïî 2 ïïþ ÷
ø ïïî 2 ïïþ (c ) ïïî 2 ïïþ

= se deduce haciendo el cambio de variable éêy = x - m Þ x = y + m (J = I n )ù


ú.
(a ) ë û

= se obtiene al comprobar que


(b)

1 t -1 1 t 1
t t (y + m) - y S y = - (y - S t ) S - 1 (y - S t ) + t t m + t t S t .
2 2 2
= es consecuencia de que el integrando considerado es la función de densidad de una
(c )
N n (S t , S ).

Vector de medias (a partir de las consideraciones metodológicas anteriores):


t
Por la observación anterior sabemos que M X (t k ) = M X (0,..., t k ,...0) . Por lo tanto, si
k
t
ahora consideramos t = (0,..., t k ,...0) se tiene que
10

ìï 1 ü
ï ìï 1 ü
ï
M X (t k ) = M X (t ) = exp ïí t t m + t t S t ïý = exp ïí t k mk + t k2s k2 ïý.
k ïïî 2 ïïþ ïïî 2 ïïþ

dM (t k ) ìï 1 ü
ï
E (X k ) = = mk + t k s k2 exp ïí t k mk + t 2s k2 ïý
( ) = mk , k = 1,..., n .
dt k ïïî 2 k ïïþ t = 0
tk = 0 k

Matriz de covarianzas (a partir de las consideraciones metodológicas anteriores):


Como la matriz de covarianzas es invariante ante traslaciones, calcularemos dicha
matriz para X - m. En primer lugar calcularemos la función generatriz de dicha
variable
ìï 1 ü
ï
M X - m (t ) = E exp t t (X - m = exp - t t m M X (t ) = exp - t t m exp ïí t t m + t t S t ïý
( { }) { } { }
ïïî 2 ïïþ
ìï 1 ü
ï ìï 1 n ü
ï ìï 1 n ü
ï
= exp ïí t t S t ïý = exp ïí å t it j cov (X i , X j )ïý = exp ïí å t it j s ij ïý,
ïïî 2 ïïþ ïï 2 i , j = 1 ïï ïï 2 i , j = 1 ïï
î þ î þ
con lo que
 2 
E   X i  i   X j   j    M  t   0  d   ij , i, j  1,..., n.
ti t j X   t  ... 
 
0
 

= se sigue de considerar que


(d )
1æ n
çç t t s ÷
ö 1æn 2 2
çç t s + 2 t t s ÷
ö
å ÷
÷
2 ççèi , j = 1 i j ij ø
= å
÷ 2 èçç i = 1 i i å ÷,
i j ij ÷
÷
ø
i< j

derivar la correspondiente función exponencial y valorarla en t = 0 , distinguiendo los


casos i = j e i ¹ j (cuentas sencillas que se dejan como ejercicio).

Observación
La función característica de una distribución N n (m, S )es (ver [1 ] pag. 335)

ìï 1 ü
ï
j X ( )
exp ïí it t m - t t S t ïý,
t = E (exp {it t X }) =
ïïî 2 ïïþ
y por lo tanto sus características marginales serán
ìï 1 ü
ï
j (tk ) = j X (0,..., tk ,...0) = exp ïí it k mk - t k2s k2 ïý.
Xk
ïïî 2 ïïþ

Referencias
[1] Quesada Paloma, V. y García Pérez, A. (1988). Lecciones de Cálculo de
Probabilidades. Ediciones Díaz de Santos, S.A.
[2] Vélez Ibarrola, R. (2004). Cálculo de probabilidades 2. Ediciones Académicas, S.A.

También podría gustarte