Está en la página 1de 45

Un procedimiento prctico para estimar el parmetro de forma de

la distribucin Gaussiana Generalizada


J. Armando Domnguez-Molina
Universidad de Guanajuato
jadguez@cimat.mx
Graciela Gonzlez-Faras
Centro de Investigacin en Matemticas, Mxico
farias@cimat.mx
Ramn M. Rodrguez-Dagnino
ITESM Campus Monterrey

Resumen.

Se propone un mtodo de aproximacin para obtener un estimador del

parmetro de forma p, en la distribucin Gaussiana generalizada, a travs del mtodo de


momentos. El estimador por el mtodo de momentos para p no siempre existe. Sin embargo,
en la mayora de las situaciones prcticas que nos son de inters, se puede mostrar que
la solucin existe con una probabilidad muy alta. Tambin se presenta un procedimiento
numrico-analtico para obtener intervalos de confianza exactos para p. Finalmente se ilustran
los procedimientos con datos obtenidos en una aplicacin del codificador de Audio MP3.
Palabras claves:Distribucin Gaussiana generalizada, mtodo de momentos,
funcin de razn Gaussiana generalizada (frgg), funcin de razn Gaussiana generalizada muestral (frggm), desigualdad de Gurland, aproximacin de Stirling,
intervalos de confianza.

Introduccin

La literatura de procesamiento de seales ha hecho un uso extensivo del supuesto de ruido


Gaussiano. Sin embargo, se pueden encontrar numerosos ejemplos, como ruido atmosfrico,
seales con codificacin en subbandas, etc. donde dicho supuesto no es vlido, por lo que
se han buscado alternativas para modelar ruidos no Gaussianos. Entre estas se pueden
mencionar distribuciones K, distribuciones estables alpha, mezclas de Gaussianas, y Gaussiana generalizada. Como hacen notar K. Sharifi y A. Leon-Garca (1995), muchas seales,
incluyendo audio/speech, resultan mejor modeladas por una distribucin Gaussiana generalizada y muchos de los trabajos en el rea de DOA (Direction Of Arrival), ICA (Independen
Component Analysis, Choi et al, 2000), BSS (Blind Signal Separation, Wu & Principe, 1998),
GARCH, (MathSoft, 1996), etc. hacen uso de esta distribucin, por mencionar slo algunas
reas de investigacin actual.
La Gaussiana generalizada (GG) se puede reparametrizar de forma tal que su media
y varianza1 coincidan con la Gaussiana, esto es, y 2 . Se tiene adems el parmetro de
forma p, el cual mide el peakednes de la distribucin y para el cual no se tiene un estimador
con forma cerrada. El parmetro p determina la forma de la distribucin, por ejemplo, la
distribucin normal (p = 2), la distribucin de Laplace (p = 1), cuando p 0 se obtiene una
distribucin cercana a la uniforme. Debido a que en las aplicaciones de mayor inters, la
media es tpicamente 0, consideraremos slo el caso de la estimacin del parmetro de forma
de una distribucin GG con dos parametros, esto es, bajo = 0.
Varanasi y Aazhang (1989), discuten la estimacin de los parmetros de la distribucin
GG, usando mtodos de momentos (directamente sobre los parmetros) y mxima verosimil1

Ver Apndice A

itud. Rodrguez-Dagnino y Len-Garca (1998), presentan un estimador de forma cerrada,


basado en la desigualdad de Gurland. En el primer caso, se advierten las dificultades computacionales para hacer estos clculos debidos fundamentalmente al manejo de las funciones
relacionadas con la funcin gama. En el segundo, la aproximacin funciona slo para un
rango de valores de p de .3 a 3, el cual es importante para subbandas compresoras de seales
de video (subband encoding of video signals) y otras aplicaciones relacionadas. Sin embargo
no es un intervalo suficientemente ancho para cubrir satisfactoriamente a todos los casos.
En particular, en el ejemplo de este trabajo obtuvimos valores de p entre 0.18 y 1.32 ( ver
Seccin 5).
Proponemos en este trabajo, un mtodo de estimacin muy sencillo que prescinde de
las ecuaciones trascendentales en la estimacin del parmetro de forma. Este mtodo, que
funciona para todo valor de p, se basa en estimadores de momentos, siguiendo en principio,
las ideas de J. Lpez (2000). Sin embargo, a diferencia de ste ltimo, quin presenta aproximaciones aceptable slo para valores de p en (.3, 3) , se construyen intervalos de confianza2
para p, con probabilidad de cobertura prefijada.

Distribucin Gaussiana generalizada

Una variable aleatoria X tiene distribucin Gaussiana generalizada si la funcin de densidad


la distribucin de X est dada por
gg (x; , , p) =
2

x p
1
e| A(p,) | ,
2 (1 + 1/p) A (p, )

xR

El programa en Splus esta disponible previa requisicin a jadguez@cimat.mx

(1)

donde R, p, > 0 y A (p, ) =

2 (1/p)
(3/p)

i1/2

. El parmetro es la media de la distribu-

cin, la funcin A (p, ) es un factor de escala que permite que Var (X) = 2 . El parmetro
p es el parmetro de forma, llamado as, dado que indica la forma de la distribucin. Por
ejemplo, p = 1 corresponde a la distribucin de Laplace o doble exponencial, p = 2 a la
distribucin normal. En los casos lmites se cumple que si p + la distribucin con den

sidad (1) converge a una distribucin uniforme en 3, + 3 y cuando p 0+ la


distribucin es degenerada en x = (ver apndice A).

Utilizaremos la notacin X GG (, , p) para indicar que X es una variable aleatoria


con funcin de densidad (1). Por convencin GG (, p) = GG (0, , p)
1.3
1.2
1.1
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
-2.0

-1.5

-1.0

-0.5

0.0

0.5

1.0

1.5

2.0

p = .7
p=1
p = 1.5
p=4
p = oo

Figura 1: Grficas de la funcin de densidad Gaussiana generalizada, para distintos valores


de p. De arriba hacia abajo: p = .7, 1, 1.5, 2, 4.

Momentos de la distribucin GG
Dada la simetra con respecto a de la distribucin GG, los momentos centrales impares
son cero, i.e.,
E (X )r = 0,

r = 1, 3, 5, ....

Las expresiones de los momentos pares centrados, se obtienen de los momentos absolutos
centrados, los cuales son
E |X |r =

r/2
2 (1/p)
(3/p)

r+1
p

(1/p)

(2)

En particular, la varianza de X es
Var (X) = E (X EX)2 = E (X )2 = EY 2 = 2 .
Las justificaciones a estos resultados se encuentran en el Apndice A.

Existencia del estimador de momentos

3.1

Procedimiento estndar

Varanasi & Aazhang (1989) estudian el problema de estimar los parmetros de la distribucin
GG(, , p) . En su trabajo, presentan tres procedimientos: el mtodo de mxima verosimilitud, el mtodo de momentos y un procedimiento que se basa en los dos anteriores.
En este trabajo nos concentramos en el problema de estimacin del parmetro de forma
de la distribucin GG, por el mtodo de momentos.

En general el mtodo de momentos se puede describir como sigue: Se forma el sistema


de ecuaciones EX k = Mk , iniciando con k = 1 y continuando hasta tener suficientes ecuaciones que provean una solucin nica. En forma equivalente, se puede formar el sistema de
ecuaciones
y E (X EX)k =
E(X) = X

1
n

Pn
k , k 2.
X

X
i
i=1

Entonces los estimadores por el mtodo de momentos (EMM) para el parmetro de


localizacin , y para la varianza 2 , estn dados por
1X
xi ,
n i=1
n

n =

1X
(xi x)2 .
n i=1
n

2n =

(3)

Para estimar el parmetro de forma Varanasi & Aazhang (1989) sugieren utilizar cualquier
momento par mayor o igual que 4 y resolver la siguiente ecuacin

r
r+1
n
)]

[A
(
p
n
pn
1X
r

(xi x) =
, pn > 0, r 4, r = 2m, m N, m 2.
1
n i=1
pn

Siguiendo el procedimiento del mtodo de momentos, el estimador, pn , de p estar dado por

aquel valor que satisfaga la siguiente igualdad:


n
h ir/21
P
1
1
r+1
(xi x)r
pn
pn
n

= i=1
r/2
n
1
P
pn
2
1
(xi x)
n

(4)

i=1

Sin embargo, Varanasi & Aazhang (1989) no mencionan que la ecuacin (4), no siempre tiene
solucin, debido a que, para cada r 1, la funcin de la izquierda es una funcin decreciente
en (0, ) y satisface los siguientes lmites:
h ir/21
1p
r+1
p
= ,
lim
h ir/2
p0+
p3

h ir/21
r
p1
r+1
p
32
.
lim
=
h ir/2
p
1+r
3p

(5)

El lmite de la derecha de (5) se obtiene aplicando (E.3). Mientras que la funcin de la


derecha satisface la siguiente desigualdad (ver Apndice C),
n
P

(xi x)r
r
1 i=1
n 2 1

r/2
n
P
1
(xi x)2
n
1
n

i=1

La desigualdad es vlida slo para r 2 y r = 2m, m 1.


Entonces cuando
1
n

1
la ecuacin (4) no tiene solucin.

1
n

n
P

i=1

n
P

i=1

(xi x)r
2

(xi x)

r/2

32
,

1+r

(6)

Consideremos, por ejemplo, r = 4, el EMM, pn , para p estar dado por la solucin a:


n

P
1
1
5
(xi x)4
pn pn
n

= i=1
2 .
n
3
2
P
2
pn
1
(xi x)
n
i=1

Para los datos de la Tabla F.3 tenemos que

x =

1
25

25
X

1
25

xi = 0.27353,

i=1

1
25

Para los datos de la Tabla F.4 se obtiene:

z =

1
25

25
X
i=1

1
25

zi = 0.032141,

1
25

25
P

(xi 0.27353)4
i=1
2 = 1.63664,
25
P
2
(xi 0.27353)

i=1

25
P

(zi 0.03214 1)4


i=1
2 = 1.5207
25
P
2
(zi 0.03214 1)

i=1

(7)

En vista de que
4
2

3
9
= = 1.8 <
1+4
5


1
p5n
pn
,
2 p3n

concluimos que (7) no tiene solucin. Es decir, para los datos de las Tabla F.3 y F.4, no
existe r, tal que se pueda resolver (4), por lo tanto el estimador de momentos para p no
existe.
La probabilidad de existencia del EMM de p est determinada por la probabilidad del
evento (6). Ahora esta probabilidad es positiva y depende slo de n y p. Notemos que no
depende ni de ni de . Debido a la consistencia de los EMM tenemos que si r es fijo y
tomamos n grande, la probabilidad de existencia del EMM aumenta. Tambin, como se
ilustra en la siguiente seccin, la probabilidad de existencia depende fuertemente de p. Se
observa que para p grande se deben aumentar el tamao de muestra para garantizar, con
una alta probabilidad, la de existencia del EMM.

3.2

Funcin razn Gaussiana generalizada

Para la estimacin de p, supondremos conocida y desconocida. Consideremos los primeros


dos momentos absolutos como se defini en (2), para obtener los EMM de y p, esto es,
1X
|Xi |k = E |X |k
n i=1
n

De la ecuacin (A.17) se tiene que,


E |X| =

p
M (p),

y EX 2 = 2 ,

(8)

donde


2 2

p
(E |X|)

=
M (p) =
1
EX 2
p 3p
2

(9)

el recproco de la funcin M (p) se conoce como funcin razn Gaussiana generalizada (frgg).
De las relaciones en (8) obtenemos que los estimadores de y p por el mtodo de momentos se encuentran al resolver las ecuaciones:
p
1X
|Xi | = M (p) y
n i=1
n

1X
|Xi |2 = 2 .
n i=1
n

Despejando y M (p) de las ecuaciones en (10) obtenemos que


2
n
P
1
|Xi |
n
n
1X
2
i=1
2

=
p) = M (X) =
|Xi |
y M (
n
P
n i=1
2
1
|X

|
i
n

(10)

(11)

i=1

(X) se le denomina, la estadstica funcin razn Gaussiana generalizada


Al recproco de M

muestral (frggm).
El problema para resolver (10) estriba en la ecuacin
(X) ,
M (
p) = M

la cual no siempre tiene solucin debido a que el rango de la funcin3 M (p) es 0, 34 , y la
frggm cumple4 con

1
n

(X) 1, lo que indica que, cuando


M

3
4

(X) 1, no se pueden
<M

resolver las ecuaciones en (10).


Si

1
n

(X) < 3 , la solucin de las ecuaciones (10) est dada por


<M
4
1X

=
|Xi |2
n i=1
n

3
4

Ver Apndice E
Ver Apndice C

(X) ,
p) = M
y M (

(12)

10

El EMM para p es

(X) ,
p = M 1 M

(13)

donde M 1 () representa la funcin inversa de M.

En la mayora de las situaciones prcticas el mtodo de momentos genera estimadores


consistentes. En ese caso debido a que la distribucin GG tiene todos los momentos positivos,
p
P
P
tenemos que n1 ni=1 |Xi |2 y n1 ni=1 |Xi | convergen en probabilidad a 2 y M (p)
respectivamente. Por lo tanto la frggm es un estimador consistente de M (p) .
Es conveniente hacer las siguientes observaciones:
1.

La distribucin del estimador de momentos para p no depende de .

(x) 1 , impide que p tome valores dentro de M1


El hecho de que M
n

1 1
.
0, M
n
2.

3.

1
0, n =

Cuando la muestra es grande y p es pequeo (p < 5), lo cual es comn en la

prctica, el evento

3
4

(x) 1 ocurre con probabilidad


M

muy pequea (ver Figura

2). Esta probabilidad se puede interpretar como la probabilidad de existencia el estimador


de momentos de p. Entonces si observamos un evento x tal que

3
4

(x) 1 y n es grande,
M

tendremos una indicacin de que p es muy grande o de que la distribucin de los datos no
es Gaussiana generalizada5 .
5

En el Apendice E se mencionan algunas distribuciones alternativas utiles en las aplicaciones como son la

lognormal y la gama generalizada. Cuando buscamos familias de distribucin que satisfagan que para una
muestra de tamao n la frggm es 34 , no estamos sugiriendo estimar p (o el prametro correspondiente en


la nueva familia) con la frggm. Ya encontrada la familia que satisfaga M
estimar el prametro de inters.

3
4

se procede a estudiar como

11

4.

La Figura 2 muestra el mnimo tamao de muestra para el cual, la probabilidad

(x)
del evento M

3
4

es menor o igual que 0.05. Es decir, el mnimos tamao de muestra

para que la probabilidad de que exista el estimador por el mtodo de momentos de p sea
0.95. Observe que el mnimo n es una funcin creciente de p. Por ejemplo, el mnimo

(x) 3 este cercana a cero, cuando p toma valores en el


tamao de muestra tal que Pr M
4

intervalo [0.3, 3], (los cuales son tpicos en las aplicaciones mencionadas en la introduccin),

es n = 61, y cuando p 5 el mnimo tamao de muestra es 216. Cualquiera de los valores


de n anteriores es comnmente rebasado en la prctica.
5.

Cuando la muestra es grande, tenemos que

1
n

es pequeo lo que permite valores

estimados para p cercanos a cero.


2100
1950
1800
1650
1500
1350

n*

1200
1050
900
750
600
n* = 216

450
300

n* = 61

150
0
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5 10.0

(X) 3 ; p > 0.05 , p (0, 10) .


Figura 2.. Grfica de p contra n = min n : Pr M
4

12

6.

Entonces el EMM de
, de , es
= X.
Si se considera desconocida, el EMM

y p es el mismo que (12) y (13) con reemplazada por X.


7.

Cabe sealar que los problemas de existencia del EMM para p son los mismos si

se considera desconocido o no. En la aplicacin que consideramos en este trabajo, se


supone conocido e igual a cero.
8.

Para los datos de las Tablas F.3 y F.4 se cumple que x = 0.27353 y z = 0.032141

1
25

25
P

i=1
25
P

1
25

1
25

i=1

25
P

i=1

= 0.7786,

1
25

1
25

x2i

2
|zi |

i=1
25
P

1
25

2
|xi |

= 0.8402,

zi2

1
25

1
25

25
P

i=1
25
P

i=1

25
P

i=1
25
P

i=1

2
|xi 0.27353|

= 0.8151

(xi 0.27353)

|zi 0.03214 1|

= 0.8517,

(zi 0.03214 1)

por lo que la solucin no existe independientemente de si es conocida o no.

3.3

Aproximacin de M (p)

Es claro que la funcin M (p) no es invertible de manera explcita. Por ello, se propone una
aproximacin que tenga como primera caracterstica, ser invertible y segunda, que el nivel
de aproximacin, al menos para el rango de valores de p de nuestro inters, sea aceptable.
De la Figura 3 observamos que la funcin M (p) se comporta diferente en cuatro regiones
ajenas del conjunto de los reales positivos.

13

0.80
0.75
0.70
0.65
0.60
0.55
0.50
M(p)

0.45
0.40
0.35
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0.0

0.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

4.5

5.0

5.5

6.0

6.5

7.0

Figura 3. Grfica de la funcin M (p)


Notemos que M (p) es una funcin de productos de funciones gama con argumentos
proporcionales a

1
.
p

De aqu que la aproximacin de Stirling resulte adecuada cerca del

origen. La aproximacin de Stirling para la funcin gama es


1
(x) = 2xx 2 ex 1 + O x1 , x > 0,

(14)

ver Gradshteyn & Ryzhik (1994) ec. 8.327. La aproximacin de Stirling es muy precisa

para x grande, como lo muestra (14).


Gurland (1956) demostr que la funcin gama satisface la siguiente desigualdad
2 ( + )

()( + 2)
+ 2

+ > 0,

> 0.

(15)

Cuando = 1/p y = 1/p en (15) obtenemos la siguiente desigualdad para M (p)


p
2 (2/p)
M (p) =

,
(1/p)(3/p)
1+p

(16)

14

la igualdad se satisface en p = 1. Esto sugiere que, en una regin alrededor de p = 1 se


b1 p
.
aproxime a M (p) mediante la funcin
1 + b2 p + b3 p2
Se tiene as, una aproximacin adecuada cerca de p = 0+ y a travs de la desigualdad de
Gurland otra buena aproximacin cerca de p = 1. Sin embargo, existe una regin contenida
en (0, 1) en la que ninguna de stas aproximacin es satisfactoria para M (p) . De la Figura
3 observamos que una aproximacin polinmica de la forma a1 p2 + a2 p + a3 pudiese ser un
buen candidato.
Para valores de p mayores a 1, y debido a que M (p) tiene como asntota a la lnea
horizontal

3
4

se propone aproximar M (p) mediante la funcin

3
4

c1 ec2 p+c3 p .

Obsrvese que las cuatro funciones propuestas son fciles de invertir. Los valores a1 , a2 , a3 ,
b1 , b2 , b3 , c1 , c2 , c3 dependen de las regiones en las que aproximemos cada una de ellas. Para
el caso de la aproximacin de Stirling, consideraremos que la aproximacin es adecuada si el
error es menor a 0.001.

1
Entonces, de (14) si tomamos (x)
= (x) = 2xx 2 ex , se tiene que


2 2p
2 2p
1 p6 4+p
= 14 3 2 p 2 p ,
M (p) =
=
1p 3p
1p p3

si adems, se pide que

1 p6 4+p

1 2 p p
2
M (p) .001,
43

debemos tener que 0 p < . 277198 1. La aproximacin es exacta en p = 0.


Encontramos tambin que la aproximacin sugerida por la desigualdad de Gurland es adecuada cuando .828012 p < 2. 631 718. Entonces utilizaremos la aproximacin polinmica
dentro de [0. 277198 1, 0.828012) y la aproximacin asinttica exponencial para p 2. 631 718.

15

Con excepcin de la aproximacin de Stirling, todas la aproximaciones se hicieron por


mnimos cuadrados. Se obtiene la siguiente expresin aproximada para M (p)
1 p6 4p

32 p 2 p
si p [0, . 277198 1)

a1 p2 + a2 p + a3 si p [0. 277198 1, .828012)

M (p) =
b1 p

si p [.828012, 2. 631 718)

1
+
b
2 p + b3 p

3 c ec2 p+c3 p2 si p [2. 631 718, ) ,


4

donde a1 = .535707356, a2 = 1.168939911, a3 = .1516189217, b1 = 0. 969 442 9,


b2 = 0. 872 753 4, b3 = 0.07350 824, c1 = 0. 365 515 7, c2 = 0. 672 353 2, c3 = 0.0 338 34.
La Figura 4 muestra una excelente precisin en la aproximacin M (p) de M (p).
0.80
0.75
0.70
0.65
0.60
0.55
0.50
0.45
0.40
0.35
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0.0

0.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

4.5

5.0

5.5

6.0

6.5

7.0

Figura 4: Lnea slida: M (p) , lnea punteada: M (p)

M(p)
M*(p)

16

La funcin inversa de M (p) esta dado por:

ln 27

2 ln 163

4k2

p
1

2a a2 + a2 4a1 a3 + 4a1 k
1

q
p (k) =
1
2

b1 b2 k (b1 b2 k) 4b3 k2

2b3 k

34k
2

c2 c2 + 4c3 ln 4c1
2c3

si k (0, .1312458974)
si k [.1312458974, .4489943143)
si k [.4489943143, 0. 671 256 4)

si k 0. 671 256 4, 34 ,

lo cual nos da un estimador aproximado, basado en el mtodo de momentos, para p.

Intervalos de confianza

La construccin de intervalos de confianza no es simple debido a que no tenemos una estadstica suficiente para p con la cual podamos construir un intervalo de confianza para
este parmetro. Si utilizamos intervalos de confianza aproximados basados en intervalos
de verosimilitud, o en la estadstica score de Rao, o en la estadstica de Wald, las cuales
son equivalentes con orden O(n1 ) tenemos que los intervalos de confianza, construidos con
estas cantidades, tienen un desempeo muy pobre. La probabilidad de cobertura de estos
intervalos dependen fuertemente del valor de p. Por lo tanto presentamos un procedimiento
numrico-analtico para la construccin de intervalos de confianza para p. ste se basa en
considerar la estadstica funcin razn Gaussiana generalizada muestral
n
2
P
1
|xi |
n
i=1

M (x) =
n
P
1
x2i
n
i=1

cuya distribucin no depende de .

17

(X) slo depende de p. Mediante el


Para un valor fijo de n la funcin de densidad de M
Teorema de la transformacin integral, (Kalbfleisch (1985) pg. 215, Mood, et al, pg. 387)
tenemos que si definimos la nueva variable aleatoria

p ,
T = FM
M;
dicha variable tiene distribucin uniforme en (0, 1) . Entonces para construir un intervalo de
confianza para p debemos encontrar los valores de p que satisfagan

p 2 = 1 ,
Pr 1 FM
M;
los valores ms comunes para 1 y 2 son 1 = 1 2 ,

1
2

< 2 < 1.

se vuelven muy complicados


Los clculos para obtener la funcin de distribucin de M,
incluso para n = 2 (ver ecuacin D.1). Por este motivo los intervalos de confianza para p,
se obtiene a travs de un Mtodo Monte Carlo, de acuerdo con el nivel de confianza y el
tamao de muestra especificado.
Se utiliza una simulacin para evaluar la funcin de distribucin

m; p .
FM
(m; p) = Pr M
Para resolver la ecuacin Pr (/2 FM (M; p) 1 /2) con respecto a p, para un valor

procedemos mediante el algoritmo siguiente:


observado de Mo de M

Supongamos que tenemos un valor observado, Mo , de M.

1. Fijar un valor inicial p = p0 .

18

2. Obtener m muestras de tamao n, (x1,1 , x1,2 , ..., x1,n ) , (x2,1 , x2,2 , ..., x2,n ) , ..., (xm,1 ,
xm,2 , ..., xm,n ), de valores absolutos de una distribucin Gaussiana generalizada con
= 0, p = p0 y = 1 ( = 1 es irrelevante, puesto que la distribucin de M no
depende de ). En el Apndice A se indica cmo simular GG (, , p) .

3. Evaluar M1 , M2 , ..., Mm , donde Mi =

1
n
1
n

n
P

xj,i

j=1
n

!2

x2j,i

j=1

4. Evaluar la funcin de distribucin emprica de M, en Mo , mediante


1
M
(#Mi Mo )
F
(Mo ) =
m
m
1 X
=
1(,Mo ] (Mi )
m i=1
M
5. Si F
(Mo ) /2, nos quedamos con p0 y terminamos la bsqueda, de lo contrario
regresamos al paso 1, con otro valor de p0 .
M
Para obtener el valor p1 tal que F
(Mo ) = 1 /2, repetimos el procedimiento anterior,

M
donde en 5, preguntamos si F
(Mo ) 1 /2.

Los valores p0 y p1 forman el intervalo de 100 (1 ) % de confianza para p.

Aplicacin al Codificador de Audio MP3

Existen una variedad de tcnicas para representar en forma digital la seal de audio. El
fin que se busca con ello es almacenarla y transmitirla en forma de bits de informacin. La
digitalizacin debe de cumplir el compromiso de minimizar el nmero de bits pero manteniendo al mismo tiempo un nivel de calidad adecuado. En diferentes aplicaciones se establece

19

este compromiso de acuerdo a lo que se juzgue ms conveniente, y debido a ello tenemos


diferentes esquemas de compresin de voz y audio adecuados, por ejemplo para voz en redes
telefnicas tradicionales, en redes celulares inalmbricas, en juguetes, etc.. Recientemente ha
surgido el esquema de compresin de audio MP3, el cual nace como parte complementaria
de los esquemas de codificacin de video MPEG (Motion Picture Expert Group) en 1992, y
hoy ha cobrado tal importancia que se ha establecido como una tcnica de compresin de
audio independiente y muy popular en computadoras personales y transferencia de archivos
musicales va Internet. En este esquema de compresin se busca una calidad equivalente al
audio digital que se tiene en discos compactos comerciales (CDs), pero logrando una mayor
compresin en los bits.
El estndar comprende tres capas (layers) las cuales estn diseadas con niveles de complejidad y tasas de compresin crecientes. Se utiliza la misma estructura bsica para cada
una de las tres capas, es decir, un banco de 32 filtros pasabanda polifsicos arreglados de
tal manera que se tenga una reconstruccin perfecta en el receptor con filtros ideales. La
frecuencia de muestreo de la seal de audio es de 44.1 KHz para mxima calidad, y se
puede procesar audio con un ancho de banda de 20 KHz. En la prctica se sufre de una
degradacin mnima debida a la imperfeccin de los filtros reales y al muestreo, sin embargo
la degradacin mayor ocurre debido a la etapa de cuantizacin de la amplitud de las muestras
que se obtienen a la salida de cada uno de los filtros. En este esquema de anlisis y reconstruccin, las muestras a la salida de los filtros polifsicos son submuestreadas o decimadas
por un factor de 32 y posteriormente pasan por un proceso de cuantizacin en el dominio de
la transformada discreta coseno modificada. Para el diseo ptimo de los cuantizadores es
necesario conocer la funcin de densidad de probabilidad de las fuentes de informacin, en
este caso la salida del banco de filtros, por lo que en este estudio nos enfocamos al anlisis de

20

dichos datos. Nuestra seal de estudio en este Reporte consta de 28,657 muestras por cada
uno de los 32 filtros. Esta informacin corresponde a 20.79 segundos de la pieza musical
Carmina Burana.

(x) representa los valores muestrales de la frggm para los datos de la pieza
Tabla 1. M
musical Carmina Burana. p es el estimador por el mtodo de momentos de p, obtenido en
base a (13). p0 y p1 son los extremos inferior y superior del intervalo de 95% de confianza
para p. Estos valores se obtuvieron en base al algoritmo de la seccin anterior con
n = 28657 y m = 500, = 1.

21

(x)
M

p0

p1

p1 p0

0.5614 1.3211

1.2754

1.3415

0.0661

0.5162 1.0798

1.0442

1.0966

0.0524

0.4992 1.0044

0.9722

1.0208

0.0486

0.5163 1.0806

1.0422

1.0927

0.0505

0.4990 1.0037

0.9722

1.0220

0.0498

0.4811 0.9311

0.9062

0.9509

0.0447

0.4087 0.7109

0.6963

0.7352

0.0389

0.3498 0.5867

0.5719

0.6069

0.0350

0.3717 0.6290 0.61467 0.6496

0.0349

0.3265 0.5452

0.5292

0.5622

0.0330

10 0.2905 0.4869

0.4689

0.5020

0.0331

11 0.2482 0.4248

0.4048

0.4437

0.0389

12 0.2300 0.3996

0.3815

0.4164

0.0349

13 0.2210 0.3876

0.3698

0.4048

0.0350

14 0.1690 0.3217

0.3037

0.3426

0.0389

15 0.1722 0.3256

0.3076

0.3465

0.0389

22

(x)
M

p0

p1

p1 p0

16 0.1196 0.2643 0.2454 0.2882

0.0428

17 0.0919 0.2333 0.2124 0.2571

0.0447

18 0.0750 0.2138 0.1949 0.2377

0.0428

19 0.0622 0.1987 0.1755 0.2299

0.0544

20 0.0581 0.1937 0.1716 0.2143

0.0427

21 0.0583 0.1940 0.1716 0.2221

0.0505

22 0.0650 0.2021 0.1794 0.2299

0.0505

23 0.0609 0.1971 0.1755 0.2221

0.0466

24 0.0667 0.2041 0.1813 0.2299

0.0486

25 0.0705 0.2086 0.1871 0.2338

0.0467

26 0.0716 0.2099 0.1871 0.2338

0.0467

27 0.0670 0.2045 0.1832 0.2377

0.0545

28 0.0529 0.1872 0.1638 0.2221

0.0583

29 0.0390 0.1688 0.1424 0.1910

0.0486

30 0.0490 0.1822 0.1599 0.2104

0.0505

31 0.0531 0.1874 0.1638 0.2143

0.0505

De la Figura 5, podemos verificar que el supuesto de media igual a cero esta bien fundamentado para esta clase de aplicaciones.

23

0.0004

0.0002

0.0000

-0.0002

-0.0004

-0.0006

-1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

Medias
Medianas

No. de variable

Figura 5. Grficas de medias y medianas de los datos correspondientes a las 32 bandas.


De las Tablas 1y 2 podemos notar que los valores de p estimados por el mtodo descrito
(13)., y las estimaciones de , los estimadores propuestos resultan muy precisos, lo cul se
constata a travs de los intervalos de confianza (ver Figura 6).
Tabla 2. Estimadores de la desviacin estndar, , para los datos de las 32 bandas.
denota al estimador de mxima verosimilitud de . obtenido de (B.2). Y el
El estimador
denota al estimador de momentos de , obtenido mediante (12).
estimador

24

Col

Col

0.1522 0.1522

0.0045 0.0045

0.1156 0.1157

0.0043 0.0042

0.0624 0.0626

10

0.0039 0.0037

0.0339 0.0340

11

0.0037 0.0034

0.0222 0.0222

12

0.0031 0.0028

0.0133 0.0134

13

0.0028 0.0025

0.0084 0.0083

14

0.0026 0.0022

0.0061 0.0060

15

0.0022 0.0018

Col

Col

16

0.0025 0.0018

24

0.0014 0.0007

17

0.0029 0.0019

25

0.0012 0.0006

18

0.0031 0.0018

26

0.0010 0.0005

19

0.0032 0.0017

27

0.0009 0.0004

20

0.0028 0.0014

28

0.0010 0.0004

21

0.0025 0.0013

29

0.0012 0.0004

22

0.0023 0.0010

30

0.0007 0.0003

23

0.0018 0.0008

31

0.0005 0.0002

25

31
30
29
28
27
26
25
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
-1
0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 1.00 1.05 1.10 1.15 1.20 1.25 1.30 1.35 1.40

Figura 6. Intervalos de 95 % confianza para p. Crculos negros: extremos del intervalo de


95% de confianza. Crculo blanco: estimador de momentos de p.

Conclusin

Es importante notar que la estimacin de por mxima verosimilitud depende del valor de
p. En el ejemplo observamos que el valor del estimador de momentos para disminuye a
medida que p lo hace, casi a la mitad de lo que se observa para el caso del estimador de
mxima verosimilitud.
La probabilidad de cobertura de los intervalos de confianza obtenidos de la funcin de
verosimilitud dependen de p, en este caso es recomendable calcular la probabilidad de cober-

26

tura mnima. Por otro lado, calcular probabilidades de cobertura mnima para el modelo
Gaussiana generalizada resulta computacionalmente muy costoso debido a las complicaciones
para calcular el estimador de mxima verosimilitud de p.
Recomendamos el uso de la ecuacin (13) y del algoritmo descrito en la seccin 4 para
obtener estimadores puntuales en forma simple e intervalos de confianza asociados.

34 , no se puede estimar p,esto puede ser indicador de


Como se mencion antes, si M(X)
dos posibles escenarios, ya sea que el valor de p es grande o bien estamos tratando de ajustar
la distribucin equivocada. Si podemos obtener p, el estimador de mxima verosimilitud y
observamos que es pequeo, esto nos dara un argumento para dudar de la distribucin GG,
en cuyo caso recomendaramos el uso familias de distribuciones como la gama generalizada
que se presenta en el apndice E.

Agradecimientos
Agradecemos a Ing. Jos I. Gmez Quiones por proporcionarnos los datos que analizamos en este reporte.

Apndice

Propiedades de la distribucin Gaussiana generalizada

En esta seccin obtenemos algunas de las propiedades ms relevantes de la distribucin


Gaussiana generalizada.

27

La media de la distribucin GG es , como lo demuestran las siguientes expresiones


EX =
=
=
=

Z
x p
1
xe| A(p,) | dx
2 (1 + 1/p) A (p, )
Z
x p
1
(x ) e| A(p,) | dx
+
2 (1 + 1/p) A (p, )
Z
p
y
1
ye| A(p,) | dy
+
2 (1 + 1/p) A (p, )
.

Supongamos = 0, y sea Y = |X| , entonces la funcin de densidad de Y est dada por


fY (y) =

yp
1
e [A(p,)]p ,
(1 + 1/p) A (p, )

de aqu que los momentos absolutos de X son


1
E |X| = EY =
(1 + 1/p) A (p, )
r

Haciendo el cambio de variable w =


EY

=
=
=

yp
[A(p,)]p

yp

y r e [A(p,)]p dy, r > 0.

tenemos que

Z
1
1
[A (p, )]r wr/p ew A (p, ) w1/p1 dw
(1 + 1/p) A (p, ) 0
p
r Z
r+1
[A (p, )]
w p 1 ew dw
p (1 + 1/p) 0

[A (p, )]r
r+1

p (1 + 1/p)
p

r/2 r+1
2
p
(1/p)
(3/p)
(1/p)

En particular, la varianza de X es
Var (X) = E (X EX)2 = E (X )2 = EY 2 = 2 .

(A.17)

28

Distribucin Gaussiana generalizada para p = 0+ y p +


Tenemos los siguientes resultados
lim (1 + 1/p) = 1,

y
(1/p)
& 3, p , p 9.114 7,
(3/p)
el lmite anterior se obtiene de (E.4).

Cuando 3 < x < 3 se cumple que


1 <

x
< 1,
A (p, )

por lo tanto, se desprende que

0,
si 3 < x < + 3,
|x |
lim
p =
p [A (p, )]
+, otro caso,
p

De los anteriores resultados obtenemos que cuando p + la distribucin de X es

U 3, + 3 , i.e.,

1 , si 3 < x < + 3,
2 3
lim gg (x, , p) =
p+
0,
otro caso,
es decir, la funcin de distribucin Gaussiana generalizada en p = + es

0,
si x 3

x
1
1

FGG (x; , , +) =
+
3
<
x
<

+
3,
,

si
2
2 3

1,
si x + 3.

29

Obsrvese que, si = 0, en el lmite se cumple que E |X| =

y EX 2 = 2 , lo que implica

= 34 .
que (E|X|)
EX 2
Cuando p se acerca a cero por la derecha tenemos que

0,
6 ,
si x =
lim gg (x; , , p) =
p0+
+, si x = .

Del lmite anterior es fcil ver que la funcin de distribucin Gaussiana generalizada en
p = 0+ es

0, si x < ,
FGG (x; , , 0+) =
1, si x ,

es decir, cuando p 0+ la variable aleatoria G (, , p) converge a una variable aleatoria


que tiene distribucin degenerada en x = .
Simulacin de variables aleatorias Gaussiana generalizada
Sea X GG (, , p). Consideremos = 0 y Y = |X| , la funcin de densidad de Y es
fY (y; , p) =

yp
1
e [A(p,)]p .
(1 + 1/p) A (p, )

(A.18)

Sea Z una variable aleatoria con funcin de distribucin gama con funcin de densidad
dada por
g (z; , ) =

1 z
z e ,
()

es decir, Z tiene distribucin gama con parmetros y , en notacin Z G (, )

(A.19)

30

Sea Z G (, ), con = [A (p, )]p , = p1 . Entonces

1/p

1
[A (p, )]p
p

fZ (z) =
z p 1 e[A(p,)] z
1p
=


1
p

z p 1 e[A(p,)]

A (p, )

Si Y = Z 1/p , tenemos que z = y p y dz = py p1 . As la densidad de Y est dada por


fY (y) =


1
p

(y p ) p 1 e[A(p,)]

p p
y

py p1

A (p, )

p p
1

e[A(p,)] y ,
1 + 1p A (p, )

por lo tanto Y se distribuye de acuerdo a una variable aleatoria con funcin de densidad
(A.18).
Entonces, para simular valores absolutos de Gaussianas generalizadas con parmetros
y p, primero se simulan variables aleatorias Zi G (Ap , p1 ) , i = 1, ..., n y en base a stas,
obtenemos las nuevas variables Yi = Z 1/p las cuales se distribuyen de acuerdo con (A.18).
Para obtener variables aleatorias con funcin de densidad (1) utilizaremos la tcnica de
Michael, Schucany y Haas(1976):
1.- Simular W de una variable aleatoria con distribucin valor absoluto de GG con = 0

2.- Hacer Y = (1)b W, donde b es una variable aleatoria Bernoulli 12
3.- Definir X = + Y, R.

La variable aleatoria X, as construida, se distribuye igual que una variable aleatoria


cuya funcin de densidad esta dada por (1).

31

Mxima verosimilitud

La funcin de verosimilitud de , y p est dada por


(

n
X
L (p, ; X) = [ (1 + 1/p) A (p, )]n exp [A (p, )]p
|xi |p
i=1

la correspondiente funcin de log-verosimilitud


n
X
1
` (p, , ; X) = n ln [ (1 + 1/p) A (p, )]
|xi |p .
[A (p, )]p i=1

Si hacemos Y = |X| y = 0 la funcin de log-verosimilitud de y p est dada por


n
X
1
` (p, ; X) = n ln [ (1 + 1/p) A (p, )]
xp .
[A (p, )]p i=1 i

(B.1)

El estimador por mxima verosimilitud de se obtiene al resolver, con respecto a , la


ecuacin

p/2 X
n
n
d
(1/p)
p
` (p, ; X) = + p+1
xpi = 0,
d

(3/p)
i=1
de aqu tenemos que

(3/p)

=
(1/p)

!1/p
1/2 X
n
p
xp
.
n i=1 i

Desigualdades de cocientes de sumas

(x) es
En esta seccin se prueba que el rango de M
n
P

, 1 y se prueba que

(xi x)r
r
1 i=1
n 2 1

r/2
n
P
1
(xi x)2
n
1
n

i=1

(B.2)

32

La cota con valor 1 se obtiene de la desigualdad de Hlder, y la otra con clculos relacionados con lgebra de series.
La desigualdad de Hlder se describe como sigue:
Sean a1 , a2 , ..., an y b1 , b2 , ..., bn dos conjunto de nmeros reales no negativos, y sea 1p + 1q =
1, con p > 1, entonces
n
X
i=1

!1/p n !1/q
n
X q
X
api
bi
ai bi .

i=1

(C.1)

i=1

La igualdad se satisface si, y slo si, las sucesiones

ap1 , ap2 , ..., apn

y bq1 , bq2 , ..., bqn son propor-

cionales.
(x)
Rango de M
Sean x1 , x2 , ..., xn variables aleatorias positivas y sean bi = n1 , i = 1, 2, ..., n. Entonces mediante la desigualdad de Hlder, con p = q = 2, tenemos que
n
!1/2 n
!1/2
n
X
X 1
X
1
x2i
xi ,

2
n
n
i=1
i=1
i=1
de la desigualdad anterior tenemos que
!1/2
n
n
1X
1X 2
x
xi 0

n i=1 i
n i=1
y por lo tanto

0
Es decir

1
n
1
n

n
P

i=1
n
P

i=1

xi

x2i

1.

(x) 1.
0M

(C.2)

33

(x) es en realidad
Ahora probaremos que, si x1 > 0, ..., xn > 0, el rango de M
1
(x) 1.
M
n
Esto es inmediato al observar que
n !2
X
n
P
xi =
x2i + algo positivo,
i=1

i=1

entonces

n !2
X
n
P
xi
x2i ,
i=1

i=1

o, lo que es lo mismo

n
P

xi

i=1
n
P

i=1

x2i

1
,
n

por lo tanto, del resultado (C.2), se desprende que


n 2
P
xi
1
i=1

1.
n
P
n
2
n xi
i=1

(x) es
De donde concluimos que el rango de M

,
1
.
n

Rango de cociente de sumas


Consideremos r 3 y supongamos que yi = |xi x| , por lo tanto yi 0. Entonces aplicando
la desigualdad de Hlder (C.1) tenemos
n
! 2 n !1 2r
r
n
X 1 2 r X
X
1 2
2
1
yi
y ,

n
n i
i=1
i=1
i=1

34

de donde llegamos a la siguiente desigualdad


n
! 2r
n
X
1
1X 2
r
y
y

n i=1 i
n i=1 i

lo que implica que

n
P

1
n

yir
i=1
n r/2 1.
P
1
yi2
n

(C.3)

i=1

Ahora, suponiendo r par, se cumple lo siguiente


!r/2
n
n
1 X r
1X 2
y
= r/2
y + algo positivo,
n i=1 i
n i=1 i

se sigue

por lo tanto

1X 2
y
n i=1 i
n

1
r

1
n

!r/2

n
P

i=1

n
P

i=1

yir

yi2

n
1 X

nr/2

yir ,

i=1

1
r/2 n 2 .

As por las desigualdades (C.3) y (C.4) obtenemos que


n
P
1
yir
r
r
1 i=1 r/2 n 2 1 .
n
P
1
yi2
n

(C.4)

i=1

La desigualdad es vlida slo para r 2. Para r = 1 se cumple una relacin similar, pero

obtenida slo para ese caso. A saber


1/2

1
n

Pn

Xi
Pn i=1 1/2 1.
1
2
i=1 Xi
n

35

O, escribindola de forma similar a la de arriba


1 Pn

2 1/2

X
i
i=1
1 n1P
n.
n
i=1 Xi
n

Substituyendo yi por |xi x| tenemos que


n
P

1
n

1
El mximo

2
de (r+1)
r
3

es r =

lnln32
3

1
n

i=1

n
P

i=1

|xi x|r

|xi x|2

1
r/2 n 2

= .82048, {0, 1.345 6} ,

(.820 48+1)2
3.820 48

= 0.74318, lo que

aumenta la probabilidad de existencia del estimador de momentos de p.

Densidad de M(X)
para n = 2

Sean X1 y X2 variables aleatorias independientes, cada una con funcin de distribucin


GG (, p) . Sean Y1 = |X1 | y Y2 = |X2 | , entonces
(X) =
M

1
4
1
2

(Y1 + Y2 )2
(Y1 + Y2 )2
=
2 (Y12 + Y22 )
(Y12 + Y22 )

Definamos una W = Y1 como una variable auxiliar en el clculo de la funcin de densidad

La funcin inversa de la transformacin (Y1 , Y2 ) M,


W es
de M.
y1 = w,

y2 =

1
1 2 m m2 w
2m 1

De las siguientes derivadas parciales


y1
= 0,
m

y1
= 1,
w

y2
1 2 m m2

=
w,
m
(2m 1)2 m m2

36

y2
1
=
2 4 m m2 ,
w
2 (2m 1)

obtenemos que el jacobiano de la transformacin es

1
0
y2

J = y
y2 = m .
2

m
w
La funcin de densidad conjunta de Y1 y Y2 est dada por

p
p
y
y
1
A1p A2p
e
,
fY1 ,Y2 (y1 , y2 ) =
[ (1 + 1/p) A]2

de donde obtenemos que la funcin de densidad conjunta de M y W

wp
1 + 2 m m2
1
2 + 4 m m2

f (m, w) =
w exp p 1 +
A
2 (2m 1)
[ (1 + 1/p) A]2 (2m 1)2 m m2

wp
1 2 m m2
2 4 m m2
1

w exp p 1 +
.
+
A
2 (2m 1)
[ (1 + 1/p) A]2 (2m 1)2 m m2

Para obtener la densidad marginal de M utilizaremos los siguientes cambios de variable


h
i1/p
h
i1/p

24 MM 2
w
w 4M4 MM 2
U = A 1 + 2(2M1)
=A
. Luego
2(2M1)

2/p
2
1 + 2 m m2
1
p
2 4m + 4 m m
f (m, u) =
A
ueu
2
2
2
2 (2m 1)
[ (1 + 1/p) A] (2m 1) m m

2/p
2
1 2 m m2
1
p
2 4m 4 m m
+
A
ueu ,
2
2
2 (2m 1)
[ (1 + 1/p) A] (2m 1) m m2
R
( 2 )
p
dado que 0 zez dz = pp obtenemos finalmente que la funcin de densidad de M es

2/p
p2
1 + 2 m m2
4m + 4 m m2

fM (m) =
2 (2m 1)
p [ (1 + 1/p)]2 (2m 1)2 m m2

2/p
2p
2
1 2 m m2
2 4m 4 m m

+
A
, (D.1)
2 (2m 1)
p [ (1 + 1/p) A]2 (2m 1)2 m m2
donde

1
2

m 1.

37

Alternativas a la distribucin Gaussiana generalizada

Distribucin gama generalizada


Sea X GammaG (a, d, p) , i.e.,

x d1
x p
p

fX (x; a, d, p) =
e( a ) ,
a
a d

(E.1)

EX

Z
x p
p

=
xr+d1 e( a ) dx
0
ad dp

r+d
p
r

= a
dp


( 1+d
p )
2 1+d
a d
2

(p)
p
(EX)

=
M (d, p) =
=
2+d
2
(
)
EX
dp 2+d
a2 pd
p
(p)
lim M (d, p) =

d (2 + d)
,
(d + 1)2

lim lim M (d, p) = 1

d p

La densidad del valor absoluto de la Gaussiana generalizada est dada por f (x, , p) =
p

x
[A(p,)]
p
1
e
, en
(1+1/p)A(p,)
h 2
i1/2
(1/p)
A (p, ) = (3/p)
.

este caso A (p, ) es un parmetro de escala. y est dado por

En analoga con la distribucin Gaussiana generalizada podemos tomar a en (E.1) como


1/2

2 dp
a = A (d, p, ) = ,
d+2
p

el cual hace que EX 2 = 2 .

Meeker & Escobar (1998)

38

Valores lmites de M (d, p)


En esta seccin demostraremos que lim M (d, p) =
p

d(2+d)
(d+1)2

y que lim M (d, p) = 0.


p0+

Del Gradshteyn & Ryzhik, (1994), ec. 8.321 tenemos que


(z + 1) =

ck z k ,

(E.2)

k=0

donde

c0 = 1, cn+1 =
= lims

Ps

n
P

(1)k+1 sk+1 cnk

k=0

1
m=1 m

; s1 = , sn = (n) for n 2, |z| < 1


n+1

P
1
ln s ' 0.5772156649, y (x) =
n=1 nx .

Utilizando la relacin (E.2) tenemos que una expansin de (x) alrededor de 0 est dada
por
1

(x) = x

1 2 1 2
+ x +
12
2

(E.3)

donde es la constante de Euler, 0.5772156649. De (E.3) se desprende que


lim+

x0

(ax)
= lim
(bx) x0+

Lmite cuando p M (d, p) =

1
a
1
b

x + b1 x2 + b2 x3 +
=
x + b01 x2 + b02 x3 +

(EX)2
EX 2

1+d
p
a
d
p
2+d
p
a2
d
p

!2

( )
( )
( )

1
a
1
b

b
= .
a

2 ( 1+d
p )
( dp )( 2+d
p )

1
lim M (d, p) = lim M d,
p
p0+
p
Ahora bien,

1
2 [(1 + d) p]
[(1 + d) p] [(1 + d) p]
M d,
=
=
,
p
(dp) [(2 + d) p]
(dp) [(2 + d) p]

(E.4)

39

aplicando el resultado (E.4) tenemos que


[(1 + d) p]
[(1 + d) p]
lim
p0+
(dp) p0+ [(2 + d) p]
d (2 + d)
=
(1 + d) (1 + d)
d (2 + d)
=
.
(1 + d)2

lim M (d, p) =

lim

Lmite de M (d, p) cuando p 0+ Caso d = 1. Utilizando la aproximacin de Stirling


(14) tenemos que

2 p2 12 2 2
2 p
e p
2 2p
=

[1 + O(p)] , p 0 +
1 p1 12 1
3 p3 12 3
1p 3p
2 p
e p
2 p
e p

1 p1 12 6+p
16 3 p [1 + O(p)] , p 0 + .
2

En consecuencia

2 2p
lim M (1, p) = lim
p0+
p0+
1p 3p
=

1 p1 12 6+p
16 3 p .
p0+ 2
lim

Antes de calcular el lmite anterior, notemos que


1

1 p1 p3 + 12
1 1 16 p
1 1
16 3
= 32 3 = 32
2
2 3p
2

161/3
3

p3

40

en vista de que

161/3
3

= .839 95 < 1, se llega a que


lim

p0+

p3

161/3
3

lim

= 0

161/3
3

3p

Caso d > 1. De nuevo, por la aproximacin de Stirling (14) tenemos que


2

(1+d)p 12 (1+d)p

2
((1
+
d)
p)
e
2

1
[(1 + d) p]
1
=
=
1
+
O
p
M d,

1
1
p
(dp) [(2 + d) p]
2 (dp)dp 2 edp 2 ((2 + d) p)(2+d)p 2 e(2+d)p
p+dp


1 + O p1

(1 + 2d + d2 )

dp 12

(1 + d) ddp 2 (4 + 4d + d2 )p (2 + d)

2 [(1 + d) p]
1
= lim
lim M (d, p) = lim M d,
p0+
p
p (dp) [(2 + d) p]
p
p+dp

=
=
=
=
=

lim

(1 + 2d + d2 )
1

dp 12

(1 + d) ddp 2 (4 + 4d + d2 )p (2 + d)


d2p(1+d)
1 + O p1
lim
2dp1
2p
p (1 + d) d
d
2p(1+d)

1
d
1
+
O
p
lim
p (1 + d) d2p(d+1)1

d
lim
1 + O p1
p 1 + d
0.
p


1 + O p1

Tablas

(X) 3 ; p > 0.05 , p (0.2, 10) , M


est
TABLA F.1: Valores de n = min n : Pr M
4

definido en (11). El valor de n se obtuvo mediante un procedimiento de bsqueda y sim-

ulacin. Para cada tamao de muestra de v.a.i.i. GG (0, 1, p) se realizaron 10000 rplicas.

41

Cada variable aleatoria GG (0, 1, p) se simul de acuerdo con el procedimiento descrito en el


Apndice A, pg. 30.
TABLA F.2: Valores de las medias y medianas para cada una de los filtros de los datos
de la pieza musical Carmina Burana.
TABLA F.3: 25 observaciones de la distribucin GG(0, 1, 3) . Valores simulados mediante
el procedimiento descrito en la pgina 30.
TABLA F.4: 25 observaciones de la distribucin GG(0, 1, 1) . Valores simulados mediante
el procedimiento descrito al final del Apndice A, (pg 30).
p n

0.2

2.2

31

4.2 138

6.2 389

8.2 1046

0.4

2.4

38

4.4 162

6.4 439

8.4 1071

0.6

2.6

42

4.6 179

6.6 479

8.6 1163

0.8

2.8

47

4.8 196

6.8 541

8.8 1273

1.0 11

3.0

61

5.0 216

7.0 620

9.0 1324

1.2 13

3.2

73

5.2 234

7.2 653

9.2 1482

1.4 15

3.4

77

5.4 272

7.4 676

9.4 1556

1.6 20

3.6

95

5.6 294

7.6 811

9.6 1690

1.8 23

3.8 100

5.8 347

7.8 877

9.8 1816

2.0 26

4.0 123

6.0 364
8.0 942
10.0 2019

3
(X) ; p > 0.05 , p (0.2, 10) .
Tabla F.1. Valores de n = min n : Pr M
4

42

Media

Mediana

Media

Mediana

0 0.03 443 0.03 443

16

0.05 312

0.05 312

0.05 312 0.03 525

17

0.05 169

0.05 169

0.05 169

18

0.04 199

0.04 199

0.04 199 0.03 156

19 0.06 619 0.06 619

4 0.06 619 0.04 627

20 0.05 445 0.05 445

5 0.05 445 0.05 736

21

0.03 304

0.05 173 0.04 847

0.05 173

0.05 173

22 0.05 152 0.05 152

7 0.05 152 0.04 340

23

0.06 693

0.06 693

0.06 693 0.04 120

24

0.05 106

0.05 106

0.05 106 0.05 593

25

0.05 323

0.05 323

0.05 323

0.04 213

26 0.05 424 0.05 424

11 0.05 424

0.04 133

27 0.06 334 0.06 334

12 0.06 334

0.05 423

28 0.06 617 0.06 617

13 0.06 617

0.05 823

29

0.05 148

0.05 148

0.05 148 0.05 101

30

0.06 270

0.06 270

10

14

0.06 270
0.05 544 31
0.06 507
0.06 507
15
Tabla F.2. Valores de las medias y medianas para cada una de las bandas de los datos del
Codificador de Audio MP3

43

x15

x610

x1115

x1620

x2125

1.23095

1.18200

1.45424

1.98366

0.80739

1.01731

1.13537

1.29247

1.11843

0.67120

0.00224

0.15930

1.79635

0.82535 0.86127 0.67881


1.43192

0.15525

0.84292 0.73295

1.45834 0.78456 0.82832 0.59772 0.11567


Tabla F.3. 25 observaciones de la distribucin GG(0, 1, 3) .
z15

z610

z1115

z1620

z2125

0.43141 1.29497

0.64378 0.90504

1.07424

0.99215

0.71231 0.39473

0.43733

0.46702

0.14126 0.60484 0.21146 0.14831


1.04025

1.00121

0.62999 0.85679

0.53406
0.80782

0.52153 0.63275 0.87137 0.66678 0.59262


Tabla F.4. 25 observaciones de la distribucin GG(0, 1, 1) .

Bibliografa
[1] Choi, S. Cichocki, A. and Amari, S. (2000) Local stability analysis of flexible independent component analysis algorithm. Proceedings of 2000 IEEE International Conference
on Acoustics, Speech and Signal Processing, ICASSP2000, Istambul, Turkey, June 5-9,
2000, pp. 3426-3429.
[2] Gradshteyn, I. S. y Ryzhik, I. M. (1994). Table of Integrals, Series, and products. Fifth
Edition. Alan Jerey, Editor. Academic Press.
[3] Gurland, John (1956). An inequality satisfied by the Gamma function. Skand. Aktuarietidskr 39, pp. 171172.
[4] Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Volume 2: Statistical
Inference. Second edition. Springer-Verlag.
[5] Lpez Esquivel, Juan (2000). Una metodologa de investigacin en la estimacin del
parmetro de forma de la distribucin Gaussiana generalizada. Unpublished dissertation.
Maestra en Sistemas de Calidad. ITESM, campus Monterrey.
[6] MathSoft, Inc. (1996). MathSoft, S+GARCH Users Manual, Data Analysis Products
Division, MathSoft, Seatle.
44

BIBLIOGRAFA

45

[7] Michael, J.R., Schucany, W.R. & Haas, R.W. (1976). Generating random variates using
transformation with multiple roots. The American statistician, 30, 88-89.
[8] Meeker, W. Q. y Escobar, L. A. (1998). Statistical Methods for Reliability Data. Wiley
series in Probability and Statistics.
[9] Mood, A.M., Graybill, F.A. & Boes, D.C. (1974). Introduction to the Theory of Statistic.
Third edition.
[10] Rodrguez-Dagnino, R. M., Len-Garca, A., (1998). An Explicit Estimator for the
Shape Parameter of the Generalized Gaussian Distribution. Comunicacin Interna. Presentada en el XII Foro Nacional de Estadstica, Monterrey, N. L.
[11] Sharifi, K. and Leon-Garcia, A. (1995). Estimation of shape parameter for generalized
Gaussian distribution in subband decomposition of video. IEEE Trans. on Circuits and
Systems for Video Technology, Vol 5, No. 1 Feb. 1995 pp. 52-56.
[12] Varanasi, M.K., Aazhang, B. (1989). Parametric generalized Gaussian density estimation, J. Acoust. Soc. Am. 86 (4), October 1989, pp. 1404.
[13] Wu, H.-C. y Principe, J. (1998). Minimum entropy algorithm for source separation.
Proceedings of the 1998 Mindwest symposium on Systems and Circuits.

También podría gustarte