Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen.
Introduccin
Ver Apndice A
x p
1
e| A(p,) | ,
2 (1 + 1/p) A (p, )
xR
(1)
2 (1/p)
(3/p)
i1/2
cin, la funcin A (p, ) es un factor de escala que permite que Var (X) = 2 . El parmetro
p es el parmetro de forma, llamado as, dado que indica la forma de la distribucin. Por
ejemplo, p = 1 corresponde a la distribucin de Laplace o doble exponencial, p = 2 a la
distribucin normal. En los casos lmites se cumple que si p + la distribucin con den
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
p = .7
p=1
p = 1.5
p=4
p = oo
Momentos de la distribucin GG
Dada la simetra con respecto a de la distribucin GG, los momentos centrales impares
son cero, i.e.,
E (X )r = 0,
r = 1, 3, 5, ....
Las expresiones de los momentos pares centrados, se obtienen de los momentos absolutos
centrados, los cuales son
E |X |r =
r/2
2 (1/p)
(3/p)
r+1
p
(1/p)
(2)
En particular, la varianza de X es
Var (X) = E (X EX)2 = E (X )2 = EY 2 = 2 .
Las justificaciones a estos resultados se encuentran en el Apndice A.
3.1
Procedimiento estndar
Varanasi & Aazhang (1989) estudian el problema de estimar los parmetros de la distribucin
GG(, , p) . En su trabajo, presentan tres procedimientos: el mtodo de mxima verosimilitud, el mtodo de momentos y un procedimiento que se basa en los dos anteriores.
En este trabajo nos concentramos en el problema de estimacin del parmetro de forma
de la distribucin GG, por el mtodo de momentos.
1
n
Pn
k , k 2.
X
X
i
i=1
n =
1X
(xi x)2 .
n i=1
n
2n =
(3)
Para estimar el parmetro de forma Varanasi & Aazhang (1989) sugieren utilizar cualquier
momento par mayor o igual que 4 y resolver la siguiente ecuacin
r
r+1
n
)]
[A
(
p
n
pn
1X
r
(xi x) =
, pn > 0, r 4, r = 2m, m N, m 2.
1
n i=1
pn
(4)
i=1
Sin embargo, Varanasi & Aazhang (1989) no mencionan que la ecuacin (4), no siempre tiene
solucin, debido a que, para cada r 1, la funcin de la izquierda es una funcin decreciente
en (0, ) y satisface los siguientes lmites:
h ir/21
1p
r+1
p
= ,
lim
h ir/2
p0+
p3
h ir/21
r
p1
r+1
p
32
.
lim
=
h ir/2
p
1+r
3p
(5)
(xi x)r
r
1 i=1
n 2 1
r/2
n
P
1
(xi x)2
n
1
n
i=1
1
la ecuacin (4) no tiene solucin.
1
n
n
P
i=1
n
P
i=1
(xi x)r
2
(xi x)
r/2
32
,
1+r
(6)
x =
1
25
25
X
1
25
xi = 0.27353,
i=1
1
25
z =
1
25
25
X
i=1
1
25
zi = 0.032141,
1
25
25
P
(xi 0.27353)4
i=1
2 = 1.63664,
25
P
2
(xi 0.27353)
i=1
25
P
i=1
(7)
En vista de que
4
2
3
9
= = 1.8 <
1+4
5
1
p5n
pn
,
2 p3n
concluimos que (7) no tiene solucin. Es decir, para los datos de las Tabla F.3 y F.4, no
existe r, tal que se pueda resolver (4), por lo tanto el estimador de momentos para p no
existe.
La probabilidad de existencia del EMM de p est determinada por la probabilidad del
evento (6). Ahora esta probabilidad es positiva y depende slo de n y p. Notemos que no
depende ni de ni de . Debido a la consistencia de los EMM tenemos que si r es fijo y
tomamos n grande, la probabilidad de existencia del EMM aumenta. Tambin, como se
ilustra en la siguiente seccin, la probabilidad de existencia depende fuertemente de p. Se
observa que para p grande se deben aumentar el tamao de muestra para garantizar, con
una alta probabilidad, la de existencia del EMM.
3.2
p
M (p),
y EX 2 = 2 ,
(8)
donde
2 2
p
(E |X|)
=
M (p) =
1
EX 2
p 3p
2
(9)
el recproco de la funcin M (p) se conoce como funcin razn Gaussiana generalizada (frgg).
De las relaciones en (8) obtenemos que los estimadores de y p por el mtodo de momentos se encuentran al resolver las ecuaciones:
p
1X
|Xi | = M (p) y
n i=1
n
1X
|Xi |2 = 2 .
n i=1
n
=
p) = M (X) =
|Xi |
y M (
n
P
n i=1
2
1
|X
|
i
n
(10)
(11)
i=1
muestral (frggm).
El problema para resolver (10) estriba en la ecuacin
(X) ,
M (
p) = M
la cual no siempre tiene solucin debido a que el rango de la funcin3 M (p) es 0, 34 , y la
frggm cumple4 con
1
n
3
4
(X) 1, no se pueden
<M
1
n
=
|Xi |2
n i=1
n
3
4
Ver Apndice E
Ver Apndice C
(X) ,
p) = M
y M (
(12)
10
El EMM para p es
(X) ,
p = M 1 M
(13)
1 1
.
0, M
n
2.
3.
1
0, n =
prctica, el evento
3
4
3
4
(x) 1 y n es grande,
M
tendremos una indicacin de que p es muy grande o de que la distribucin de los datos no
es Gaussiana generalizada5 .
5
En el Apendice E se mencionan algunas distribuciones alternativas utiles en las aplicaciones como son la
lognormal y la gama generalizada. Cuando buscamos familias de distribucin que satisfagan que para una
muestra de tamao n la frggm es 34 , no estamos sugiriendo estimar p (o el prametro correspondiente en
la nueva familia) con la frggm. Ya encontrada la familia que satisfaga M
estimar el prametro de inters.
3
4
11
4.
(x)
del evento M
3
4
para que la probabilidad de que exista el estimador por el mtodo de momentos de p sea
0.95. Observe que el mnimo n es una funcin creciente de p. Por ejemplo, el mnimo
intervalo [0.3, 3], (los cuales son tpicos en las aplicaciones mencionadas en la introduccin),
1
n
n*
1200
1050
900
750
600
n* = 216
450
300
n* = 61
150
0
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5 10.0
12
6.
Entonces el EMM de
, de , es
= X.
Si se considera desconocida, el EMM
Cabe sealar que los problemas de existencia del EMM para p son los mismos si
Para los datos de las Tablas F.3 y F.4 se cumple que x = 0.27353 y z = 0.032141
1
25
25
P
i=1
25
P
1
25
1
25
i=1
25
P
i=1
= 0.7786,
1
25
1
25
x2i
2
|zi |
i=1
25
P
1
25
2
|xi |
= 0.8402,
zi2
1
25
1
25
25
P
i=1
25
P
i=1
25
P
i=1
25
P
i=1
2
|xi 0.27353|
= 0.8151
(xi 0.27353)
|zi 0.03214 1|
= 0.8517,
(zi 0.03214 1)
3.3
Aproximacin de M (p)
Es claro que la funcin M (p) no es invertible de manera explcita. Por ello, se propone una
aproximacin que tenga como primera caracterstica, ser invertible y segunda, que el nivel
de aproximacin, al menos para el rango de valores de p de nuestro inters, sea aceptable.
De la Figura 3 observamos que la funcin M (p) se comporta diferente en cuatro regiones
ajenas del conjunto de los reales positivos.
13
0.80
0.75
0.70
0.65
0.60
0.55
0.50
M(p)
0.45
0.40
0.35
0.30
0.25
0.20
0.15
0.10
0.05
0.00
0.0
0.5
1.0
1.5
2.0
2.5
3.0
3.5
4.0
4.5
5.0
5.5
6.0
6.5
7.0
1
.
p
1
(x) = 2xx 2 ex 1 + O x1 , x > 0,
(14)
ver Gradshteyn & Ryzhik (1994) ec. 8.327. La aproximacin de Stirling es muy precisa
()( + 2)
+ 2
+ > 0,
> 0.
(15)
,
(1/p)(3/p)
1+p
(16)
14
3
4
3
4
c1 ec2 p+c3 p .
Obsrvese que las cuatro funciones propuestas son fciles de invertir. Los valores a1 , a2 , a3 ,
b1 , b2 , b3 , c1 , c2 , c3 dependen de las regiones en las que aproximemos cada una de ellas. Para
el caso de la aproximacin de Stirling, consideraremos que la aproximacin es adecuada si el
error es menor a 0.001.
1
Entonces, de (14) si tomamos (x)
= (x) = 2xx 2 ex , se tiene que
2 2p
2 2p
1 p6 4+p
= 14 3 2 p 2 p ,
M (p) =
=
1p 3p
1p p3
1 p6 4+p
1 2 p p
2
M (p) .001,
43
15
32 p 2 p
si p [0, . 277198 1)
M (p) =
b1 p
1
+
b
2 p + b3 p
0.5
1.0
1.5
2.0
2.5
3.0
3.5
4.0
4.5
5.0
5.5
6.0
6.5
7.0
M(p)
M*(p)
16
ln 27
2 ln 163
4k2
p
1
2a a2 + a2 4a1 a3 + 4a1 k
1
q
p (k) =
1
2
b1 b2 k (b1 b2 k) 4b3 k2
2b3 k
34k
2
c2 c2 + 4c3 ln 4c1
2c3
si k (0, .1312458974)
si k [.1312458974, .4489943143)
si k [.4489943143, 0. 671 256 4)
si k 0. 671 256 4, 34 ,
Intervalos de confianza
La construccin de intervalos de confianza no es simple debido a que no tenemos una estadstica suficiente para p con la cual podamos construir un intervalo de confianza para
este parmetro. Si utilizamos intervalos de confianza aproximados basados en intervalos
de verosimilitud, o en la estadstica score de Rao, o en la estadstica de Wald, las cuales
son equivalentes con orden O(n1 ) tenemos que los intervalos de confianza, construidos con
estas cantidades, tienen un desempeo muy pobre. La probabilidad de cobertura de estos
intervalos dependen fuertemente del valor de p. Por lo tanto presentamos un procedimiento
numrico-analtico para la construccin de intervalos de confianza para p. ste se basa en
considerar la estadstica funcin razn Gaussiana generalizada muestral
n
2
P
1
|xi |
n
i=1
M (x) =
n
P
1
x2i
n
i=1
17
p ,
T = FM
M;
dicha variable tiene distribucin uniforme en (0, 1) . Entonces para construir un intervalo de
confianza para p debemos encontrar los valores de p que satisfagan
p 2 = 1 ,
Pr 1 FM
M;
los valores ms comunes para 1 y 2 son 1 = 1 2 ,
1
2
< 2 < 1.
m; p .
FM
(m; p) = Pr M
Para resolver la ecuacin Pr (/2 FM (M; p) 1 /2) con respecto a p, para un valor
18
2. Obtener m muestras de tamao n, (x1,1 , x1,2 , ..., x1,n ) , (x2,1 , x2,2 , ..., x2,n ) , ..., (xm,1 ,
xm,2 , ..., xm,n ), de valores absolutos de una distribucin Gaussiana generalizada con
= 0, p = p0 y = 1 ( = 1 es irrelevante, puesto que la distribucin de M no
depende de ). En el Apndice A se indica cmo simular GG (, , p) .
1
n
1
n
n
P
xj,i
j=1
n
!2
x2j,i
j=1
M
donde en 5, preguntamos si F
(Mo ) 1 /2.
Existen una variedad de tcnicas para representar en forma digital la seal de audio. El
fin que se busca con ello es almacenarla y transmitirla en forma de bits de informacin. La
digitalizacin debe de cumplir el compromiso de minimizar el nmero de bits pero manteniendo al mismo tiempo un nivel de calidad adecuado. En diferentes aplicaciones se establece
19
20
dichos datos. Nuestra seal de estudio en este Reporte consta de 28,657 muestras por cada
uno de los 32 filtros. Esta informacin corresponde a 20.79 segundos de la pieza musical
Carmina Burana.
(x) representa los valores muestrales de la frggm para los datos de la pieza
Tabla 1. M
musical Carmina Burana. p es el estimador por el mtodo de momentos de p, obtenido en
base a (13). p0 y p1 son los extremos inferior y superior del intervalo de 95% de confianza
para p. Estos valores se obtuvieron en base al algoritmo de la seccin anterior con
n = 28657 y m = 500, = 1.
21
(x)
M
p0
p1
p1 p0
0.5614 1.3211
1.2754
1.3415
0.0661
0.5162 1.0798
1.0442
1.0966
0.0524
0.4992 1.0044
0.9722
1.0208
0.0486
0.5163 1.0806
1.0422
1.0927
0.0505
0.4990 1.0037
0.9722
1.0220
0.0498
0.4811 0.9311
0.9062
0.9509
0.0447
0.4087 0.7109
0.6963
0.7352
0.0389
0.3498 0.5867
0.5719
0.6069
0.0350
0.0349
0.3265 0.5452
0.5292
0.5622
0.0330
10 0.2905 0.4869
0.4689
0.5020
0.0331
11 0.2482 0.4248
0.4048
0.4437
0.0389
12 0.2300 0.3996
0.3815
0.4164
0.0349
13 0.2210 0.3876
0.3698
0.4048
0.0350
14 0.1690 0.3217
0.3037
0.3426
0.0389
15 0.1722 0.3256
0.3076
0.3465
0.0389
22
(x)
M
p0
p1
p1 p0
0.0428
0.0447
0.0428
0.0544
0.0427
0.0505
0.0505
0.0466
0.0486
0.0467
0.0467
0.0545
0.0583
0.0486
0.0505
0.0505
De la Figura 5, podemos verificar que el supuesto de media igual a cero esta bien fundamentado para esta clase de aplicaciones.
23
0.0004
0.0002
0.0000
-0.0002
-0.0004
-0.0006
-1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
Medias
Medianas
No. de variable
24
Col
Col
0.1522 0.1522
0.0045 0.0045
0.1156 0.1157
0.0043 0.0042
0.0624 0.0626
10
0.0039 0.0037
0.0339 0.0340
11
0.0037 0.0034
0.0222 0.0222
12
0.0031 0.0028
0.0133 0.0134
13
0.0028 0.0025
0.0084 0.0083
14
0.0026 0.0022
0.0061 0.0060
15
0.0022 0.0018
Col
Col
16
0.0025 0.0018
24
0.0014 0.0007
17
0.0029 0.0019
25
0.0012 0.0006
18
0.0031 0.0018
26
0.0010 0.0005
19
0.0032 0.0017
27
0.0009 0.0004
20
0.0028 0.0014
28
0.0010 0.0004
21
0.0025 0.0013
29
0.0012 0.0004
22
0.0023 0.0010
30
0.0007 0.0003
23
0.0018 0.0008
31
0.0005 0.0002
25
31
30
29
28
27
26
25
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
-1
0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 1.00 1.05 1.10 1.15 1.20 1.25 1.30 1.35 1.40
Conclusin
Es importante notar que la estimacin de por mxima verosimilitud depende del valor de
p. En el ejemplo observamos que el valor del estimador de momentos para disminuye a
medida que p lo hace, casi a la mitad de lo que se observa para el caso del estimador de
mxima verosimilitud.
La probabilidad de cobertura de los intervalos de confianza obtenidos de la funcin de
verosimilitud dependen de p, en este caso es recomendable calcular la probabilidad de cober-
26
tura mnima. Por otro lado, calcular probabilidades de cobertura mnima para el modelo
Gaussiana generalizada resulta computacionalmente muy costoso debido a las complicaciones
para calcular el estimador de mxima verosimilitud de p.
Recomendamos el uso de la ecuacin (13) y del algoritmo descrito en la seccin 4 para
obtener estimadores puntuales en forma simple e intervalos de confianza asociados.
Agradecimientos
Agradecemos a Ing. Jos I. Gmez Quiones por proporcionarnos los datos que analizamos en este reporte.
Apndice
27
Z
x p
1
xe| A(p,) | dx
2 (1 + 1/p) A (p, )
Z
x p
1
(x ) e| A(p,) | dx
+
2 (1 + 1/p) A (p, )
Z
p
y
1
ye| A(p,) | dy
+
2 (1 + 1/p) A (p, )
.
yp
1
e [A(p,)]p ,
(1 + 1/p) A (p, )
=
=
=
yp
[A(p,)]p
yp
tenemos que
Z
1
1
[A (p, )]r wr/p ew A (p, ) w1/p1 dw
(1 + 1/p) A (p, ) 0
p
r Z
r+1
[A (p, )]
w p 1 ew dw
p (1 + 1/p) 0
[A (p, )]r
r+1
p (1 + 1/p)
p
r/2 r+1
2
p
(1/p)
(3/p)
(1/p)
En particular, la varianza de X es
Var (X) = E (X EX)2 = E (X )2 = EY 2 = 2 .
(A.17)
28
y
(1/p)
& 3, p , p 9.114 7,
(3/p)
el lmite anterior se obtiene de (E.4).
x
< 1,
A (p, )
0,
si 3 < x < + 3,
|x |
lim
p =
p [A (p, )]
+, otro caso,
p
U 3, + 3 , i.e.,
1 , si 3 < x < + 3,
2 3
lim gg (x, , p) =
p+
0,
otro caso,
es decir, la funcin de distribucin Gaussiana generalizada en p = + es
0,
si x 3
x
1
1
FGG (x; , , +) =
+
3
<
x
<
+
3,
,
si
2
2 3
1,
si x + 3.
29
y EX 2 = 2 , lo que implica
= 34 .
que (E|X|)
EX 2
Cuando p se acerca a cero por la derecha tenemos que
0,
6 ,
si x =
lim gg (x; , , p) =
p0+
+, si x = .
Del lmite anterior es fcil ver que la funcin de distribucin Gaussiana generalizada en
p = 0+ es
0, si x < ,
FGG (x; , , 0+) =
1, si x ,
yp
1
e [A(p,)]p .
(1 + 1/p) A (p, )
(A.18)
Sea Z una variable aleatoria con funcin de distribucin gama con funcin de densidad
dada por
g (z; , ) =
1 z
z e ,
()
(A.19)
30
1/p
1
[A (p, )]p
p
fZ (z) =
z p 1 e[A(p,)] z
1p
=
1
p
z p 1 e[A(p,)]
A (p, )
1
p
(y p ) p 1 e[A(p,)]
p p
y
py p1
A (p, )
p p
1
e[A(p,)] y ,
1 + 1p A (p, )
por lo tanto Y se distribuye de acuerdo a una variable aleatoria con funcin de densidad
(A.18).
Entonces, para simular valores absolutos de Gaussianas generalizadas con parmetros
y p, primero se simulan variables aleatorias Zi G (Ap , p1 ) , i = 1, ..., n y en base a stas,
obtenemos las nuevas variables Yi = Z 1/p las cuales se distribuyen de acuerdo con (A.18).
Para obtener variables aleatorias con funcin de densidad (1) utilizaremos la tcnica de
Michael, Schucany y Haas(1976):
1.- Simular W de una variable aleatoria con distribucin valor absoluto de GG con = 0
2.- Hacer Y = (1)b W, donde b es una variable aleatoria Bernoulli 12
3.- Definir X = + Y, R.
31
Mxima verosimilitud
n
X
L (p, ; X) = [ (1 + 1/p) A (p, )]n exp [A (p, )]p
|xi |p
i=1
(B.1)
p/2 X
n
n
d
(1/p)
p
` (p, ; X) = + p+1
xpi = 0,
d
(3/p)
i=1
de aqu tenemos que
(3/p)
=
(1/p)
!1/p
1/2 X
n
p
xp
.
n i=1 i
(x) es
En esta seccin se prueba que el rango de M
n
P
, 1 y se prueba que
(xi x)r
r
1 i=1
n 2 1
r/2
n
P
1
(xi x)2
n
1
n
i=1
(B.2)
32
La cota con valor 1 se obtiene de la desigualdad de Hlder, y la otra con clculos relacionados con lgebra de series.
La desigualdad de Hlder se describe como sigue:
Sean a1 , a2 , ..., an y b1 , b2 , ..., bn dos conjunto de nmeros reales no negativos, y sea 1p + 1q =
1, con p > 1, entonces
n
X
i=1
!1/p n !1/q
n
X q
X
api
bi
ai bi .
i=1
(C.1)
i=1
cionales.
(x)
Rango de M
Sean x1 , x2 , ..., xn variables aleatorias positivas y sean bi = n1 , i = 1, 2, ..., n. Entonces mediante la desigualdad de Hlder, con p = q = 2, tenemos que
n
!1/2 n
!1/2
n
X
X 1
X
1
x2i
xi ,
2
n
n
i=1
i=1
i=1
de la desigualdad anterior tenemos que
!1/2
n
n
1X
1X 2
x
xi 0
n i=1 i
n i=1
y por lo tanto
0
Es decir
1
n
1
n
n
P
i=1
n
P
i=1
xi
x2i
1.
(x) 1.
0M
(C.2)
33
(x) es en realidad
Ahora probaremos que, si x1 > 0, ..., xn > 0, el rango de M
1
(x) 1.
M
n
Esto es inmediato al observar que
n !2
X
n
P
xi =
x2i + algo positivo,
i=1
i=1
entonces
n !2
X
n
P
xi
x2i ,
i=1
i=1
o, lo que es lo mismo
n
P
xi
i=1
n
P
i=1
x2i
1
,
n
1.
n
P
n
2
n xi
i=1
(x) es
De donde concluimos que el rango de M
,
1
.
n
n
n i
i=1
i=1
i=1
34
n i=1 i
n i=1 i
n
P
1
n
yir
i=1
n r/2 1.
P
1
yi2
n
(C.3)
i=1
se sigue
por lo tanto
1X 2
y
n i=1 i
n
1
r
1
n
!r/2
n
P
i=1
n
P
i=1
yir
yi2
n
1 X
nr/2
yir ,
i=1
1
r/2 n 2 .
(C.4)
i=1
La desigualdad es vlida slo para r 2. Para r = 1 se cumple una relacin similar, pero
1
n
Pn
Xi
Pn i=1 1/2 1.
1
2
i=1 Xi
n
35
2 1/2
X
i
i=1
1 n1P
n.
n
i=1 Xi
n
1
n
1
El mximo
2
de (r+1)
r
3
es r =
lnln32
3
1
n
i=1
n
P
i=1
|xi x|r
|xi x|2
1
r/2 n 2
(.820 48+1)2
3.820 48
= 0.74318, lo que
Densidad de M(X)
para n = 2
1
4
1
2
(Y1 + Y2 )2
(Y1 + Y2 )2
=
2 (Y12 + Y22 )
(Y12 + Y22 )
y2 =
1
1 2 m m2 w
2m 1
y1
= 1,
w
y2
1 2 m m2
=
w,
m
(2m 1)2 m m2
36
y2
1
=
2 4 m m2 ,
w
2 (2m 1)
1
0
y2
J = y
y2 = m .
2
m
w
La funcin de densidad conjunta de Y1 y Y2 est dada por
p
p
y
y
1
A1p A2p
e
,
fY1 ,Y2 (y1 , y2 ) =
[ (1 + 1/p) A]2
wp
1 + 2 m m2
1
2 + 4 m m2
f (m, w) =
w exp p 1 +
A
2 (2m 1)
[ (1 + 1/p) A]2 (2m 1)2 m m2
wp
1 2 m m2
2 4 m m2
1
w exp p 1 +
.
+
A
2 (2m 1)
[ (1 + 1/p) A]2 (2m 1)2 m m2
24 MM 2
w
w 4M4 MM 2
U = A 1 + 2(2M1)
=A
. Luego
2(2M1)
2/p
2
1 + 2 m m2
1
p
2 4m + 4 m m
f (m, u) =
A
ueu
2
2
2
2 (2m 1)
[ (1 + 1/p) A] (2m 1) m m
2/p
2
1 2 m m2
1
p
2 4m 4 m m
+
A
ueu ,
2
2
2 (2m 1)
[ (1 + 1/p) A] (2m 1) m m2
R
( 2 )
p
dado que 0 zez dz = pp obtenemos finalmente que la funcin de densidad de M es
2/p
p2
1 + 2 m m2
4m + 4 m m2
fM (m) =
2 (2m 1)
p [ (1 + 1/p)]2 (2m 1)2 m m2
2/p
2p
2
1 2 m m2
2 4m 4 m m
+
A
, (D.1)
2 (2m 1)
p [ (1 + 1/p) A]2 (2m 1)2 m m2
donde
1
2
m 1.
37
x d1
x p
p
fX (x; a, d, p) =
e( a ) ,
a
a d
(E.1)
EX
Z
x p
p
=
xr+d1 e( a ) dx
0
ad dp
r+d
p
r
= a
dp
( 1+d
p )
2 1+d
a d
2
(p)
p
(EX)
=
M (d, p) =
=
2+d
2
(
)
EX
dp 2+d
a2 pd
p
(p)
lim M (d, p) =
d (2 + d)
,
(d + 1)2
d p
La densidad del valor absoluto de la Gaussiana generalizada est dada por f (x, , p) =
p
x
[A(p,)]
p
1
e
, en
(1+1/p)A(p,)
h 2
i1/2
(1/p)
A (p, ) = (3/p)
.
2 dp
a = A (d, p, ) = ,
d+2
p
38
d(2+d)
(d+1)2
ck z k ,
(E.2)
k=0
donde
c0 = 1, cn+1 =
= lims
Ps
n
P
k=0
1
m=1 m
P
1
ln s ' 0.5772156649, y (x) =
n=1 nx .
Utilizando la relacin (E.2) tenemos que una expansin de (x) alrededor de 0 est dada
por
1
(x) = x
1 2 1 2
+ x +
12
2
(E.3)
x0
(ax)
= lim
(bx) x0+
1
a
1
b
x + b1 x2 + b2 x3 +
=
x + b01 x2 + b02 x3 +
(EX)2
EX 2
1+d
p
a
d
p
2+d
p
a2
d
p
!2
( )
( )
( )
1
a
1
b
b
= .
a
2 ( 1+d
p )
( dp )( 2+d
p )
1
lim M (d, p) = lim M d,
p
p0+
p
Ahora bien,
1
2 [(1 + d) p]
[(1 + d) p] [(1 + d) p]
M d,
=
=
,
p
(dp) [(2 + d) p]
(dp) [(2 + d) p]
(E.4)
39
lim M (d, p) =
lim
2 p2 12 2 2
2 p
e p
2 2p
=
[1 + O(p)] , p 0 +
1 p1 12 1
3 p3 12 3
1p 3p
2 p
e p
2 p
e p
1 p1 12 6+p
16 3 p [1 + O(p)] , p 0 + .
2
En consecuencia
2 2p
lim M (1, p) = lim
p0+
p0+
1p 3p
=
1 p1 12 6+p
16 3 p .
p0+ 2
lim
1 p1 p3 + 12
1 1 16 p
1 1
16 3
= 32 3 = 32
2
2 3p
2
161/3
3
p3
40
en vista de que
161/3
3
p0+
p3
161/3
3
lim
= 0
161/3
3
3p
(1+d)p 12 (1+d)p
2
((1
+
d)
p)
e
2
1
[(1 + d) p]
1
=
=
1
+
O
p
M d,
1
1
p
(dp) [(2 + d) p]
2 (dp)dp 2 edp 2 ((2 + d) p)(2+d)p 2 e(2+d)p
p+dp
1 + O p1
(1 + 2d + d2 )
dp 12
(1 + d) ddp 2 (4 + 4d + d2 )p (2 + d)
2 [(1 + d) p]
1
= lim
lim M (d, p) = lim M d,
p0+
p
p (dp) [(2 + d) p]
p
p+dp
=
=
=
=
=
lim
(1 + 2d + d2 )
1
dp 12
(1 + d) ddp 2 (4 + 4d + d2 )p (2 + d)
d2p(1+d)
1 + O p1
lim
2dp1
2p
p (1 + d) d
d
2p(1+d)
1
d
1
+
O
p
lim
p (1 + d) d2p(d+1)1
d
lim
1 + O p1
p 1 + d
0.
p
1 + O p1
Tablas
ulacin. Para cada tamao de muestra de v.a.i.i. GG (0, 1, p) se realizaron 10000 rplicas.
41
0.2
2.2
31
4.2 138
6.2 389
8.2 1046
0.4
2.4
38
4.4 162
6.4 439
8.4 1071
0.6
2.6
42
4.6 179
6.6 479
8.6 1163
0.8
2.8
47
4.8 196
6.8 541
8.8 1273
1.0 11
3.0
61
5.0 216
7.0 620
9.0 1324
1.2 13
3.2
73
5.2 234
7.2 653
9.2 1482
1.4 15
3.4
77
5.4 272
7.4 676
9.4 1556
1.6 20
3.6
95
5.6 294
7.6 811
9.6 1690
1.8 23
3.8 100
5.8 347
7.8 877
9.8 1816
2.0 26
4.0 123
6.0 364
8.0 942
10.0 2019
3
(X) ; p > 0.05 , p (0.2, 10) .
Tabla F.1. Valores de n = min n : Pr M
4
42
Media
Mediana
Media
Mediana
16
0.05 312
0.05 312
17
0.05 169
0.05 169
0.05 169
18
0.04 199
0.04 199
21
0.03 304
0.05 173
0.05 173
23
0.06 693
0.06 693
24
0.05 106
0.05 106
25
0.05 323
0.05 323
0.05 323
0.04 213
11 0.05 424
0.04 133
12 0.06 334
0.05 423
13 0.06 617
0.05 823
29
0.05 148
0.05 148
30
0.06 270
0.06 270
10
14
0.06 270
0.05 544 31
0.06 507
0.06 507
15
Tabla F.2. Valores de las medias y medianas para cada una de las bandas de los datos del
Codificador de Audio MP3
43
x15
x610
x1115
x1620
x2125
1.23095
1.18200
1.45424
1.98366
0.80739
1.01731
1.13537
1.29247
1.11843
0.67120
0.00224
0.15930
1.79635
0.15525
0.84292 0.73295
z610
z1115
z1620
z2125
0.43141 1.29497
0.64378 0.90504
1.07424
0.99215
0.71231 0.39473
0.43733
0.46702
1.00121
0.62999 0.85679
0.53406
0.80782
Bibliografa
[1] Choi, S. Cichocki, A. and Amari, S. (2000) Local stability analysis of flexible independent component analysis algorithm. Proceedings of 2000 IEEE International Conference
on Acoustics, Speech and Signal Processing, ICASSP2000, Istambul, Turkey, June 5-9,
2000, pp. 3426-3429.
[2] Gradshteyn, I. S. y Ryzhik, I. M. (1994). Table of Integrals, Series, and products. Fifth
Edition. Alan Jerey, Editor. Academic Press.
[3] Gurland, John (1956). An inequality satisfied by the Gamma function. Skand. Aktuarietidskr 39, pp. 171172.
[4] Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Volume 2: Statistical
Inference. Second edition. Springer-Verlag.
[5] Lpez Esquivel, Juan (2000). Una metodologa de investigacin en la estimacin del
parmetro de forma de la distribucin Gaussiana generalizada. Unpublished dissertation.
Maestra en Sistemas de Calidad. ITESM, campus Monterrey.
[6] MathSoft, Inc. (1996). MathSoft, S+GARCH Users Manual, Data Analysis Products
Division, MathSoft, Seatle.
44
BIBLIOGRAFA
45
[7] Michael, J.R., Schucany, W.R. & Haas, R.W. (1976). Generating random variates using
transformation with multiple roots. The American statistician, 30, 88-89.
[8] Meeker, W. Q. y Escobar, L. A. (1998). Statistical Methods for Reliability Data. Wiley
series in Probability and Statistics.
[9] Mood, A.M., Graybill, F.A. & Boes, D.C. (1974). Introduction to the Theory of Statistic.
Third edition.
[10] Rodrguez-Dagnino, R. M., Len-Garca, A., (1998). An Explicit Estimator for the
Shape Parameter of the Generalized Gaussian Distribution. Comunicacin Interna. Presentada en el XII Foro Nacional de Estadstica, Monterrey, N. L.
[11] Sharifi, K. and Leon-Garcia, A. (1995). Estimation of shape parameter for generalized
Gaussian distribution in subband decomposition of video. IEEE Trans. on Circuits and
Systems for Video Technology, Vol 5, No. 1 Feb. 1995 pp. 52-56.
[12] Varanasi, M.K., Aazhang, B. (1989). Parametric generalized Gaussian density estimation, J. Acoust. Soc. Am. 86 (4), October 1989, pp. 1404.
[13] Wu, H.-C. y Principe, J. (1998). Minimum entropy algorithm for source separation.
Proceedings of the 1998 Mindwest symposium on Systems and Circuits.