Documentos de Académico
Documentos de Profesional
Documentos de Cultura
SINGULARES Y NO SINGULARES:
TEORÍA Y APLICACIONES
La distribución Normal multivariada ha servido durante mucho tiempo como modelo estándar
para observaciones provenientes de diferentes áreas, siendo ésta el objetivo central del análisis
multivariante clásico. Sin embargo, a través de los años los estadı́sticos han tratado de extender
la teorı́a de este análisis a casos más generales y, por lo tanto, con mayor cobertura.
La utilización de distribuciones Elı́pticas en problemas que sólo han sido resueltos con la
distribución Normal, permite generalizar la teorı́a hasta ahora planteada. Algunos de estos
problemas ya han sido resueltos para las distribuciones Elı́pticas no singulares, aunque no
ası́ para el caso singular. Especı́ficamente, cuando se muestrea desde una población Elı́ptica,
el problema de las distribuciones de muestreo tradicionalmente usadas, esto es, las distribu-
ciones chi-cuadrado, t y F, que bajo distribuciones Elı́pticas se denominan distribuciones
chi-cuadrado,t y F, ha sido parcialmente resuelto. Quedando abierto el problema desde la
perspectiva de las distribuciones Elı́pticas singulares y para las distribuciones t y F doble no
centradas generalizadas. Por otra parte, el interés puede radicar en la estimación e inferencia
1
2
de los parámetros de dispersión de la población en estudio. Bien se sabe que las medidas de
dispersión se utilizan para evaluar la variabilidad de un conjunto de datos, siendo la desviación
estándar la más utilizada; sin embargo, ésta entrega poca información del conjunto si es in-
terpretada en forma aislada, sólo cuando se la relaciona con la media su interpretación tiene
mayor sentido. Por esta razón el coeficiente de variación, que relaciona a ambas medidas,
es sumamente útil. Este coeficiente mide la dispersión u homogeneidad de un conjunto de
datos asociados a una variable aleatoria y es una medida de variabilidad relativa, es decir,
es adimensional, pues representa a la desviación estándar por una unidad de media y resulta
de particular interés cuando se desea comparar la variabilidad entre grupos cuyas medias y
varianzas difieren. Sus aplicaciones son diversas y se lo ha empleado con mucho éxito en la
medición de la variabilidad relativa. Por ejemplo, se lo ha utilizado ampliamente para com-
parar métodos de medición; en Finanzas, se lo ha usado para medir el riesgo relativo de rentas
variables; en Teorı́a de Inventarios para comparar la variabilidad de dos niveles de almace-
namiento y también se ha aplicado el coeficiente de variación en Ciencias Fı́sicas, Biológicas
y Médicas. Dentro del contexto de la Estadı́stica se pueden encontrar también aplicaciones
del coeficiente de variación en un problema de muestreo, especı́ficamente en la determinación
del tamaño de la muestra, al emplear una prueba de hipótesis para el coeficiente de variación
para evaluar la no normalidad de una variable aleatoria positiva, en Modelos Lineales y en
Confiabilidad, entre otras.
Existen en la actualidad excelentes libros y artı́culos que recogen las investigaciones hechas
hasta la fecha acerca de la distribuciones Elı́pticas, como lo son los libros [1], [32], [31], [39]
y [70], y diversas publicaciones, entre las que se encuentran los trabajos [50], [16], [18], [49],
[15], [12] y [83], y los trabajos recientes [5] y [54], entre otros. Aunque a partir de 1970 estas
distribuciones comenzaron su auge, se registran estudios anteriores, como lo son [72] y [56].
Por otra parte, los primeros resultados distribucionales del CV de una población Normal se
remontan a los estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi
cuatro décadas, en [44] se retoma el tema comparando aproximaciones de percentiles del CV
muestral con los resultados hasta ahı́ propuestos. Posteriormente en [6] se plantea un contraste
aproximado para probar la homogeneidad de coeficientes de variación. En [7] se encuentra un
test basado en el estadı́stico de razón de verosimilitud para contrastar estas mismas hipótesis.
Luego en [63] se propone un nuevo contraste para la igualdad de dos coeficientes de variación,
en [30] se generaliza a k muestras, y en [77] se presentan estudios de simulación de estos
contrates. Por su parte, en [43] se realiza inferencia para el CV de una distribución Inversa
Gaussiana. En [62], y posteriormente en [35], se presentan pruebas de hipótesis asintóticas
para el coeficiente de variación de una, dos y k muestras, junto con estudios de simulación. En
[40] se entregan diversos resultados que permiten probar la igualdad de coeficientes de variación
de k muestras provenientes de poblaciones normales basados en la revisión de contrastes ya
conocidos, como lo son las pruebas de Bennet, de razón de verosimilitud, de la t no centrada,
de Wald -la que extienden a k muestras y para distintos tamaños de éstas- y además presentan
un nuevo contraste basado en la prueba de Score. En [64] se hace inferencia asintótica para el
CV de una población Normal presentando fórmulas para estadı́sticos de prueba, a través de
los cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de
los resultados planteados para el CV de una población Normal son extendidos en [54] al caso
de una población Elı́ptica.
A partir de esto el queda abierta la aplicación de las distribuciones Elı́pticas singulares sobre:
las distribuciones chi-cuadrado, t y F generalizadas centradas y no centradas, las distribu-
ciones t y F generalizadas doble no centradas, y sobre la inferencia para el coeficiente de
variación de una población Elı́ptica.
tratan también aquı́ problemas asociados con distribuciones empleadas en el muestreo, como
lo son la distribución chi-cuadrado generalizada centrada y no centrada, la distribución t
generalizada centrada y no centrada y la distribución F generalizada centrada, no centrada y
doble no centrada, bajo singularidad y no singularidad de la ley Elı́ptica asociada. Finalmente,
a través de las distribuciones Elı́pticas, de la distribución t generalizada no centrada y del
caso de muestras grandes, se estudia el aspecto distribucional e inferencial del coeficiente de
variación poblacional, tanto para el caso de una población Elı́ptica con estructura dependiente
e independiente.
(1) Hallar la densidad de una vector aleatorio Elı́ptico singular siguiendo el argumento prop-
uesto en [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas asociadas a este
vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la distribución
Elı́ptica afecta los grados de libertad de tales distribuciones. Posteriormente, se utilizan dos
distribuciones Elı́pticas singulares especı́ficas, como lo son la Pearson tipo VII y la de tipo
Kotz, hallando ası́ explı́citamente las densidades de estas distribuciones. Finalmente, se tratan
dos aplicaciones de la distribución Elı́ptica singular. La primera de ellas relacionada con la
distribución de los residuos de un modelo lineal Elı́ptico y la segunda relacionada con el
estadı́stico t generalizado, basado en una muestra obtenida desde una población Elı́ptica.
(2) Presentar las distribuciones t y F generalizadas, tanto para el caso centrado, no centrado y
doble no centrado, y bajo singularidad y no singularidad de la distribución Elı́ptica asociada,
en cuyo caso la singularidad de la distribución afecta los grados de libertad de las distribuciones
t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas centradas, se usa la
invarianza de tales distribuciones bajo leyes Elı́pticas con parámetro de posición igual a cero,
coincidiendo con las del caso Normal. Para las distribuciones F generalizadas no centrada y
doble no centrada, se presentan sus densidades tanto en términos de integrales como de las
derivadas de la función generadora de densidades asociada a cada distribución Elı́ptica, y por
ende de cada distribución F generalizada. En el caso de la distribuciones t generalizadas no
5
centrada y doble no centrada no es posible obtener esta representación, por lo que su densidad
sólo se expresa a través de integrales. Finalmente se ilustran todos estos resultados para dos
subfamilias de distribuciones Elı́pticas, como lo son la distribución de Pearson tipo VII y
la distribución de tipo Kotz, subfamilias que a su vez contienen como casos particulares a
las distribuciones Elı́pticas t y Normal multivarian-tes, respectivamente. En esta ilustración
y para el caso de la distribución F generalizada, se observa la evidente simplificación que
se produce al usar la densidad en términos de la derivada de la gene-radora de densidades
en lugar de la expresión integral. Sin embargo, se debe tener presente que la aplicación
de este resultado es sólo posible cuando la generadora de densidades, asociada a la particular
distribución Elı́ptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribución. Como no todas las distribuciones Elı́pticas
disponen de momentos, como por ejemplo la distribución de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.
(3) Proponer un coeficiente de variación generalizado, como una medida de varia-bilidad rel-
ativa, válido para poblaciones cuya distribución carece de primer y segundo momento (los
momentos de una distribución Elı́ptica pueden verse en [32][p. 67])). Esta medida se puede
entender como una generalización del CV y se define como la raı́z cuadrada del parámetro de
escala dividido por el parámetro de posición. Se analizan aspectos distribucionales e inferen-
ciales de este CV generalizado bajo dos modelos Elı́pticos, como lo son el modelo dependiente
(el vector aleatorio tiene una estructura dependiente con distribución Elı́ptica multivariada) y
el modelo independiente (cada variable aleatoria del vector es independiente e idénticamente
distribuida Elı́ptica univariada). Especı́ficamente, para ambos modelos (dependiente e inde-
pendiente) se encuentra el estimador de verosimilitud máxima (EVM) y, en forma alterna-
tiva, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda expresado en
términos de las funciones f y φ asocia-das a cada ley Elı́ptica, por lo cual en esta sección sólo
es posible hallar una expresión general para este estimador. Posteriormente se presenta la
distribución exacta del inverso del EVM del CV para el modelo dependiente y la distribución
asintótica del EVM y del EM del CV bajo el modelo independiente. A partir de estas distribu-
6
ciones se obtienen intervalos de confianza y pruebas de hipótesis para el CV. Los resultados
obtenidos bajo el modelo dependiente son ilustrados a través de dos subfamilias de distribu-
ciones Elı́pticas, como lo son la distribución de Pearson Tipo VII y la distribución de Tipo
Kotz, permitiendo encontrar ası́ expresiones explı́citas para los resultados planteados; partic-
ularmente se estudian las distribuciones t-multivariada y de Cauchy (esta última distribución
carece de momentos), como casos particulares de la subfamilia Elı́ptica de Pearson Tipo VII,
y la distribución Normal, como caso particular de la subfamilia de Tipo Kotz. Los resultados
encontrados bajo el modelo independiente se particularizan para la distribuciones univariadas
t con s grados de libertad y Normal, incluyendo además la eficiencia relativa asintótica (ERA)
de los estimadores hallados. Finalmente se entrega una detallada lista de aplicaciones del CV.
Este trabajo ha sido estructurado en dos partes y seis capı́tulos. La primera parte presenta
aspectos introductorios de la distribuciones Elı́pticas y del álgebra matricia, la cual está es-
tructurada en 3 capı́tulos. En el primero de ellos se proporcionan los aspectos preliminares,
requeridos para solucionar algunos problemas que se resuelven en los capı́tulos subsiguientes.
En el segundo capı́tulo se introducen las distribuciones Elı́pticas y Esféricas, en él se presentan
resultados conocidos de estas distribuciones y sus relaciones con la distribución Normal. En
el capı́tulo tercero se tratan las distribuciones empleadas habitualmente en el muestreo, en
este caso de una población Elı́ptica, como lo son las distribuciones chi-cuadrado, t y F gener-
alizadas, para los casos centrados y no centrados, basados en resultados ya conocidos. En la
segunda parte se presentan los resultados de las 3 aportaciones originales propuestas en este
trabajo, soló planteadas hasta ahora en artı́culos. la cual está compuesta por los Capı́tulos
cuatro, cinco y seis de este trabajo. En el capı́tulo cuatro se trata la distribución Elı́ptica
singular, se encuentra su densidad y se presentan dos aplicaciones de ésta. En el capı́tulo cinco
se presentan las distribuiciones t y F generalizadas doble no centradas, se halla su densidad
bajo singularidad y no singularidad de la ley Elı́ptica asociada. En el capı́tulo seis se presentan
todos los aspectos relacionados con la inferencia del coeficiente de variación de una población
Elı́ptica con estructura dependiente e independiente, ası́ como los aspectos distribucionales
de los estimadores del coeficiente de variación planteados. Finalmente, se acompaña a una
7
A, B, C, . . . : Matrices constantes.
a, b, c, . . . : Constantes reales.
X, Y, Z, . . . : Vectores aleatorios.
X, Y, Z, . . . : Variables aleatorias.
AT : La transpuesta de A.
|A| : Determinante de A.
A−1 : Inversa de A.
A− : Inversa generalizada de A.
Ac : Inversa condicional de A.
9
10
rk A : Rango de A.
tr A : Traza de A.
Im A : Imagen de A.
V ar(X) : Varianza de X.
11
Gt : Distribución t generalizada.
GF : Distribución F generalizada.
CV : Coeficiente de Variación.
I ASPECTOS INTRODUCTORIOS 17
1 Preliminares 19
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2 Aspectos de Teorı́a Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1 Matrices Ortogonales y Semi-ortogonales . . . . . . . . . . . . . . . . . 20
1.2.2 Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3 Inversión de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.4 Partición de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.5 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.6 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.7 Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.8 Matrices Definidas y Semi-definidas Positivas . . . . . . . . . . . . . . . 27
1.2.9 Proyecciones Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.10 Factorizaciones de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.11 Inversa Generalizada de una Matriz . . . . . . . . . . . . . . . . . . . . 31
1.2.12 Producto Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Evaluación del Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.1 La Transformación de Coordenadas Esféricas Generalizadas . . . . . . 34
13
14 CONTENTS
II RESULTADOS 69
ASPECTOS INTRODUCTORIOS
17
Chapter 1
Preliminares
1.1 Introducción
Este capı́tulo presenta los aspectos preliminares de este trabajo y está compuesto por dos
secciones; en la primera de ellas se encuentran definiciones y resultados conocidos del álgebra
matricial, como lo son los de: matrices ortogonales y semi-ortogonales, determinante y rango
de una matriz, inversión y partición de matrices, valores y vectores propios de una matriz,
formas cuadráticas, matrices definidas y semidefinidas positivas, proyecciones ortogonales,
factorización de matrices e inversas generalizadas de un matriz; cada uno de los cuales se
hace necesario para el mejor entendimiento de este trabajo, ya se que emplean con bas-
tante frecuencia durante el desarrollo de éste, pudiendo encontrar mayores detalles de esta
sección en cualquier libro de Álgebra Lineal, como por ejemplo en citeg:76, entre otros. En
la segunda sección se presenta la evaluación de jacobianos de transformaciones, enfatizando
particularmente en la transformación de coordenadas esféricas generalizadas, ya que dicha
transformación es utilizada ampliamente a lo largo de este trabajo, mayores detalles de esta
sección pueden hallarse en [32], ası́ como en otros libros de la bibliografı́a. Otros aspectos
matemáticos ası́ como de teorı́a estadı́stica, utilizados en este trabajo, fueron omitidos en
estos preliminares, pudiendo de cualquier forma revisarse en [69] o [65], ası́ como en los antes
mencionados y en otros que aparecen en la bibliografı́a.
19
20 CHAPTER 1. PRELIMINARES
4. si A es cuadrada y todos los elementos que están fuera de la diagonal son ceros, entonces
A se dice que es una matriz diagonal y se denota por A = diag(aii ). Si para A = (aij ),
aij = 0, ∀ j < i, entonces A se dice matriz triangular superior y se denota por A ∈
UT(p); si aij = 0, ∀ j > i, entonces A se dice matriz triangular inferior y se denota por
A ∈ LT(p).
5. si todos los elementos de A son ceros, entonces A se denomina matriz nula y se denota
por A = 0.
O(p) = {H ∈ IRp×p | H T H = Ip }.
1.2. ASPECTOS DE TEORÍA MATRICIAL 21
[Matriz Ortogonal] Sea A ∈ IRp×p . Entonces, si A ∈ O(p) se dice que es una matriz
ortogonal.
[Conjunto de Matrices Semi-ortogonales] El conjunto de matrices semi-ortogonales, también
llamado Variedad de Stiefel y denotado por Vn,p , es aquél que contiene a todas las matrices
H ∈ IRn×p , tal que H T H = Ip , esto es,
Vn,p = {H ∈ IRn×p | H T H = Ip },
[Determinante] Sea A ∈ IRp×p . Entonces, el determinante de A, denotado por |A|, viene dado
por
X
|A| = ²π a1j1 a2j2 ... apjp , (1.2)
π
P
donde π denota la suma sobre todas las p! permutaciones π = (j1 , ..., jp ) de (1, ..., p) y ²π = 1
ó −1, dependiendo si la permutación es par o impar.
Sea A ∈ IRp×p , tal que
2. |A| = |AT |.
4. |α A| = αp |A|, α ∈ IR..
7. |AAT | = |AT A| ≥ 0.
A C A 0 q×q
8. = = |A| · |B|, donde B ∈ IR , C ∈ IRp×q y D ∈ IRq×p .
0 B D B
[Matriz Inversa] Sea A ∈ IRp×p y |A| 6= 0. Entonces, existe una única matriz B ∈ IRp×p tal
que AB = Ip y B es llamada la inversa de A y se denota por A−1 .
Una matriz cuyo determinante es distinto de cero se denomina no singular.
. Sea A ∈ IRp×p , tal que
1. AA−1 = A−1 A = Ip .
4. |A−1 | = |A|−1 .
5. A−1 = AT , si A ∈ O(p).
1, ..., p.
1.2. ASPECTOS DE TEORÍA MATRICIAL 23
Una matriz no singular A ∈ IRp×p se dice que está particionada en submatrices si, para
i, j = 1, 2, A puede escribirse de la forma
A11 A12
A=
, (1.3)
A21 A22
3. Sea A ∈ IRp×p una matriz no singular, tal que B = A−1 . Particione A y B de manera
similar y de la misma forma que antes, esto es,
A11 A12 B11 B12
A= y B= ,
A21 A22 B21 B22
donde A11 , B11 ∈ IRq×q y A22 , B22 ∈ IR(p−q)×(p−q) , con A11 y A22 no singulares.
Denote ahora
Entonces,
B11 = A−1
11.2 , B12 = −A−1 −1
11 A12 A22.1 ,
B21 = −A−1 −1
22 A21 A11.2 , B12 = A−1
22.1 ,
B11 = A−1 −1 −1 −1
11 + A11 A12 A22.1 A21 A11 , B12 = −A11.2 A12 A−1
22 ,
B21 = −A−1 −1
22.1 A21 A11 y B22 = A−1 −1 −1 −1
22 + A22 A21 A11.2 A12 A22 .
24 CHAPTER 1. PRELIMINARES
4. Sea A ∈ IRp×p particionada como en (2.3) y A11.2 y A22.1 como en (2.4). Ası́,
6. Si X ∈ IRn×p , entonces
XT1 X1 . . . XT1 Xp
Xn
T .. ... ..
X X=
. . =
X(i) XT(i) . (1.6)
i=1
XTp X1 ... XTp Xp
[Rango de una Matriz] Sea A ∈ IRn×p una matriz distinta de la matriz nula. Entonces, si
r de las columnas o filas de A son linealmente independientes, A tiene rango r ≤ min(p, n),
denotándolo por rk A = r.
Sea A ∈ IRn×p , tal que
1. rk 0 = 0
3. rk A = rk AT = rk AAT = rk AT A.
[Valor Propio] Sea A ∈ IRp×p . Entonces, los valores propios de A están dados por las raı́ces
de la ecuación caracterı́stica en λ, asociados al polinomio caracterı́stico |A − λI|, dadas por
|A − λI| = 0. (1.7)
2. Las raı́ces del polinomio caracterı́stico no son necesariamente distintas, es decir, pueden
tener una multiplicidad mayor que 1.
3. Las raı́ces del polinomio caracterı́stico pueden ser reales, complejas o ambas.
[Vector Propio] Sean A ∈ IRp×p y X ∈ IRp . Entonces, los vectores propios de A están
dados por la solución del sistema de ecuaciones en X, dado por
(A − λI) X = 0, (1.8)
al reemplazar cada valor propio λ en dicho sistema, es decir, para cada valor propio λ existe
un vector propio X.
Sea A ∈ IRp×p , tal que
2. si A = AT , entonces todos sus valores propios son reales, digamos λ1 , λ2 , ..., λp , con
λ1 ≥ λ2 ≥ · · · ≥ λp . Entonces, los valores propios de A están en la diagonal de una
matriz D, esto es, D = diag(λi ), i = 1, ..., p.
26 CHAPTER 1. PRELIMINARES
3. los vectores propios, correspondientes a distintos valores propios de una matriz simétrica,
son ortogonales.
6. los valores propios no nulos de AB y de BA son los mismos. En particular, los valores
propios no nulos de AAT y AT A son los mismos.
7. si A = diag(aii ), i = 1, ..., p, entonces a11 , ..., app son los valores propios de A y los
vectores eT1 , eT2 , ..., eTp son, respectivamente, sus vectores propios asociados, donde eTi ∈
IRp es un vector que tiene sólo un uno en la posición i-ésima y el resto son ceros, esto
es, eTi = (0 . . . 0 1 0 . . . 0).
8. si los valores propios de A son λ1 , λ2 ,..., λp , entonces los valores propios de A−1 son λ−1
1 ,
9. si A ∈ O(p), entonces todos los valores propios tienen valor absoluto igual a 1.
10. si A ∈ UT(p) (o LT(p)), entonces los valores propios de A son a11 , ..., app (los elementos
de la diagonal).
[Forma Cuadrática] Sea X ∈ IRp , tal que f (x1 , ..., xp ) = f (X) es una función real valorada,
esto es, xi ∈ IR, ∀ i = 1, ..., p. Entonces, se dice que f (X) es una forma cuadrática si
p X
X n
f (x1 , ..., xp ) = aij xi xj = XT A X,
i=1 j=1
1.2. ASPECTOS DE TEORÍA MATRICIAL 27
XT A X = YT C T A C Y = YT (C T AC) Y = YT B Y,
1. A = AT y
2. XT AX > 0, ∀ X ∈ IRn y X 6= 0.
1. A = AT ,
2. XT AX ≥ 0, ∀ X ∈ IRn y
[Matriz Definida No Negativa] Una matriz se dice definida no negativa si y sólo si, es
definida positiva o semi-definida positiva.
[Matriz de una Proyección Ortogonal] Una matriz A se dice que es la matriz de una
proyección ortogonal si
1. A = AT y
2. A2 = A,
2. tr A = rk A.
A = H T HT , (1.9)
donde H ∈ O(p) y T ∈ UT(p), cuyos elementos de la diagonal son los valores propios
de A.
A = H T D H, (1.10)
1.2. ASPECTOS DE TEORÍA MATRICIAL 29
donde A1/2 es llamada ”raı́z cuadrada simétrica”, H y D están definidas como en (2.10)
1 ³√ ´
y D 2 = diag λi .
4. si A ∈ IRp×p y el rk A = r ≤ p, entonces
A = B BT . (1.13)
A = T T T. (1.15)
A = U B, (1.16)
donde U ∈ Vn,p , V ∈ O(p), D = diag(λi ), i = 1, ..., p y λ21 , ..., λ2p , son los valores propios
de AT A. Otra representación de A serı́a
A = H (D 0)T V, (1.19)
donde D = diag(λi ) y λ1 ,...,λn son los valores propios de A−1 B. Si B > 0 y λ1 ,...,λn son
todos distintos, H es única, salvo cambios de signo en cada elemento de la primera fila
de H.
1.2. ASPECTOS DE TEORÍA MATRICIAL 31
[Matriz Inversa Generalizada] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que
cumple con
1. ABA = A,
2. BAB = B,
3. (AB)T = AB y
4. (BA)T = BA,
−
11. si A = P QT , con P ∈ IRn×r , Q ∈ IRr×m y rk A = rk P = rk Q = r, entonces A =
− −
(Q )T P .
−
12. si A es una proyección ortogonal, entonces A = A.
[Matriz Inversa Condicional] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que
cumple con
ABA = A, (1.21)
2. (A + B)(C + D) = AC + BC + AD + BD.
3. (AB)(CD) = ACBD.
4. αA = α A = A α = Aα.
5. (AB)T = AT B T .
6. (AB)−1 = A−1 B −1 .
− − −
7. (AB) = A B .
λi δj , i = 1, ...n, j = 1, ..., m.
Sean
j−i
Y
xj = r sen φk cos φj ; 1 ≤ j ≤ n − 2,
k=1
Ãn−2 !
Y
xn−1 = r sen φk cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2,
k=1
Ãn−2 !
Y
xn = r sen φk sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞.
k=1
1.3. EVALUACIÓN DEL JACOBIANO 35
con lo cual
n
X n
X
x2i = x2i + x21 = r2 sen2 φ1 + r2 cos2 φ1 = r2 . (1.8)
i=1 i=2
De esta manera
J(x1 , ..., xn → r, φ1 , ..., φn−2 , θ) = J(xn → θ) · J(xn−1 → φn−2 ) · . . . · J(x2 → φ1 ) · J(x1 → r).
n−2
à !
∂xn−1 1 Y cos φn−2
= r2 sen2 φk ,
∂φn−2 xn−1 k=1 sen φn−2
..
.
∂x2 1 2
= r sen φ1 cos φ1 ,
∂φ1 x2
∂x1 r
= .
∂r x1
36 CHAPTER 1. PRELIMINARES
J(X → Y) =
Ãn−2 ! Ãn−2 !
r2 Y
2 r2 Y
2 cos φn−2 r2 r
sen φk sen θ cos θ · sen φk · sen φ1 cos φ1 · .
xn k=1 xn−1 k=1 sen φn−2 x2 x1
Ası́, finalmente,
Ãn−2 !
Y
n−1 n−k−1
J (x1 . . . xn ) → (r φ1 . . . φn−2 θ)) = r sen φk .
k=1
Los cos φk se cancelan en forma sucesiva con un término igual que le precede en el numer-
ador. El exponente (n − k − 1) se observa como se va generalizando ya en el segundo término
del producto.
Chapter 2
2.1 Introducción
En el último tiempo se ha planteado una clase de distribuciones cuyos contornos de sus den-
sidades tienen la misma forma elı́ptica de la distribución Normal, pero además contienen
distribuciones de colas más y menos pesadas que las de ésta. Dicha clase de distribuciones se
denomina de Contornos Elı́pticos o simplemente distribuciones Elı́pticas.
Las distribuciones Elı́pticas han sido estudiada por diversos autores, entre los que se encuen-
tran los trabajos [50], [18], [49] y [12], y los más recientes [5] y [54], entre otros. Aunque a
partir de 1970 estas distribuciones comenzaron su auge, se registran estudios anteriores, como
lo son [72] y [56]. La mayorı́a de estos trabajos, salvo los más recientes, son recopilados en los
libros [1], [32], [31], [39] y [70], quienes entregan un adecuado tratamiento del tema.
A pesar de los diversos trabajos que se han presentado hasta ahora, aún no se encuentran trata-
dos diversos problemas que hasta ahora sólo han sido abordados con la distribución Normal,
entre ellos la densidad de una distribución Elı́ptica singular, la distribución F Generalizada
doble no centrada y la inferencia para el coeficiente de variación, entre otros.
37
38 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS
Para fijar ideas, considere un vector aleatorio n-dimensional X. Ahora bien, si X ∈ IRn es
un vector aleatorio con parámetro de posición µ ∈ IRn , matriz de escala Σ ∈ IRn×n y con
rk Σ = r ≤ n, entonces la distribución de X se dice singular o no singular, dependiendo si
r < n o si r = n, respectivamente.
[Distribución Elı́ptica] Sea X ∈ IRn . Entonces, X pertenece a la familia de distribuciones
Elı́pticas de parámetros µ, Σ y φ si y sólo si su función caracterı́stica es
y se denota por X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y φ : IRn → IR.
Observe que la función caracterı́stica existe aun cuando Σ sea semidefinida positiva, es decir,
cuando rk Σ = r < n, en cuyo caso la distribución Elı́ptica obtenida es llamada distribución
Elı́ptica singular, la cual se tratará con detalle más adelante.
Sea X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, la densidad de X es
1
gX (X) = |Σ|− 2 f [(X − µ)T Σ−1 (X − µ)], (2.2)
siendo f (u), con u ≥ 0, una función real y que se denomina generadora de densidades. En
este caso, se usa la notación X ∼ ECn (µ, Σ; f ).
Ası́, la condición necesaria para que la densidad de X exista con respecto a la medida de
Lebesgue en IRn es que rk Σ = r = n, esto es, que Σ > 0, con lo cual la distribución de X es
no singular.
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X puede representarse
de la forma
X = µ + AT Y,
de modo que
Y = (AT )−1 (X − µ),
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 39
con Σ = AT A, A ∈ IRn×n .
[Distribución Esférica] Sea X ∼ ECn (µ, Σ; φ) con µ ∈ IRn , Σ ∈ IRn×n . Entonces, si
µ = 0 y Σ = In , se dice que X se distribuye Esférica y se denota por X ∼ Sn (φ), esto es,
Sn (φ) ≡ ECn (0, In ; φ) o Sn (f ) ≡ ECn (0, In ; f ).
Sea X ∼ Sn (φ). Entonces,
d
1. X = H X, ∀ H ∈ O(n).
3. la densidad de X puede expresarse como gX (X) = f (XT X), f (u), u ≥ 0, dado como
(5.2).
d
4. para XT = (X1 X2 . . . Xn ) ∼ Sn (φ), aT X = X1 ; ∀ a ∈ IRn y kak = 1.
Sea U (n) un vector aleatorio uniformemente distribuido en la esfera unitaria en IRn , esto es,
U (n) ∼ Un {X ∈ IRn kXk = 1} y que se denota por U (n) ∼ Un {EkXk=1 }, U (n) se distribuye de
acuerdo a una ley Esférica.
Sea X ∼ Sn (f ). Entonces, X admite la representación estocástica
d
X = R U (n) , (2.3)
d X d (n)
kXk = R y =U , (2.4)
kXk
40 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS
de modo que
X
X = R U (n) = kXk · .
kXk
donde R ∼ GR (·) y U (n) ∼ Un {EkXk=1 } son independientes.
Sea U (n) ∼ Un {EkXk=1 }. Entonces,
1
IE(U (n) ) = 0 y Var(U(n) ) = In . (2.5)
n
µ = µ0 , c0 Σ = Σ 0 y f0 (·) = f (c−1
0 ). (2.10)
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 41
d d
2. si X = µ + R AT U (r) = µ0 + R0 AT U (r0 ) , donde r ≥ r0 , entonces existe una constante
c0 > 0, tal que
d −1/2
µ = µ0 , c0 AT A = AT A y R0 = c0 R br0 /2,(r−r0 )/2 , (2.11)
donde br0 /2,(r−r0 )/2 ≥ 0 es independiente de R y b2r0 /2,(r−r0 )/2 ∼ Beta(r0 /2, (r − r0 )/2), si
r > r0 y br0 /2,(r−r0 )/2 ≡ 1 si r = r0 .
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0, B ∈ IRn×m y γ ∈ IRm . Entonces,
d
Sea X = µ + RAT U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y considere la
misma partición de X, µ y Σ dada en (5.13). Entonces,
d
(X1 / X2 = x0 ) = µ1.2 + Rq(x0 ) AT11.2 U (n) ∼ ECm (µ1.2 , Σ11.2 , f ), (2.17)
donde
µ1.2 = µ1 + Σ12 Σ−1
22 (x0 − µ2 ),
y Σ11.2 = AT11.2 A11.2 . Además, para todo a ≥ 0, Ra2 es independiente de U (m) y admite la
representación estocástica
³ 1
´
d
Rq(x0 ) = (R2 − q(x0 )) 2 / X2 = x0 . (2.18)
2.2.5 Momentos
Si X ∼ Nn (µ, Σ), con µ ∈ IRn y Σ ∈ IRn×n , se sabe que IE(X) = µ y V ar(X) = Σ. En el caso
de las distribuciones Elı́pticas no siempre existen estos momentos (por ejemplo la distribución
de Cauchy).
d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de
U (n) . Entonces, si IE(R) < ∞ y IE(R2 ) < ∞, el primer y segundo momento de X existen.
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 43
d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de
U (n) , IE(R) y IE(R2 ) < ∞. Entonces,
IE(R2 )
IE(X) = µ y V ar(X) = · Σ.
rk Σ
1. M1 (X) = µ.
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ = diag(σii ), i = 1, ..., n. Entonces, las
siguientes proposiciones son equivalentes
1. X se distribuye normalmente.
Sea X = (XT1 XT2 )T ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X1 ∈ IRm .
Entonces, X1 / X2 = x0 se distribuye normalmente con probabilidad 1 si y sólo si X se
distribuye normalmente.
de modo que
2 S S
Sn−1 = y Sn2 = , (2.20)
n−1 n
1 T
donde D = In − 11 y 1 = (1 . . . 1)T ∈ IRn .
n
Algunos estadı́sticos muy útiles en análisis univariado son
√ X̄ √ X̄
T = n ←→ T = n−1 (2.21)
Sn−1 Sn
y
k XC1 X
F = , (2.22)
r XC2 X
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 45
cuando X ∼ Nn (0, In ).
donde ³ ´ Ã !− ν+p
ν+n
T
Γ 2 XT X 2
f (X X) = ³ ´ n 1+ ,
Γ n
(π ν) 2 ν
2
es decir,
µ ¶− ν+p
u 2
f (u) = 1 + ,
ν
con lo cual se observa que la distribución t-multivariada pertenece a la clase Esférica de
distribuciones.
[Distribución de tipo Kotz] Para r, s > 0 y 2m + n > 2, la densidad de X es
³ ´
n
−n 2m+n−2 Γ 2
gX (u) = f (u) = s π 2 r 2s ³ ´ tm−1 exp(−r us ), (2.25)
2m+n−2
Γ 2s
la que forma parte de distribuciones Elı́pticas. A su vez, esta familia incluye a la distribución
t-multivariada. Recuerde que si X ∼ Nn (0, Σ), Σ > 0 e Y ∼ χ2 (m), X e Y independientes.
√
Entonces, la distribución de T = ( m X)/Y se denomina distribución t-multivariada (John-
son and Kotz [47]) y es un caso especial de (5.25) cuando m = (n + s)/2. Cuando m = 1, la
correspondiente distribución se llama distribución de Cauchy multivariada.
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 47
d
Se sabe que HX = X, ∀ H ∈ O(n) y que la distribución Uniforme en la esfera unitaria
pertenece a la clase de distribuciones Elı́pticas en IRn . Entonces, X puede representarse
d
estocásticamente como X = R U (n) . Ası́, la densidad de R = kXk es
n
³ ´
n+2
2π 2Γ
2
³ ´ n r n−1 = n r n−1 ; si 0 ≤ r ≤ 1
n
Γ 2 π2
gR (r) = .
0 ; en otro caso
Donde c > 0 es una constante de normalización que varı́a dependiendo de cada distribución,
algunas de las cuales ya se han planteado explı́citamente en los ejemplos anteriores.
d
[Distribución de R2 ] Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X = R U (n) ,
d
donde R = kXk y es independiente de U (n) ∼ Un {EkXk=1 }. Entonces, haciendo uso del
Corolario 5.53 se tiene que
3.1 Introducción
49
50 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
3.2.1 Introducción
es decir, una suma ponderada infinita de densidades χ2 (n + 2k) centradas, cuyos factores de
ponderación vienen dados por una ley de Poisson de parámetro δ = (1/2)µT µ. Esta última
llamada distribución chi-cuadrado no centrada con parámetro de no centralidad dado por
δ = (1/2)µT µ.
donde γ 2 = µT µ = 2δ.
Demostración. Sean X ∼ ECn (µ, In ; f ), con µ ∈ IRn , µ 6= 0 e Y = H X ∼ ECn (ν, In ; f ),
q qP
n
con H ∈ O(n); ν = (kµk 0 . . . 0)T y kµk = (µT µ) = i=1 µ2i . Note que
donde T
y1 − kµk y1 − |µk
T
y 2 y2
(Y − ν) (Y − ν) = . ,
.
.. ..
yn yn
se obtiene que
n
X
(Y − ν)T (Y − ν) = (y1 − kµk)2 + yi2
i=2
n
X
= y12 − 2y1 kµk + kµk2 + yi2
i=2
n
X
= yi2 + kµk2 − 2y1 kµk.
i=1
Ası́, Ã n !
X
gY (Y) = f yi2 2
+ kµk − 2y1 kµk .
i=1
Y1 = r cos φ1
j−i
Y
Yj = r sen φk cos φj ; 1 ≤ j ≤ n − 2
k=1
Ãn−2 !
Y
Yn−1 = r sen φk cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2
k=1
Ãn−2 !
Y
Yn = r sen φk sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞
k=1
∞
X
Yi2 = kY k2 = r2 = U ,
k=0
52 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
De este modo
cuyo jacobiano es
dr 1
J= = √ ,
du 2 u
de modo que
√
gU (u) = gr ( u) |J|
√ 1
= gr ( u) √
2 u
n−1 µ ¶ Zπ ³ ´
2 (u(1/2) )n−1 π 2 1
= ³ ´ f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1
Γ n−1 2 u(1/2)
2 0
n−1 Zπ ³ ´
π 2 n
= ³ ´ u 2 −1 f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1 ; u > 0,
n−1
Γ 2 0
3.2. DISTRIBUCIÓN CHI-CUADRADO GENERALIZADA 53
Z∞ µ ¶
1 n u
= n 1
³ ´ u 2 −1 exp − In du
22 π2 Γ n−1 2
0 2
Z∞ µ ¶
1 n
−1 u
= In n 1
³ ´ u 2 exp − du.
22 π2 Γ n−1 2
2 0
Ası́, finalmente
n
π2 n−1
gU (u) = ³ ´ u
n
2 f (u); u>0
Γ 2
U = YT Y ∼ Gχ2 (n).
Note que la densidad dada en el Teorema 2.79 está expresada en términos de una integral.
En Teng, Fang y Deng [80] puede verse como esta densidad es expresada en términos de las
derivadas de la función f , usando expansión en serie de Taylor de dicha función. A continución
se da la demostración de ese resultado.
[Densidad Gχ2 no centrada en función de las derivadas de f ] Sea U ∼ Gχ2 (n, δ; f ),
1
δ = µT µ y f expandible en serie de Taylor en IR. Entonces, una forma alternativa de
2
expresar la densidad de U es
∞ n
X γ 2k π 2 n
gU (u) = ³ ´ u 2 +k−1 f (2k) (u + γ 2 ); u > 0, (3.5)
n
k=0 k! Γ 2
+k
Demostración. Sea U ∼ Gχ2 (n, δ; f ), con δ = (1/2)µT µ. Entonces su densidad viene dada
por
n−1 Zπ
π 2 n
−1
gU (u) = ³
n−1
´ u 2 f (u + γ 2 − 2u(1/2) γ cos φ) senn−2 φ dφ. (3.6)
Γ 2 0
y = u(1/2) −→ u = y 2 ,
cuyo jacobiano es
dy
J= = 2y,
du
tal que
n−1 Zπ
2π 2
gU (y) = ³ ´ y n−1 f (y 2 + γ 2 − 2 y γ cos φ) senn−2 φ dφ
n−1
Γ 2 0
n−1
2π 2
= ³ ´ y n−1 In ; u > 0, γ 2 = 2δ.
n−1
Γ 2
Zπ
In = f (y 2 + γ 2 − 2y γ cos φ) senn−2 φ dφ
0
Zπ "X
∞
#
al 2 2 l
= (y + γ − 2y γ cos φ) senn−2 φ dφ
l=0 l!
0
π
∞
X al Z
= (y 2 + γ 2 − 2y γ cos φ)l senn−2 φ dφ
l=0 l!
0
√ µ ¶ X
∞
π n−1 γ 2k
= Γ ³ ´ y 2k f (2k) (y 2 + γ 2 )
2 2 k=0 k! Γ k + n
2
56 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
con lo cual
n−1
2π 2
gU (y) = ³ ´ y n−1 In
n−1
Γ 2
√
n−1 µ ¶ X
∞
2π 2 π n−1 γ 2k
= ³ ´ y n−1 Γ ³ ´ y 2k f (2k) (y 2 + γ 2 )
Γ n−1 2 2 k=0 k! Γ k + n
2 2
∞ n
X 2k
γ π 2
= ³ ´ y n+2k−1 f (2k) (y 2 + γ 2 ), u > 0,
n
k=0 k! Γ k + 2
3.3.1 Introducción
X1 √ X1
T =s = nq ,
XT2 X2 XT2 X2
n
cuando X = (X1 XT2 )T tiene una distribución Elı́ptica. La notación ECn+1 (µ, Σ; f ) sigue
siendo válida, tanto bajo singularidad como no singularidad de la distribución, tal como se
menciona anteriormente.
Recuerde que si X = (X1 XT2 )T ∼ Nn+1 (0, In+1 ), con X1 ∈ IR y X2 ∈ IRn , entonces
√ X1
T = nq ∼ t(n)
XT2 X2
3.3. DISTRIBUCIÓN T GENERALIZADA 57
y tiene densidad ³ ´
n n+1
n2 Γ 2 n+1
gT (t) = ³ ´ (n + t2 )− 2 ; t ∈ IR. (3.7)
π (1/2) Γ n2
Análogamente, si X = (X1 XT2 )T ∼ Nn+1 (µ, In+1 ), con X1 ∈ IR y X2 ∈ IRn ; µT = [µ1 0],
µ1 ∈ IR y µ1 6= 0, entonces
√ X1
T = nq ∼ t(n, δ),
XT2 X2
con δ = µ1 y su densidad es
à ! ∞ ³ ´ k
n+k+1
n
n
2 δ 2
X Γ 2
δ k 2 2 tk
gT (t) = ³ ´ n+1 exp − k ; t ∈ IR. (3.8)
Γ n
(n + t2 ) 2 2 k=0 k!(n + t2 ) 2
2
Esta última llamada distribución t no centrada con parámetro de no centralidad dado por
δ = µ1 .
De la misma forma, si X = (X1 XT2 )T ∼ Nn+1 (µ, Σ), con X1 ∈ IR y X2 ∈ IRn ; µ = [µ1 0]T ,
µ1 ∈ IR y µ1 6= 0; Σ ∈ IRn×n y dada por
σ12 0
Σ=
,
0 Σn
la cual coincide con la del caso de una distribución Normal, esto es, Gt(n; f ) ≡ t(n), ∀f .
[Distribución Gt no centrada] Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y
X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces,
√ X1
T = nq ∼ Gt(n, δ; f ),
XT2 X2
tδ
donde δ es parámetro de no centralidad y δ1 = .
(n + t2 )(1/2)
Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈
IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces su densidad es
donde T
x 1 − µ1 x 1 − µ1
n+1
T
x 2 x2 X
(X − µ) (X − µ) = . = (x1 − µ1 )2 + x2i ,
..
..
. i=2
xn+1 xn+1
Z∞ Ãn+1
X
! n
Y
I(n) = h x2i dxk
0 i=2 k=1
3.3. DISTRIBUCIÓN T GENERALIZADA 59
n Z∞
π2 n
= ³ ´
n
h(u) u 2 −1 du
Γ 2 0
n Z∞
π 2 n
= ³ ´
n
f (u + (x1 − µ1 )2 ) u 2 −1 du
Γ 2 0
n Z∞
π 2 n
= ³ ´
n
f (r2 + (x1 − µ1 )2 ) r2( 2 −1) (2r dr)
Γ 2 0
n Z∞
2π 2
= ³ ´
n
f (r2 + (x1 − µ1 )2 ) rn−1 dr
Γ 2 0
Sea l(·) Borel medible tal que, IE(l(X1 , R)) < ∞ y recuerde que
√ X1 √ X1
T = n −→ R= n ,
R T
cuyo jacobiano es
dX1 √ 1
J= = n .
dT R
Entonces
La integral I(n) es válida para toda distribución Elı́ptica y en particular para la distribución
Normal, en cuyo caso
µ ¶
1 u
f (u) = n+1 exp −
(2π) 2 2
3.3. DISTRIBUCIÓN T GENERALIZADA 61
y ası́ se tiene
Z∞ Ã ! Z∞ Ã !
n 1 y2 1 n y2
I(n) = y n+1 exp − dy = n+1 y exp − dy,
(2π) 2 2 (2π) 2 2
0 0
√
x = y 2 −→ y = x,
cuyo jacobiano es
dy 1 1
J= =− √ y |J| = √ ,
dx 2 x 2 x
con lo cual
Z∞ Ã !
1 n y2
I(n) = n+1 y exp − dy
(2π) 2 2
0
Z∞ µ ¶
1 n x 1
= n+1 x 2 exp − √ dx
(2π) 2 2 2 x
0
Z∞ µ ¶
1 n+1
−1 x
= n+1 x 2 exp − dx
2 (2π) 2 2
0
µ ¶
1 n+1 n+1
= n+1 n+1 Γ 2 2
2³ +1 2
´π
2 2
n+1
Γ 2
= n+1 .
2π 2
Finalmente
³ ´
n n+1
2(n π) 2
− n+1
Γ 2
gT (t) = ³ ´
n
(n + t2 ) 2
n 1
+2
Γ 2
2π 2
n
³ ´
n+1
n2 Γ 2 n+1
= ³ ´ (n + t2 )− 2
π (1/2) Γ n2
62 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
3.4.1 Introducción
La distribución F generalizada (GF), al igual que la distribución Gt, juega un papel similar
a la distribución F bajo la teorı́a de Normal. Como ya se mencionó, la distribución GF es la
distribución de
XT1 X1
n XT1 X1
V = Tm = ,
X2 X2 m XT2 X2
n
cuando X = (XT1 XT2 )T tiene una distribución Elı́ptica. La notación ECm+n (µ, Σ; f ) sigue
siendo válida, tanto bajo singularidad como no singularidad de la distribución.
Recuerde que si X = (XT1 XT2 )T ∼ Nm+n (0, Im+n ), con X1 ∈ IRm y X2 ∈ IRn , entonces
n XT1 X1
V = ∼ F (m, n)
m XT2 X2
y su densidad es ³ ´
m+n m n m
Γ 2
m 2 n 2 v 2 −1
gV (v) = ³ ´
m
³ ´
n m+n ; v > 0. (3.12)
Γ 2
Γ 2
(m + nv) 2
Análogamente, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
µ = [µ1 0]T , µ1 ∈ IRm y µ1 6= 0, entonces
n XT1 X1
V = ∼ F (m, n; δ),
m XT2 X2
es decir, una suma ponderada infinita (cuyos factores de ponderación vienen dados por una
ley de Poisson de parámetro δ = (1/2)µT1 µ1 ) de densidades F (m + 2k, n) centradas. Esta
distribución es llamada F no centrada con m g.l. en el numerador, n g.l. en el denominador
y parámetro de no centralidad δ = (1/2)µT1 µ1 .
3.4. DISTRIBUCIÓN F GENERALIZADA 63
Asimismo, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0, entonces
n XT1 X1
V = ∼ F (m, n; δ1 , δ2 ),
m XT2 X2
Esta última es llamada la distribución F doble no centrada con m g.l. en el numerador, n g.l.
en el denominador y parámetros de doble no centralidad δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT2 µ2 .
Por último, se tiene una mayor generalización si X = (XT1 XT2 )T ∼ Nm+n (µ, Σ), con X1 ∈
IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0;
Σ ∈ IR(m+n)×(m+n) , dada por
Σ11 0
Σ= ,
0 Σ22
con Σ11 ∈ IRm , Σ11 > 0, Σ22 ∈ IRm , Σ22 > 0, entonces
n XT1 Σ−1
11 X1
V = ∼ F (m, n; δ1 , δ2 ),
m X2 Σ−1
T
22 X2
la cual coincide con la del caso de una distribución Normal, esto es, GF(n, m; f ) ≡ F (m, n), ∀f .
n XT1 X1
V = ∼ GF(m, m; δ; f ),
m XT2 X2
con δ = (1/2)µT1 µ1 y su función de densidad viene dada por
n+m−1 µ ¶ m−2 µ ¶− m+n
2π
m m 2 2 m 2
gV (v) = ³ ´ ³ ´
n n
v 1+ v
Γ m−1
Γ n n
2 2
π
Z Z∞
(3.14)
µ ¶(1/2)
mv
donde γ ∗ = γ y γ 2 = 2δ.
n + mv
Demostración. Considere la densidad de una distribución F generalizada doble no centrada
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1 Γ n−1 n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ1∗ cos θ + γ12
0 0 0
−2 y γ2∗ cos θ + γ22 ) dy dθ dφ
µ ¶(1/2) µ ¶(1/2) µ ¶−(1/2)
mv n n
donde γ1∗ = γ y γ2∗ = 1+ .
n + mv mv mv
Haciendo γ2 = 0, se obtiene
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n−1 n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ dφ
0 0 0
3.4. DISTRIBUCIÓN F GENERALIZADA 65
π
n+m
−1 µ ¶ m−2 µ ¶− m+n Z
2π m m2 2 m 2
sen n−2
= ³ ´ ³ ´ v 1+ v φ dφ
Γ m−1
Γ n−1 n n n
2 2 0
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
³ ´
n+m
−1 µ ¶ m−2 µ ¶− m+n π (1/2) Γ n−1
2π
m m 2 2 m 2 2
= ³ ´ ³ ´ v 1+ v ³ ´
Γ m−1 Γ n−1 n n 2 2
n Γ n
2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
= ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n n n n
2 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
µ ¶
∗ m v (1/2)
donde γ = γ.
n + mv
Sea V ∼ GF(m, n, δ; f ). Entonces, si δ = 0 la densidad de una distribución F generalizada
no centrada coincide con la densidad de una distribución F centrada.
Note que la densidad dada en el Teorema 4.88 está expresada a través de una integral, en [33] se
puede ver como esta densidad es expresada, usando desarrollo en serie de Taylor, en términos
de las derivadas de la función f . A continuación de da explı́citamente la demostración.
[Densidad GF no centrada en función de las derivadas de f ] Sea V ∼ GF (n, m, δ; f ),
1
con δ = µT1 µ1 y f expandible en serie de Taylor en IR. Entonces una forma alternativa de
2
expresar la densidad de V viene dada por
m+n µ ¶ m−2 µ ¶− m+n
2π m
2 m 2 m 2
gV (v) = ³ n ´ v 1+ v
Γ n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
(3.22)
Z∞
gV (v) = c(m, n; v) y m+n−1 T (y) dy,
0
donde n+m
−1 µ ¶ m−2 µ ¶−(1/2)(m+n)
m m 2π 2 2 m
c(m, n; v) = ³ m−1 ´ ³ n ´ v 1+ v ,
Γ Γ n n n
2 2
de modo que
Zπ
T (y) = senm−2 θ f (y 2 − 2γ1 y cos θ + γ 2 ) dθ,
0
Ası́, finalmente,
m+n 1
−2 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (u) = ³ ´ ³ ´ v 1+ v (3.23)
Γ m−1
Γ n n n n
2 2
Z∞ µ ¶ X
∞
m+n−1 (1/2) m−1 γ 2k
y π Γ ³ ´ y k f (2k) (u + γ 2 ) (3.24)
dy
2 k=0 k! Γ k + n
0 2
m+n µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
= ³ ´ v 1+ v (3.25)
Γ n n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy; u > 0,(3.26)
k=0 k! Γ k + 2 0
RESULTADOS
69
Chapter 4
4.1 Introducción
En este capı́tulo se encuentra la densidad de una vector aleatorio Elı́ptico singular siguiendo el
argumento propuesto en Rao [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas
asociadas a este vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la
distribución Elı́ptica afecta los grados de libertad de tales distribuciones. Posteriormente, se
utilizan dos distribuciones Elı́pticas singulares especı́ficas, como lo son la Pearson tipo VII y la
de tipo Kotz, hallando ası́ explı́citamente las densidades de estas distribuciones. Finalmente,
se tratan dos aplicaciones de la distribución Elı́ptica singular. La primera de ellas relacionada
con la distribución de los residuos de un modelo lineal Elı́ptico y la segunda relacionada con
el estadı́stico t generalizado, basado en una muestra obtenida desde una población Elı́ptica.
Tal como se mencionó anteriormente, si X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ ≥ 0,
es decir, rk Σ = r < n, entonces X tiene una distribución Elı́ptica singular. A continuación se
halla explı́citamente la densidad de X de forma análoga al caso de una distribución Normal
singular, tal como en [69, p. 527] y [25].
71
72 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
y
N T X = N T µ, con probabilidad 1, (4.2)
r −
lo cual se denotará por X ∼ ECn (µ, Σ; f ), donde Σ es un inverso generalizado simétrico de Σ,
los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) ≡ {N ∈ IRn×(n−r) /N T N = I(n−r) },
la variedad de Stiefel, tal que N T Σ = 0.
y sea la transformación
T T
W B B X
Y= = X = ,
Z NT N X
E(Z) = E(N T X) = N T µ
y
Cov(Z) = N T Cov(X) N = N T c0 Σ N = c0 N T Σ N = 0,
es decir,
N T (X − µ) = 0, con probabilidad 1. (4.5)
E(W) = B T µ y V ar(W) = c0 B T Σ B,
esto es,
W ∼ ECr (B T µ, B T Σ B; f ),
Ası́, la función de densidad conjunta de (W, Z) o la de X, está definida por (7) y (8). Alter-
nativamente, observe que
r
Y
1. |B T Σ B| = |Dr | = λi , donde Dr es una matriz diagonal, cuyos elementos de su
i=1
diagonal son los λi , los valores propios no nulos de Σ.
2. Como
Dr 0 T
Σ = Q Q ,
0 0
entonces
− Dr−1 0 T Dr−1 0 B T
−1 T
Σ = Q Q = (B N ) = B Dr B .
T
0 0 0 0 N
y
N (XT − µ) = 0, con probabilidad 1. (4.9)
respectivos planos; sin embargo, lo importante de este resultado es que, aun cuando
la densidad no es única, la probabilidad de un evento se calcula a partir de cualquier
representación de esta densidad y coincide cualquiera sea ella.
15cm6cmd:/aapoyovl/seminary/eliptica/graf1y2.bmp
15cm6cmd:/aapoyovl/seminary/eliptica/graf3y4.bmp 10cm6cmd:/aapoyovl/seminary/eliptica/gra
Dos distribuciones Elı́pticas especı́ficas son la distribución de Pearson tipo VII y la de tipo
Kotz, las que a su vez contienen a las distribuciones t-multivariada, cuando m = (r + s)/2,
y Normal multivariada, cuando m = 1, s = 1/2 y t = 1, respectivamente. Ası́, por Gupta y
Varga [39] y el Teorema 2.91, se presentan a continuación ambas distribuciones para el caso
de un distribución Elı́ptica singular.
Sea X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Ası́, si su
densidad viene dada por
à r ! − −m
Y −1 Γ(m) (X − µ)T Σ (X − µ)
2
λi r
³ ´ 1 +
i=1 (πs) 2 Γ m − 2r s
y
N T (X − µ) = 0, con probabilidad 1,
entonces X tiene una distribución de Pearson tipo VII singular de rango r con parámetros
−
m > r/2 y s > 0, donde Σ es un inverso generalizado simétrico de Σ, los λi son los valores
propios no nulos de Σ y N ∈ Vn,(n−r) , tal que N T Σ = 0.
Sea X ∼ ECnr (µ,Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Ası́, si su
densidad viene dada por
à r ! ³ ´ "
2m+r−2
Y −1/2 t s 2t Γ 2r µ ¸t !
− m−1 −
λi r
³ ´ (X − µ)T Σ [(X − µ)] exp −s (X − µ)T Σ (X − µ)
2m+r−2
i=1 π2 Γ 2t
y
N T (X − µ) = 0, con probabilidad 1,
−
U = XT Σ X ∼ Gχ2 (r, δ; f ),
−
con δ = (1/2)µT Σ µ.
78 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
− − −
δ = (1/2)µT Q Q µ = (1/2)µT Σ µ.
−
El resultado es inmediato, ya que kYk2 = XT Σ X.
. Sea X con distribución de Pearson tipo VII singular de rango r. Entonces, U =
−
XT Σ X ∼ Gχ2 (r, δ; f ) tiene densidad
r ∞
sm− 2 Γ(m) X (m)2k r
gU (u) = ³ ´ ³ ´ γ 2k u 2 +k−1 (s + u + γ 2 )−2k−m ; u > 0, (4.12)
r r
Γ m− 2 k=0 k! Γ 2
+k
−
donde γ 2 = 2δ = µT Σ µ.
y por tanto
Γ(m)
f (2k) (u) = r
³
r
´ sm−r/2 (m)2k (s + u)−m−2k ,
π Γ m−
2
2
−
. Sea X con distribución de tipo Kotz singular de rango r. Entonces, U = XT Σ X ∼
Gχ2 (r, δ; f ) tiene densidad
2m+r−2
³ ´
r
ts 2t Γ 2
gU (u) = ³
2m+r−2
´
Γ 2t
∞ X
∞ r
X 2k
γ (−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k
³
r
´ ,
k=0 z=0 k! (k + 2k)! Γ 2
+k
(4.13)
−
donde u > 0 y γ 2 = 2δ = µT Σ µ.
Ası́, finalmente,
2m+r−2
³ ´
r
ts 2t Γ 2
gU (u) = ³
2m+r−2
´
Γ 2t
∞ ∞ r
X X 2k γ (−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k
³
r
´ ,
k=0 z=0 k! (k + 2k)! Γ 2
+k
−
con u > 0 y γ 2 = 2δ = µT Σ µ.
80 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0 ]T ,
q
µ1 ∈ IR y µ1 6= 0. Entonces, T = (X1 / (XT2 X2 )/n tiene una distribución t generalizada no
centrada, denotado por T ∼ Gt(n, δ; f ), con δ = µ1 y su función de densidad es
n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy; t ∈ IR, (4.14)
Γ 2 0
1
donde δ es el parámetro de no centralidad y δ1 = (tδ)/((n + t2 ) 2 ) (vea [32, p. 85]).
√ X1
T = rq −
∼ Gt(r, δ; f ),
XT2 Σ X2
con δ = µ1 /σ1 .
(r+1)
Demostración. Sea X = (X1 XT2 ) ∼ EC(n+1) (µ, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn ,
σ12 0
T (n+1)×(n+1)
µ = [µ1 0] y µ1 ∈ IR, µ1 =
6 0; Σ = ∈ IR .
0 Σn
Factorice Σn = Q QT , tal que Q ∈ IRn×r , con rk Q = r < n, de modo que
σ1−1 0 σ1−1
X1 Y1
Y=
− ·X = = .
−
0 Q Q X2 Y2
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS 81
luego
√ Y1 √ X1 √ X1
T = rq = rq − −
= r q ∼ Gt(r, δ; f ),
Y2T Y2 T T −
(Q X2 ) (Q X2 ) X2 Σn X2
con δ = µ1 /σ1 .
Sea X = (X1 XT2 ) con distribución de Pearson tipo VII singular de rango (r+1). Entonces,
√ X1
T = rq −
∼ Gt(r, δ; f ),
XT2 Σ X2
tiene densidad
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ
2
2
Γ m− 2
r−2m−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) r+k+1 2m+k−r−1
X k 1 2 )Γ 2
Γ 2
,
k=0 k! sk Γ (m + k)
(4.15)
Ası́, si T ∼ Gt(r, δ; f )
r Z∞ " #−m
2 r 2 Γ(m) 2 − r+1 y 2 − 2δ1 y + δ 2
gT (t) = r
³ ´ ³ ´ (r + t ) 2 1+ y r dy,
s Γ m−
2
r
Γ r s
2 2 0
con δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Entonces, usando el desarrollo en serie dado en [1, p. 85],
se tiene que
" #−m ∞
à !k à !−k−m
y 2 − 2δ1 y + δ 2 X (−m)k −2 δ1 y y2 + δ2
1+ = 1+ ,
s k=0 k! s s
82 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
con lo cual
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
1+ dy.
s + δ2 s + δ2
0
y2 q
u= =⇒ y= u (s + δ 2 ),
s + δ2
cuyo jacobiano es ¯ ¯
¯ dy ¯ (s + δ 2 )1/2
¯ ¯
J = ¯¯ ¯¯ = ,
du 2 u1/2
de donde, finalmente
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
r−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) −m r+k+1 2m−r+k−1
X k 1 2 Γ 2
Γ 2
k=0 k! sk Γ(k + m)
. Sea X = (X1 XT2 ) con distribución de tipo Kotz singular de rango r, con m = 2 y s = 1.
Entonces,
√ X1
T = rq −
∼ Gt(r, δ; f )
XT2 Σ X2
tiene densidad
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2
∞
" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
r+2k+1 2
− 2δ1 + δ2 ,
k=0 k! (2s δ1 ) (2s δ1 ) 2s δ1
(4.16)
r r
Considere el caso en que m = 2 y t = 1, con lo cual f (u) = ((2 s 2 +1 )/r) π 2 u exp(−s u), lo
que conduce a
r
2(rπ) 2 r+1
gT (t) = ³ ´ (r + t2 )− 2
r
Γ 2
Z∞ r
2 s 2 +1 2
r (y − 2δ1 y + δ 2 ) exp(−s (y 2 − 2δ1 y + δ 2 )) y r dy.
r π2
0
∞
" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2 s δ1
Sea X = (XT1 XT2 ) ∼ EC(m+n) (µ, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 0]T ,
µ1 ∈ IRm y µ1 6= 0. Entonces, V = (n/m)((XT1 X1 )/(XT2 X2 )) tiene una distribución F
generalizada no centrada, denotado por F ∼ GF(m, n, δ; f ), cuya densidad es
m+n−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ m−1 ´ ³ n ´ v 1+ v
Γ Γ n n n
2 2
Zπ Zπ
senm−2 θ y m+n−1 f (y 2 − 2δ1 y cos θ + δ 2 ) dθ dy; u > 0,
0 0
(4.17)
donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-ésima derivada de f (·), tal como puede verse
en [33].
(r +r )
Sea X = (XT1 XT2 )T ∼ EC(m+n)
1 2
(µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
h iT Σ11 0
µ = µT1 0 , µ1 ∈ IRm , µ1 6= 0; Σ = ∈ IR
(m+n)×(m+n)
, Σ11 ∈ IRm×m y
0 Σ22
n×n
rk Σ11 = r1 < m, Σ22 ∈ IR y rk Σ22 = r2 < n. Entonces,
−
r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22
−
con δ = (1/2)µT1 Σ11 µ1 .
(r +r )
Demostración. Sea X = (XT1 XT2 ) ∼ EC(m+n)
1 2
(µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ;
h iT
Σ11 0
µ = µT1 0 , µ1 ∈ IRm y µ1 6= 0; Σ = ∈ IR(m+n)×(m+n) , Σ11 ∈ IRm×m y
Σ220
n×n
rk Σ11 = r1 < m, Σ22 ∈ IR y rk Σ22 = r2 < n. Considere, además, la descomposición
Σ11 = Q1 QT1 y Σ22 = Q2 QT2 , de modo que
− −
Q1 0 X1 Q1 X1 Y1
Y=hX=
− = − = .
0 Q2 X2 Q2 X2 Y2
h iT
Entonces, Y = (Y1T Y2T ) ∼ EC(r1 +r2 ) (ν, Ir1 +r2 ; f ), con Y1 ∈ IRr1 y Y2 ∈ IRr2 ; ν = ν1T 0 ,
−
ν1 ∈ IRr1 y ν1 = Q1 µ1 6= 0; luego
−
r2 Y1 Y1 r2 XT1 Σ11 X1
V = = ∼ GF(r1 , r2 ; δ; f ),
r1 Y2T Y2 r1 XT Σ− X2
2 22
4.4. APLICACIONES 85
− −
con δ = (1/2)(ν1T ν1 ) = (1/2)(µT1 Σ11 µ1 ) y Σii , i = 1, 2 es un inverso generalizado simétrico.
4.4 Aplicaciones
En esta sección se aplica la distribución Elı́ptica singular a la distribución de los residuos de un
modelo lineal Elı́ptico y a la distribución del estadı́stico t generalizado, basado en un muestra
obtenida desde una población Elı́ptica, .
Y = Xβ + ²,
Y ∼ ECn (Xβ, σ 2 In ; f ),
−
e ∼ ECn(n−p) (0, σ 2 (I − XX ); f ),
donde σ02 = c0 σ 2 , c0 = −2φ0 (0), φ(·) está dado en (2.2.1) y σ 2 es el parámetro de escala de la
distribución de e.
− −
rk(distribución) = rk(Cov(e)) = rk(Cov((I − XX )Y)) = rk(σ02 (I − XX )) = n − p,
Asimismo,
− −
T(I − XX ) 1 − 1 − 1
e 2
e = 2 YT (I − XX )Y = 2 ||(I − XX )Y||2 = 2 (YT Y − β̂ T XYT ) = eT e,
σ σ σ σ
donde
eT e
∼ Gχ2 (n − p; f ).
σ2
De la expresión anterior, ahora note que la suma de cuadrados debido al modelo, YT Xβ̂ es
tal que
− − − −
YT Xβ̂ = YT XX Y = YT (XX )T (XX )Y = ||XX Y||2 ,
con
− −
XX Y ∼ ECnp (Xβ, σ 2 XX ; f ),
pues
− −
E(XX Y) = XX Xβ = Xβ,
− − − −
Cov(XX Y) = XX σ02 I(XX )T = σ02 XX
y
− −
rk[Cov(XX Y)] = rk(XX ) = rk(X) = p,
por lo tanto
− −
T (XX )(XX )
− YT Xβ̂
(Y XX ) 2
Y = 2
∼ Gχ2 (p, δ; f ),
σ σ
4.4. APLICACIONES 87
Tabla 2 Formas explı́citas de los Intervalos de Confianza del 100(1 − α)% el parámetro de
escala de la distribución del vector de residuos para las distribuciones Elı́pticas que se
especifican.
eT e
Ley Elı́ptica Distribución de U = IC100(1−α)% (σ 2 )
σ2
2m−n+p 2m−n+p T
s(n − p) s(n−p) eT e s(n−p) e e
Pearson VII U= Y ,
2m − n + p F1− α2 (n − p, 2m − n + p) F α2 (n − p, 2m − n + p)
Y ∼ F(n − p, 2m − n + p)
à !
eT e/(n − p) eT e/(n − p)
t-multivariada U = (n − p)Y ,
F1− α2 (n − p, s) F α2 (n − p, s)
Y ∼ F(n − p, s)
eT e eT e
Tipo Kotz U = Y 1/t ,
(Γ1− α2 (s, 2m+n−p−2
2t ))1/t (Γ α2 (s, 2m+n−p−2
2t ))1/t
Y ∼ Γ(s, 2m+n−p−2
2t )
eT e eT e
Normal U ∼ χ2 (n − p) ,
χ21− α (n − p) χ2α (n − p)
2 2
√ X̄
T = n ∼ Gt(n − 1, δ; f ), (4.19)
S
n
X n
X
donde X̄ = Xi /n y S 2 = (Xi − X̄)2 /(n − 1) y δ = µ/σ es el parámetro de no centralidad
i=1 i=1
de la distribución Gt no centrada con (n − 1) g.l.
esto es, Y tiene una distribución Elı́ptica singular; para ver esto observe que
1
1n T µ/σ
nσ
E(Y) = E(A X) = A µ 1n =
µ 1n =
.
1 µ
D D 1n
σ σ
se obtiene que
1/n 0 1 0
ΣY =
= .
0 ΣY2 0 D
4.4. APLICACIONES 89
− −
Finalmente, observe que ΣY = D = D, Ası́, T se puede escribir como
2
1 1 T
√ Y1 √ 1n T X √ 1n X √ X̄
T = nv = nv nσ = nvn = n ,
u uµ ¶T µ ¶ u T S
u T − u 1 − 1 uX D X
u Y2 ΣY Y2 u D X ΣY DX t
t 2 u
t σ 2 σ (n − 1)
(n − 1)
(n − 1)
√
con lo cual, por el Teorema 3.99, se obtiene queT = n X̄/S ∼ Gt(n−1, δ; f ), donde δ = µ/σ.
90 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
Chapter 5
Distribuciones Gt y GF Doble No
Centrada
5.1 Introducción
La distribución t doble no centrada bajo una distribución Normal ha sido estudiada en [9],
mientras que la distribución F doble no centrada ha sido estudiada en [81]. Esta última
distribución ha sido utilizada para calcular la potencia de la prueba de interacción de efectos
en el modelo de análisis de varianza a dos criterios de clasificación con una observación por
celda (vea [10]). Del mismo modo, la distribución F doble no centrada se ha utilizado para
91
92 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
calcular la probabilidad del error de señales binarias de recepción multicanal adaptiva (vea
[67]). Por otra parte, estas distribuciones doble no centradas han sido también aplicadas
a problemas de comunicación, en señales capturadas a través de radar, y en patrones de
reconocimiento, donde se involucran operaciones con formas cuadráticas basadas en datos
normales (vea [82], [48], [75] y [87]).
En este capı́tulo se presentan las distribuciones t y F generalizadas, tanto para el caso cen-
trado, no centrado y doble no centrado, y bajo singularidad y no singularidad de la distribución
Elı́ptica asociada, en cuyo caso la singularidad de la distribución afecta los grados de libertad
de las distribuciones t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas
centradas, se usa la invarianza de tales distribuciones bajo leyes Elı́pticas con parámetro de
posición igual a cero, coincidiendo con las del caso Normal. Para las distribuciones F gen-
eralizadas no centrada y doble no centrada, se presentan sus densidades tanto en términos
de integrales como de las derivadas de la función generadora de densidades asociada a cada
distribución Elı́ptica, y por ende de cada distribución GF. En el caso de la distribuciones
t generalizadas no centrada y doble no centrada no es posible obtener esta representación,
por lo que su densidad sólo se expresa a través de integrales. Finalmente se ilustran todos
estos resultados para dos subfamilias de distribuciones Elı́pticas, como lo son la distribución
de Pearson tipo VII y la distribución de tipo Kotz, subfamilias que a su vez contienen como
casos particulares a las distribuciones Elı́pticas t y Normal multivarian-tes, respectivamente.
En esta ilustración y para el caso de la distribución GF, se observa la evidente simplificación
que se produce al usar la densidad en términos de la derivada de la gene-radora de densidades
en lugar de la expresión integral. Sin embargo, se debe tener presente que la aplicación de
este resultado es sólo posible cuando la generadora de densidades, asociada a la particular dis-
tribución Elı́ptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribución. Como no todas las distribuciones Elı́pticas
disponen de momentos, como por ejemplo la distribución de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 93
Tal como se mencionó, la distribución Gt es la distribución t obtenida bajo una ley Elı́ptica.
En esta sección se presentan las distribuciones Gt centrada, no centrada y doble no centrada,
obtenidas bajo una distribución Elı́ptica singular y no singular.
X1 √ X1
T =q = nq , (5.1)
(XT2 X2 )/n XT2 X2
cuando X = (X1 XT2 )T ∈ IRn+1 sigue una distribución Elı́ptica, con X1 ∈ IR y X2 ∈ IRn .
Ası́, haciendo uso de la invarianza de la distribución Gt bajo leyes Elı́pticas con parámetro de
posición igual a cero (vea [32, p. 67]), esto es, X = (X1 XT2 )T ∼ ECn+1 (0, Σ; f ), con X1 ∈ IR
y X2 ∈ IRn , Σ ∈ IRn , Σ > 0, se obtiene que
√ X1
T = nq ∼ Gt(n; f ), (5.2)
XT2 Σ−1 X2
la cual coincide con la del caso Normal, esto es, Gt(n; f ) ≡ t(n), ∀f .
√ X1
T = nq ∼ Gt(n, δ; f ), (5.3)
XT2 Σ−1
n X2
Finalmente,
√ Y1 √ X1 √ X1 µ
T = nq = n q −1 = nq ∼ Gt(n, δ; f ), δ = .
Y2T Y2 −1
(Q X2 )T (Q X2 ) XT2 Σn X2
−1 σ
De forma análoga al caso no singular (Σ > 0), también es posible obtener la distribución Gt
no centrada bajo una distribución Elı́ptica singular, esto es, cuando X ∼ ECnr (ν, Σ; f ), donde
r < n es el rango de Σ (Σ ≥ 0). Esta singularidad afecta los g.l. de la distribución Gt, tal
como se verá a continuación.
h iT
r+1
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ 0T y
2
σ 0
µ ∈ IR, µ 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ = , Σn ∈ IR
n×n
y rk Σn = r < n. Entonces,
0 Σn
√ X1
T = nq −
∼ Gt(r, δ; f ), (5.5)
XT2 Σn X2
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 95
−
con parámetro de no centralidad δ = µ/σ y Σ es un inverso generalizado simétrico de Σ.
−1 − −
Demostración. Es análoga a la del Teorema 1, reemplazando Q por Q , donde Q es un
− − −
inverso generalizado simétrico de Q, con lo cual Σn = Q Q y con rk Σn = r < n. De este
modo, la distribución Gt no centrada tiene r g.l. y el mismo parámetro de no centralidad
dado en (6).
A continuación se estudia la distribución Gt bajo una distribución de Pearson tipo VII singular.
[Gt bajo una ley de Pearson tipo VII] Sea X = (X1 XT2 )T con distribución de Pearson tipo
VII singular de rango r + 1. Entonces,
√ X1
T = nq −
∼ Gt(r, δ; f ),
XT2 Σ X2
tiene densidad
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ
2
2
Γ m− 2
r−2m−k−1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) r+k+1 2m+k−r−1
X k 1 2 )Γ 2
Γ 2
,
k=0 k! sk Γ (m + k)
(5.6)
Ası́, como
r Z∞
2(rπ) 2 r+1
gT (t) = ³ ´ (r + t2 )− 2 f (y 2 − 2δ1 y + δ 2 ) y r dy; t ∈ IR,
r
Γ 2 0
96 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
tδ
con δ = µ1 y δ1 = 1 , entonces
(r + t2 ) 2
r Z∞ " #−m
2(rπ) 2 2 − r+1 Γ(m) y 2 − 2δ1 y + δ 2
gT (t) = ³ ´ (r + t ) 2
r+k
³ ´ 1+ y r dy
Γ r
(πs) 2 Γ m− r s
2 0 2
r Z∞ " #−m
2 r Γ(m)2
2 − r+1 y 2 − 2δ1 y + δ 2
= r
³ ´ ³ ´ (r + t ) 2 1+ y r dy,
s Γ m−
2
r
Γ r s
2 2 0
usando el desarrollo en serie dado en Anderson y Fang [1, pág. 85], se tiene
" #−m ∞
à !k à !−k−m
y 2 − 2δ1 y + δ 2 X (−m)k −2 δ1 y y2 + δ2
1+ = 1+ ,
s k=0 k! s s
tal que
r
2 r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
Z∞ X
∞
à !k à !−k−m
(−m)k −2 δ1 y y2 + δ2
1+ y r dy
k=0 k! s s
0
r
2 r 2 Γ(m) r+1
= r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
∞ Ã !−k−m
∞
X (−m)k (−2 δ1 )k Z (s + δ 2 ) + y 2
y r dy
k=0 k! sk s
0
r ∞
2 r Γ(m)2 r+1 X (−m)k (−2 δ1 )k
= r
³ ´ ³ ´ (r + t2 )− 2
s2 Γ m − r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
r+k
(s + δ 2 )−(k+m) 1+ (s + δ 2 ) 2 dy
s + δ2 s + δ2
0
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
= r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
1+ dy.
s + δ2 s + δ2
0
cuyo jacobiano es
1
dy (s + δ 2 ) 2
J= = 1 ,
du 2u 2
con lo cual
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
1
Z∞
(s + δ2) 2
du
r+k
(1 + u)−k−m u 2 1
0 2 u2
r ∞
r Γ(m)
2 r+1 X (−m)k (−2 δ1 )k r−k+1
= r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞
r+k+1 r+k+1 2m−r+k−1
−1
u 2 (1 + u)− 2
− 2 du
0
r
r Γ(m)
2 r+1
= r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
r−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) −m n+k+1 2m−r+k−1
X k 1 2 Γ 2
Γ 2
k=0 k! sk Γ(k + m)
√ X1
T = nq −
∼ Gt(r, δ; f ),
XT2 Σ X2
tiene densidad
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2
∞
" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2s δ1
98 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
(5.7)
se obtiene finalmente
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2
∞
" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2 s δ1
tδ
con δ = µ1 y δ1 = 1 .
(r + t2 ) 2
Finalmente,
√ Y1 √ X1 √ X1
T = nq = n q −1 = nq ∼ Gt(n, δ, γ; f ),
Y2T Y2 −1
(Q X2 )T (Q X2 ) XT2 Σ−1
n X2
−1
donde δ = µ/σ y γ = (1/2) µTn Σn µn .
√ X1
T = nq −
∼ Gt(r, δ, γ; f ), (5.9)
XT2 Σn X2
−
con parámetros de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn .
−1 −
Demostración. Es análoga a la del Teorema 2.113, reemplazando Σn por Σn y considerando
que rk Σn = r < n, con lo cual la distribución Gt doble no centrada tiene r g.l. y parámetros
−
de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn .
La distribución GF, al igual que la distribución Gt, juega un papel similar a la distribución
F bajo la teorı́a de inferencia Normal, y corresponde a la distribución de
à ! ,à !
XT1 X1 XT2 X2 n XT1 X1
V = = , (5.10)
m n m XT2 X2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 101
cuando X = (XT1 XT2 )T ∈ IRm+n , con X1 ∈ IRm y X2 ∈ IRn , sigue una distribución Elı́ptica.
De la misma forma que en el caso de la distribución Gt, se usa la invarianza de la distribución
GF bajo leyes Elı́pticas con parámetros de posición igual a cero y de escala igual a la identidad
(vea [32, p. 67]), se obtiene que si X = (X1 XT2 )T ∼ ECm+n (0, In+1 ), con X1 ∈ IRm y
X2 ∈ IRn , entonces
n XT1 X1
V = ∼ GF(m, n; f ), (5.11)
m XT2 X2
la cual coincide con la del caso de una distribución Normal, esto es, GF(m, s; f ) ≡ F (m, n), ∀f .
n XT1 Σ−1
m X1
V = T
∼ GF(m, n; δ; f ), (5.12)
m X2 Σ−1
n X2
−1 −1
P 0 X1 P X1 Y1
Y=HX= −1
= −1
= .
0 Q X2 Q X2 Y2
h iT
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (η, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; η = ζ T 0T ,
−1
ζ ∈ IRm y ζ = P µ 6= 0.
102 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Finalmente,
−1
n Y1T Y1 n XT1 Σm X1
V = = ∼ GF(m, n; δ; f ),
m Y2T Y2 m XT2 Σ−1
n X2
−1
con δ = (1/2) ζ T ζ = (1/2) µT Σm µ.
Zπ
de modo que T (y) = senm−2 θ f (y 2 − 2ηy cos θγ 2 ) dθ puede expresarse de la forma
0
µ ¶ X
∞
1/2 m−1 γ 2k
T (y) = π Γ ³ ´ y k f (2k) (u + γ 2 ).
2 k=0 k! Γ k + n
2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 103
Ası́, finalmente,
m+n µ ¶ m−2 µ ¶− m+n
2π m
2 m 2 m 2
gV (u) = ³ ´ v 1+ v
Γ n n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy; u > 0,
k=0 k! Γ k + 2 0
tiene densidad
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2 Γ(m) sm− r1 2 r1 2 r1 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m − r1 +r
2
2
Γ r22 r2 r2 r2
∞
X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´
r2
(s + γ 2 )r1 +r2 −m−k ; v>0
k=0 k! Γ 2
+k Γ(m + 2k)
(5.16)
−
donde γ 2 = 2δ = µT1 Σ11 µ1 .
Demostración. Sea X con distribución de Pearson tipo VII singular de rango r1 + r2 y
r1 + r2
parámetros m > y s > 0. Entonces
2
· ¸−m
Γ(m) u
f (u) = r1 +r2 ³ ´ 1+
(πs) 2 Γ m− r1 +r2 s
2
y
Γ(m)
f (2k) (u) = r1 +r2 ³ ´ sm (m)2k (s + u)−m−2k .
r1 +r2
(π s) 2 Γ m− 2
Ahora, como
−
r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22
−
con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π 2 r1 r1 2 r1 2
gV (v) = ³ ´ v 1+ v
Γ r2 r2 r2 r2
2
∞ Z∞
X γ 2k
³
r2
´ y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy, v > 0,
k! Γ +k 0 k=0 2
2 T (2k)
donde γ = 2δ = µ µ y f (·) es la 2k-ésima derivada de f (·).
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X
∞
2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞
y r1 +r2 +k−1 (s + y + γ 2 )−m−2k dy
0
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X
∞
2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !−m−2k
y 2 r1 +r2 +k−1 2 −m−2k y
(s + γ ) (s + γ ) 1+ dy
s + γ2 s + γ2
0
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X
∞
2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !−(m+2k)
2 r1 +r2 −m−k y y
(s + γ ) 1+ (s + γ 2 )−1 dy,
s + γ2 s + γ2
0
con v > 0.
Z∞
u(r1 +r2 +k)−1 (1 + u)−(r1 +r2 +k)−(m+k−r1 −r2 du
0
y de esta manera
Z∞ Ã !r1 +r2 +k−1 Ã !−m−2k
y y
1+ (s + γ 2 )−1 dy =
s + γ2 s + γ2
0
Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
Γ(m + 2k)
y ası́ finalmente
106 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π 2 Γ(m) r1 r1 2 r1 2
gV (v) = r1 +r2 ³ ´ ³ ´ v 1+ v
(π s) 2
r1 +r2
Γ m− 2 Γ 2 r2
r2 r2 r2
∞
X γ 2k sm (m)2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´ (s + γ 2 )r1 +r2 −m−k ,
k=0 k! Γ r2
+k Γ(m + 2k)
2
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2 Γ(m) sm− r1 2 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r1 +r2
Γ m− 2 Γ 2 r2
r2 r2 r2
∞
X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´
r2
(s + γ 2 )r1 +r2 −m−k ,
k=0 k! Γ 2
+k Γ(m + 2k)
con v > 0.
tiene densidad
2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
gV (v) = ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2(r1 +r2 +t(z+2k)+m−1) (−s)2(k+1)
³ ´
k=0 z=l−2k=0 k! (z + 2k)! Γ r22 + k
Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k))
; v > 0,
Γ(2k + 1 − m − t(z + 2k))
(5.17)
−
donde γ 2 = 2δ = µT1 Σ11 µ1 .
y
2m+r−2
³ ´
r1 +r2
ts 2t Γ 2
∞
X(t(z + 2k) + m − 1)2k ut(z+2k)+m−1−2k
f (2k) (u) = r1 +r2 ³ ´ .
π 2 Γ 2m+r1 +r2 −2
z=l−2k=0 (−s)−2(k+1) (z + 2k)!
2t
Ahora, como
−
r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22
−
con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π r1 2 r1 2 r1 2
gV (v) = ³ ´ v 1+ v
Γ r2 r2 r2 r2
2
∞ Z∞
X γ 2k
³
r2
´ y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
donde γ 2 = 2δ = µt µ y f (2k) (·) es la 2k-ésima derivada de f (·).
2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞
r1 +r2 +k−1
y (y + γ 2 )t(z+2k)+m−1−2k dy.
³ ´ 0
2m+r−2
2ts Γ r1 +r 2 µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
Γ r22 Γ 2m+r12t+r2 −2 r2 r2 r2
108 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞ Ã !r1 +r2 +k−1
y
γ 2(r1 +r2 +k−1) γ 2(t(z+2k)+m−1−2k) (1 + y)t(z+2k)+m−1−2k dy
γ2
0
2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !t(z+2k)+m−1−2k
2(r1 +r2 +t(z+2k)+m−1−k) y y
γ 1+ 2 γ −2 dy.
γ2 γ
0
T −1 −1
con parámetros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn .
h iT
Demostración. Sea X = (X1 X2 )T ∼ ECm+n (ν, Σ; f ), con ν ∈ IRm+n , ν = νm
T T
νn ,
Σm 0
νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ =
, rk Σm = m,
0 Σn
Σn ∈ IRn×n y rk Σn = n. Considere la descomposición Σm = P PT y Σn = Q QT , de modo
que
−1 −1
P 0 X1 P X1 Y1
Y=HX= −1
= −1
= .
0 Q X2 Q X2 Y2
h iT
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn ,
−1 −1
µm ∈ IRm , µm = P νm 6= 0, µn ∈ IRn y µn = Q νn 6= 0.
Finalmente,
−1
n Y1T Y1 n XT1 Σm X1
V = = ∼ GF(m, n; δ, γ; f ),
m Y2T Y2 m XT2 Σ−1
n X2
−1 −1
T
con δ = (1/2) µTm µm = (1/2) νm Σm νm y γ = (1/2) µTn µn = (1/2) νnT Σn νn .
Sea V ∼ GF(m, n; δ, γ; f ). Entonces, la densidad de V es
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ m−1 ´ ³ n−1 ´ v 1+ v (5.19)
Γ Γ n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y η∗ cos θ + η 2 − 2 y ζ∗ cos θ + ζ 2 ) dy dθ dφ,
0 0 0
110 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Demostración. Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ;
h iT
T
ν = νm νnT , νm ∈ IRm , νn ∈ IRn y νm , νn 6= 0. Considere ahora la transformación Y = H X,
con H ∈ O(m + n), de modo que
H1 0 H1 0 X1 H1 X1 Y1
Y=HX=
X= = = ,
0 H2 0 H2 X2 H2 X2 Y2
esto es, Y1 = H1 X1 , H1 ∈ O(m), tal que kY1 k = kH1 X1 k = (XT1 (HT1 H1 ) X1 )1/2 = kX1 k
y Y2 = H2 X2 , H2 ∈ O(n), con kY2 k = kH2 X2 k = (XT2 (HT2 H2 ) X2 )1/2 = kX2 k, de
h iT
manera que Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn ,
µm ∈ IRm , µm = [kνm k 0T ]T , µn ∈ IRn y µn = [kνn k 0T ]T . Ası́
Xm n+m
X
gY (Y) = f ((Y−µ)T (Y−µ)) = f yi2 + kνm k2 − 2kνm k y1 + yi2 + kνn k2 − 2kνn k ym+1 .
i=1 i=m+1
de manera que
donde δ = kνm k, γ = kνn k y |J| es le valor absoluto del jacobiano de la transformación. Ası́
la densidad de (r1 , r2 ) es
m+n
−1
4π 2
gr1 ,r2 (r1 , r2 ) = ³ ´ ³ ´ r1m−1 r2n−1
m−1 n−1
Γ 2
Γ 2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 111
Zπ Zπ
f (r12 + δ 2 − 2δ r1 cos θ1 + r12 + γ 2 − 2γ r2 cos φ1 ) senm−2 θ1 senn−2 φ1 dθ1 d φ1 ; r1 , r2 > 0.
0 0
n r12
Aplicando el cambio de variables w = r y v = , de modo que |J| = (1/2) (n/m)1/2 w v −3/2 ,
m r22
se obtiene que
m+n
−1 µ ¶ n+2
2π 2 n m+n−1 n 2
gV,W (v, w) = ³ ´ ³ ´ w
Γ m−1
Γ n−1 m mv
2 2
Zπ Zπ Ã µ ¶ µ ¶1/2 !
2 n n
f w 1+ − 2 w δ cos θ + δ 2 − 2 w γ cos θ + γ 2
mv mv
0 0
senm−2 θ1 senn−2 φ1 dθ1 dφ1 ;
n r12
con w, v > 0. De este modo, la densidad de V = es
m r22
n+m
−1 µ ¶ n+2 Zπ Zπ Z∞
m n
2π 2 2
gV (v) = ³ ´ ³ ´ senm−2 θ senn−2 φ wm+n−1
Γ m−1 Γ n−1 n m v
2 2 0 0 0
à µ ¶ µ ¶1/2 !
n n
f w2 1+ − 2 w δ cos θ + δ 2 − 2 w γ cos θ + γ 2 dw dθ dφ,
mv mv
− −
T
con parámetros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn .
−1 − −1 −
Demostración. Es análoga a la del Teorema 9, reemplazando Σm por Σm y Σn por Σn ;
considerando además que rk Σm = r < m y rk Σn = s < n, con lo cual la distribución
−
GF no centrada tiene r y s g.l. y parámetros de no centralidad δ = (1/2) µTm Σm µm y
−
γ = (1/2) µTn Σn µn .
Chapter 6
6.1 Introducción
Se sabe que las medidas de dispersión se utilizan para evaluar la variabilidad de un conjunto
de datos, siendo la desviación estándar la más utilizada. Sin embargo, ésta entrega poca
información de la variabilidad del conjunto si es interpretada en forma aislada, sólo cuando se
la relaciona con la media su interpretación tiene mayor sentido. Por esta razón el coeficiente
de variación (CV), que relaciona ambas medidas, se emplea habitualmente.
113
114 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
máquina tiene distribución Inversa Gaussiana, entonces dado que la máquina ha sobrevivido a
un tiempo t, la vida media residual excederá la vida media original si el CV de esta población
√
es mayor a 1/ 2. En [13] se demuestra que si la distribución de vida pertenece a la clase-l,
entonces el CV es menor o igual a 1, siendo exactamente 1 cuando la función de distribución es
exponencial. Asimismo, a pesar del limitado uso de la distribución Normal en Confiabilidad,
ésta ha demostrado ser útil modelar datos de vida si µ > 0 y el CV γ = σ/µ es pequeño, con
particular éxito en modelación de la vida de filamentos eléctricos (por ejemplo de ampolletas)
y resistencia de nudos de alambres de circuitos integrados (vea [60, pp. 81-82]). De igual
forma, el gráfico del coeficiente de curtosis versus el CV se emplea para detectar la bondad de
ajuste de distribuciones de vida (vea [60, p.110]), entre otras aplicaciones.
Los primeros resultados distribucionales del CV de una población Normal se remontan a los
estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi cuatro décadas,
en [44] se retoma el tema comparando aproximaciones de percentiles del CV muestral con los
resultados hasta ahı́ propuestos. Posteriormente en [6] se plantea un contraste aproximado
para probar la homogeneidad de coeficientes de variación. En [7] se encuentra un test basado
en el estadı́stico de razón de verosimilitud para contrastar estas mismas hipótesis. Luego en
[63] se propone un nuevo contraste para la igualdad de dos coeficientes de variación, en [30] se
generaliza a k muestras, y en [77] se presentan estudios de simulación de estos contrates. Por
su parte, en [43] se realiza inferencia para el CV de una distribución Inversa Gaussiana. En
[62], y posteriormente en [35], se presentan pruebas de hipótesis asintóticas para el coeficiente
de variación de una, dos y k muestras, junto con estudios de simulación. En [40] se entregan
diversos resultados que permiten probar la igualdad de coeficientes de variación de k muestras
provenientes de poblaciones normales basados en la revisión de contrastes ya conocidos, como
lo son las pruebas de Bennet, de razón de verosimilitud, de la t no centrada, de Wald -la
que extienden a k muestras y para distintos tamaños de éstas- y además presentan un nuevo
contraste basado en la prueba de Score. En [64] se hace inferencia asintótica para el CV
de una población Normal presentando fórmulas para estadı́sticos de prueba, a través de los
cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de los
116 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
resultados planteados para el CV de una población Normal son extendidos en [54] al caso de
una población Elı́ptica.
3. Varianza (si existe) σ02 , proporcional a σ 2 y definida por σ02 = c0 σ 2 , con c0 dado en
(6.2.1).
Para los dos modelos planteados (D e I), la población tendrá coeficiente de variación
generalizado definido por γ = σ/µ, esto es, la raı́z cuadrada del parámetro de escala sobre el
parámetro de posición. De este modo, siempre es posible construir una medida adimensional
de variabilidad relativa, existan o no los dos primeros momentos del modelo subyacente. Ası́,
en adelante, se trate del CV o de su versión generalizada, simplemente se referirá a él como
”coeficiente de variación” (CV), denotándolo por γ.
En esta sección se presentan dos estimadores para el CV basados en una muestra de una
población Elı́ptica bajos los Modelos D e I, restringiendo el análisis a la estimación puntual.
Para obtener el EVM del CV de una población Elı́ptica bajo el Modelo D, se procede de
manera análoga al caso Normal (vea [36]), sólo que en este caso se obtiene una expresión
general que depende de las funciones f y φ asociadas a toda ley Elı́ptica, que al especificarse
permiten encontrar una expresión explı́cita para el estimador del CV.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γ el CV.
6.3. ESTIMADORES DEL CV DE UNA POBLACIÓN ELÍPTICA 119
donde λ(f ) es el máximo de la función f ∗ (λ) = λ−n/2 f (1/λ) y que corresponde a una constante
que depende de cada ley Elı́ptica, f está dada en (2.2.2).
Al ser f una función monótona, entonces L(µ, γ, X) como función de µ alcanza un máximo
en µ = X (vea [32, p. 129]), con lo cual la verosimilitud se reduce a
µ ¶n/2 Ã !n/2 Ã ! µ ¶n/2 Ã !
1 n S2 n S2 1 n S2
L(X, γ, X) = 2 f 2 = h 2 ,
n S2 X γ2 X γ2 n S2 X γ2
³ 2
´
esto es, L(X, γ, X) ∝ h (nS 2 )/(X γ 2 ) , donde h(x) = xn/2 f (x), con x = (n S 2 )/(X γ)2 y
x ≥ 0. Como f es no decreciente y continua, entonces haciendo uso del Lema 4.1.2 en [32, p.
129] el EVM de γ viene dado por la solución de f 0 (x) + f (x)(n/2x) = 0, y ésta es
q
γcD = n λ(f ) S/X,
donde λ(f ) es el máximo de f ∗ (λ) = λ−n/2 f (1/λ), f está dada en (2.2.2) y f 0 es su derivada.
donde λ(f ) es el máximo de f ∗ (λ) = λ−n/2 f (1/λ), con f dada en (2). Entonces el EVM de
γ es
µh iT ¶ σb q S
γcD = Td b =T
(θ) = T (θ) c
µb σ 2 = = n λ(f ) .
µb X
Como un estimador alternativo al de verosimilitud máxima (γcD ) se puede proponer uno
de ”tipo momentos” (EM) dado por γfD = S/X, con X y S dados en (4).
120 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
Para obtener el EVM del CV de una población Elı́ptica bajo el Modelo I, se procede de la
misma manera que en el Modelo D, sólo que en este caso la expresión general que se obtiene
debe resolverse numéricamente, tal como se verá a continuación.
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), y γ el CV. Entonces el EVM de γ bajo el Modelo I es
γcI = σb /µ,
b (6.5)
A continuación se presenta la distribución exacta del inverso del EVM del CV de una población
Elı́ptica bajo el Modelo D, la que está relacionada con la distribución t generalizada no cen-
trada. Este resultado es análogo al planteado en [40, Sección 2.3] para el caso Normal.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n, η = 1/γ y
ηcD el EVM de η bajo el Modelo D. Entonces
√ q
T = n (X/S) = n λ(f ) ηcD ∼ Gt(n − 1, δ; f ), (6.8)
√
con λ(f ) dada en (6.3.1) y δ = n η es el parámetro de no centralidad de la distribución t
generalizada (Gt) no centrada con (n − 1) g.l.
Y1 √ 1 1T X √ 1 T
1 X √ X̄
n σ n n n
T =q =r ³ ´T ³ ´ = nq = n ,
1
Y2T ΣY Y2
−
1 1 1
1
XT D X S
n−1 2
n−1 σ
DX D σ
DX n−1
(6.10)
√ √ q
con lo cual, finalmente T = n (X̄/S) ∼ Gt(n − 1, δ; f ), donde δ = n µ/σ = µ/ σ 2 /n.
Para los detalles de esta demostración vea [25].
Otro resultado distribucional interesante tiene relación con el problema de muestras grandes.
A continuación se presenta la distribución asintótica del EVM y del EM del CV de una
122 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
población Elı́ptica bajo el Modelo I. Este resultado es análogo al planteado en [64, Sección 2]
para una población Normal. Note que ahora se requiere de la existencia de los cuatro primeros
momentos de la distribución, pues la ley Elı́ptica incide sobre esta distribución asintótica a
través del parámetro de curtosis(κ).
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), γ el CV y γcI el EVM de γ bajo el Modelo I. Entonces si n → ∞
√
n (γcI − γ) d
Z=v u à ! −→ N (0, 1), (6.11)
2
u
tγ 2 γ 1
+
4 a(f ) 4 b(f ) − 1
donde a(f ) = IE(U Wf2 (U )) y b(f ) = IE(U 2 Wf2 (U )), U 1/2 ∼ EC1 (0, 1; f ), (6.12)
d
con U y Wf (U ) dados en (5.3.5), γcI en (5.3.3) y ” −→ ” denota la convergencia en distribución.
con a(f ) y b(f ) dadas en (5.4.4). Ahora note que γ = T (θ) = T (µ, σ 2 ) = σ/µ es función de
µ y de σ 2 . Análogamente el EVM de γ, γcI , es función de µb y de σc2 , tal como puede verse en
(7). Entonces
√ b − T (θ)) =
√ c2 ) − T (µ, σ 2 )) = √ √
n (T (θ) n (T (µ,
b σ n (σb /µb − σ/µ) = n (γb − γ).
A partir de esto y aplicando el método-delta (vea [69, pp. 387-388]), se tiene que
à ! à !T
√ d ∂ T (θ) ∂ T (θ)
n (γcI − γ) −→ N 0, F−1 ,
∂θ ∂θ
donde à ! à !T à !
∂ T (θ) ∂ T (θ) γ2 1
F−1 =γ 2
+ .
∂θ ∂θ 4 a(f ) 4 b(f ) − 1
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV 123
Finalmente, √
n (γcI − γ) d
Z=v
u à ! −→ N (0, 1).
u
tγ 2 γ2 1
+
4 a(f ) 4 b(f ) − 1
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), γ el CV y γe el EM de γ bajo el Modelo I. Entonces si n → ∞
√
n (γfI − γ) d
Z=v u à ! −→ N (0, 1), (6.13)
2
tc γ 2 4c0 γ + 3κ + 2
u
0
4
A partir de esto y aplicando el método-delta (vea [69, pp. 387-388]), se tiene que
à ! à !T
√ d ∂ T (θ) ∂ T (θ)
n (γe − γ) −→ N 0, V ,
∂θ ∂θ
donde
à ! à !T à !
∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) 2 4c0 γ 2 + 3κ + 2
V = c0 γ .
∂µ ∂ σ2 ∂µ ∂ σ2 4
124 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
Finalmente, √
n (γfI − γ) d
Z=q −→ N (0, 1).
c0 γ 2 ((4c0 γ 2 + 3κ + 2)/4)
El parámetro de curtosis κ, dado en (5.4.7), puede estimarse por el método de los momentos
basado en el resultado dado en [58] (en [2, Sección 4.5]) y está dado por:
P
n n (Xi − X)4
e = Pn i=1
κ − 1. (6.15)
3( i=1 (Xi − X)2 )2
Basados en la distribución del inverso del EVM del CV de una población Elı́ptica bajo el
Modelo D y el estadı́stico t generado a partir de (11), se presenta a continuación un intervalo
de confianza (IC) del 100(1 − α)% para el CV.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γcD el EVM
de γ bajo el Modelo D. Entonces un IC aproximado del 100(1 − α)% para γ es
−1 −1
t% t%
(γc
D
)−1 + q ; (γcD )−1 − q , (6.16)
n λ(f ) n λ(f )
con λ(f ) dada en (6.3.2) y t% es el percentil (1 − α/2) de la distribución t con (n − 1) g.l.
Ahora observe que t es una cantidad pivotal para γ = σ/µ, con lo cual, al aplicar el método
de la cantidad pivotal, se obtiene que
à !
σ σ
IP √ )<γ< √ = 1 − α.
X + t% S/ n X − t% S/ n
q
Por tanto y como σb = n λ(f ) S es un estimador consistente de σ, un IC aproximado
para γ es −1 −1
t% t%
(γc
D
)−1 + q ; (γcD )−1 − q .
n λ(f ) n λ(f )
Basados en la distribución asintótica del EMV y del EM del CV de una población Elı́ptica bajo
el Modelo I, y usando también el método de la cantidad pivotal, se presentan a continuación
intervalos de confianza asintóticos del 100(1 − α)% para el CV.
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i = 1, 2, ..., n), y γcI el EVM de γ bajo el Modelo I. Entonces si n → ∞, un IC asintótico del
100(1 − α)% para γ es
v !
u 2Ã
uγc γcI 2 1
cI ± Z% t I
γ + , (6.18)
n 4 a(f ) 4 b(f ) − 1
con a(f ) y b(f ) dadas en (5.4.4) y Z% es el percentil (1 − α/2) de la distribución N(0, 1).
con c0 en (5.2.1), κ
e en (5.4.8) y Z% es el percentil (1 − α/2) de la distribución N(0, 1).
H0 : γ = γ0 versus H1 : γ 6= γ0 , (6.20)
(o una alternativa unilateral) para un γ0 dado. En el caso de una muestra proveniente de una
población Elı́ptica bajo el Modelo D la prueba se basa en el estadı́stico t generado a partir
de (11); mientras que para el de una muestra proveniente de una población Elı́ptica bajo el
Modelo I, se plantea una prueba asintótica basada en el estadı́stico Z.
A continuación se presenta una prueba de hipótesis para el CV de una población Elı́ptica bajo
el Modelo D basada en el estadı́stico t generado a partir de (5.5.2).
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γcD el EVM
de γ bajo el Modelo D. Entonces a través del estadı́stico
³ ´
t = n λ(f ) γcD −1 − γ −1 ∼ t(n − 1), (6.21)
con λ(f ) dada en (6.4.4), se puede contrastar las hipótesis dadas en (6.6.1) mediante la
siguiente regla de decisión: Rechace H0 si |t| > t% , donde t% es el percentil (1 − α/2) de
la distribución t con (n − 1) g.l.
A partir de la distribución asintótica del EM del CV de una población Elı́ptica bajo el Modelo
I se plantea a continuación una prueba de hipótesis para el CV. Este resultado es análogo al
obtenido en [64, Sección 2] para una población Normal.
6.7. EJEMPLOS 127
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i = 1, 2, ..., n), y γe el EM de γ bajo el Modelo D. Entonces a través del estadı́stico
√
n (γfI − γ) d
Z=v
u à ! −→ N (0, 1), (6.22)
2
tc γ 2 4c0 γ + 3κ + 2
u
0
4
con c0 en (5.2.1), se puede contrastar las hipótesis dadas en (6.6.1) mediante la siguiente regla
de decisión: Rechace H0 si |Z| > Z% , donde Z% es el percentil (1 − α/2) de la distribución
N (0, 1).
6.7 Ejemplos
A continuación se aplican los resultados obtenidos para el CV bajo el Modelo D a dos sub-
familias Elı́pticas, como lo son familia de Tipo Kotz, que contiene a la distribución Normal
multivariada, y la familia de Pearson Tipo VII, que contiene a la distribuciones t-multivariada
y de Cauchy (para esta última distribución no existen sus momentos), permitiendo encon-
trar ahora expresiones explı́citas. Los resultados obtenidos bajo el Modelo I son ilustrados
basándose en las distribuciones univariadas Normal y t con s g.l., para s = 5, 30 y 100. Estos
resultados se resumen en la Tabla 2 para el Modelo D, y en las Tablas 4 y 5 para el Modelo I.
Tabla 3 Constante λ(f ), EVM(γ), IC(γ) y estadı́stico t para contrastar las hipótesis
H0 : γ = γ0 versus H1 : γ 6= γ0 ,
para las distribuciones especificadas bajo el Modelo D.
128 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA
Tabla 4 Constantes κ, c0 , k0 , a(f ), b(f ) y w = −2Wf (u), con Wf (u) dado en (?), para las
distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.
r · ¸−1 µ ¶
2m − n 2m − n S t% p √ X p
Pearson VII γc
D
± λ(f )−1 n − n λ(f ) γ0−1
ns s X n S
· ¸−1 µ ¶
1 S X t% √ X
t(s) − n-variada ±√ n − γ0−1
n X S n S
· ¸−1 µ ¶
1 S X t% √ X
Cauchy ±√ n − γ0−1
n X S n S
µ ¶1/t · ¸−1 µ ¶
2st p S t% p X p
Tipo Kotz nλ(f ) γc
D ± λ(f )−1 n − λ(f ) γ0−1
n + 2m − 2 X n S
· ¸−1 µ ¶
1 S X t% X γ −1
Normal ±√ n − √0
n X S n S n
6.7. EJEMPLOS 129
Tabla 5 EM(γ) = γfI , ERA(γ = 1), IC(γ) y estadı́stico Z para contrastar las hipótesis
H0 : γ = γ0 versus H1 : γ 6= γ0
para las distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.
" s µ ¶# √
S Var(γbI ) S S n (S/X − γ0 )
t(s) ± Z% Var p
X Var(γeI ) X X Var(γeI )
s
µ ¶2 √
S Z% S
S ± √ S n (S/X − γ0 )
t(5) 0.3491 3.333 + 2.778 p
X X nX X γ02 (3.333 + 2.778 γ02 )
s
µ ¶2 √
S Z% S
S ± √ S n (S/X − γ0 )
t(30) 0.9255 0.598 + 1.148 p
X X nX X γ02 (0.598 + 1.148 γ02 )
s
µ ¶2 √
S Z% S
S ± √ S n (S/X − γ0 )
t(100) 0.9796 0.526 + 1.041 p
X X nX X γ02 (0.526 + 1.041 γ02 )
s
µ ¶2 √
S S ± Z% S S n (S/X − γ0 )
Normal 1.0000 0.5 + p
X X n X X γ02 (0.5 + γ02 )
donde Z% es el percentil (1 − α/2) de la distribución Normal estándar y las varianzas asintóticas del EVM y
del EM de γ para la distribución t con s g.l. son, respectivamente,
µ 2 ¶ µ ¶
2 γ 1 2 s s 2 s−1
Var(γbI ) = γ (s + 3) + y Var(γeI ) = γ γ + .
s+1 2 s s−2 s−2 2(s − 4)
Para obtener expresiones para el EVM de γ bajo el Modelo I, se debe hacer uso de métodos
numéricos.
Bibliography
[1] Anderson, T. W. and Fang, K-T. (1990). Statistical Inference in Elliptically Contoured
and Related Distributions. Allerton Press, Inc.
[3] Anderson,T. W., Fang, K-T. and Hsu, H. (1986). Maximun-likelihood Estimators and
Likelihood ratio Criteria for Multivariate Elliptically Contoured Distributions. The
Canad. J. Statist, 14, 55-59.
[4] Anderson,T. W. and Fang, K-T. (1987). Cochran’s Theorem for Elliptically Contoured
Distributions. Sankhya, Ser A, 49, 305-315.
[8] Billingsley, P. (1979). Probability and Measure. John Wiley & Sons, New York.
131
132 BIBLIOGRAPHY
[11] Cacoullos, T. and Koutras, M. (1984). Quadratic form in spherical random variables
generalized noncentral χ2 -distributions. Naval Res. Logist. Quart., 31, 447-461.
[12] Cambanis S., Huang, S., and Simons, G. (1981). On the theory of elliptically contoured
distributions. J. of Multivariate Analysis, 11, 365-385.
[13] Chaudhuri, G. Coefficient of Variation for the l-Class of Life Distributions, Commun.
Statist.: Theory Meth. 1993, 22(9), 2619-2622.
[14] Chhikara, R. S.; Folks, J. L. The Inverse Gaussian Distribution as Lifetime Model, Tech-
nometrics 1977, 19, 461-468.
[15] Chmielewski, M.A. (1980). Invariant Scale Matriz Hypothesis Tests under Elliptical Sym-
metry. J. of Mult. Analysis, 10, 343-350.
[16] Chu, K. C.(1973). Estimation and Decision for Linear Systems with Elliptical Random
Process. IEEE Transaction on Automatic Control, 18, 499-505.
[18] Dawid, A. P. (1977). Spherical Matrix Distribtutions and a Multivariate Model. J. of the
Royal Stat. Soc., Ser. B, 39, 254-261.
[20] Dı́az, G., J. A. y Leiva, S., V. (1997). Distribución χ2 No Centrada, Obtenida a Partir
de una Distribución Elı́ptica Singular. Proceedings of the COMPUMAT’97 . Cienfuegos,
Cuba.
BIBLIOGRAPHY 133
[21] Dı́az, G., J. A., Leiva S., V. y Gutiérrez, J., R. (1998). Densidad del Coeficiente de
Variación Muestral en Poblaciones Elı́pticas. Proceedings of the XXIV Congreso Nacional
de Estadı́stica e I.O.. Almerı́a, España.
[22] Dı́az, G. J.A. y Leiva, S., V (1999). ”Estimador Máximo Verosı́mil del Coeficiente de
Variación bajo Poblaciones Elı́pticas”. Proceedings of IV Congreso Latinoamericano de
Sociedades Estadı́sticas, Mendoza, Argentina.
[23] Dı́az, G. J.A. y Leiva, S., V (1999). ”Distribución e Intervalo de Confianza Asintótico
para el Coeficiente de Variación bajo Poblaciones Elı́pticas”. Proceedings of IV Congreso
Latinoamericano de Sociedades Estadı́sticas, Mendoza, Argentina.
[24] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000a). ”Distribución Elı́ptica Singular:
Densidad y Aplicaciones”. Informe Técnico UV-EST-0002-00. Universidad de Valparaı́so,
Chile.
[25] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2000b). ”Singular Elliptical Distribution:
Density and Applicacions”. Submited
[26] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000c). ”Distribución Elı́ptica Singular:
Densidad y Aplicaciones”. Proceedings of XXIII Jornadas Nacionales de Estadı́stica,
Valdivia, Chile.
[27] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000d). ”Inferencia para el Coeficiente de
Variación de una Población Elı́ptica”. Informe Técnico UV-EST-0004-00. Universidad de
Valparaı́so, Chile.
[28] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Inference for the Coefficient of
Variation of an Elliptic Population”. Submited.
[29] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Doubly Non-Central t and
F Distribution under Singular and Non-Singular Elliptical Distribution: Density and
Applicacions”. In preparation.
134 BIBLIOGRAPHY
[30] Doornbos, R and Dijkstra, J. B. (1983). A Multi Sample Test for the Equality of Coeffi-
cients of Variations in Normal Populations. Commun. Statist.: Simul. and Comput., 12,
2, 147-158.
[31] Fang, K. T., Kotz, S. and Ng, K. W. (1990). Symetric, Multivariate and Related Distri-
bution. Chapman and Hall. London.
[32] Fang, K. T. and Zhang, Y.T. (1990). Generalized Multivariate Analysis. Sciences Press,
Beijing. Springer-Verlag, Berlin
[33] Fan, J. (1984). Generalized Non-Central t−, F, and T 2 − Distributions. (in Anderson,
T. W. and Fang, K-T. (1989). Statistical Inference in Elliptically Contoured and Related
Distributions. Allerton Press, Inc.)
[34] Fang, K. T. and Wu, Y. (1984). Distribution of Cuadratic Forms and Cochran’s Theorem.
Mathematics in Economics, 1, 29-48.
[35] Feltz, C. J. and Miller, G. E. (1996). An Asymptotic Test for Equality of Coefficients of
Variation in k Populations. Statistics in Medicine, 15, 647-658.
[36] Gerig, M. T. and Sen, R. A. (1980). MLE in Two Normal Samples With Equal but
Unknow Population Coefficients of Variaton. J. Amer. Statist. Ass. Vol. 75, No. 371,
Theory and Methods Section. 704-708
[37] Graybill, F.A. (1976). Theory and Application of the Linear Models. Duxbury Press.
California.
[38] Graybill, F.A. (1969). Introduction to Matrices with Applications in Statistics. Wadsworth
Pub. Company, Inc., Belmont, California.
[39] Gupta, A.K. and Varga, T. (1993). Elliptically Contoured Models in Statistics. Kluwer
Academic Publishers, Boston.
BIBLIOGRAPHY 135
[40] Gupta, R. C. and Ma, S. (1996). Testing tha Equality of Coefficients of Variation in k
Normal Populations. Commun. in Statist.: Theory and Methods. 20, 10, 3351-3363.
[42] Hamer, A. J., Strachan, J. R. Black, M. M., Ibbotson, C. and Elson, R. A. (1995). A
New Method of Comparative Bone Strenght Measurement. J. Medical Engineering and
Technology, 19, 1, 1-5.
[45] Johnson, M. (1987) Multivariate Statistical Simulation. John Wiley and Sons. New York.
[46] Johnson, N.L. and Kotz, S. (1970) Continuos Univariate Distributions. Houghton Miffin
Co. Houston.
[47] Johnson, N.L. and Kotz, S. (1975) Distributions in Statistics: Continuos Multivariate
Distributions. John Wiley. New York.
[48] Kailath, T. (1961). Optimum receivers for randomly varying channels. Information The-
ory, pp. 109- 22
[49] Kariya, T and Eaton, M.L. (1977). Robust Tests for Spherical Symmetry. The Annals of
Statistics, 5, 206-215.
[50] Kelker, D. (1970). Distribution Theory os Spherical Distributions and a Location Scale
Parameter Generalization. Sankhya, Ser. A, 32, 419-430.
[51] Larsen, D., H. (1965). Rinehart Mathematical Tables, Formulas and Curves. Holt, Rine-
hart and Winston. N-Y.
136 BIBLIOGRAPHY
[52] Leiva, S., V., Dı́az, G., J. A. y Gutiérrez, J. R. (1997). Densidad de una Distribución
Elı́ptica Singular. Actas del XXIII Congreso Nacional de Estadı́stica e I.O., Valencia,
España, 46.9-46.10.
[54] Leiva, S., V. (1999). ”Inferencias sobre el Coeficiente de Variación bajo Poblaciones
Elı́pticas”. Tesis Doctoral, Universidad de Granada, España.
[56] Lord, R. D. (1954). The Use of Hankel Transform in Statistics. I. General Theory and
Examples. Biometrika, 41, 44-45
[57] Madow, W. G. (1948). On a Source of Downward Bias in the Analysis of Variance and
Covariance. Annals of Mathematical Statistics, 19, 351-359.
[59] McKay, A. T. (1932). Distribution of the Coefficient of Variation and the Extended t
distribution. J. Royal Stat. Soc., 95, 695-698.
[60] Meeker, W.Q.; Escobar, L.A. Statistical Methods for Reliability Data, John Wiley &
Sons Inc., New York 1998.
[62] Miller, G. E. (1991). Asymptotic Test Statistics for Coefficients of Variation. Commun.
in Statist.: Theory and Methods. 20, 10, 3351-3363.
BIBLIOGRAPHY 137
[63] Miller, E. C. and Karson, M. J. (1977). Testing Equality de Two Coefficients of Variation.
Amer. Stat. Asoc.: Proceeding of the Business and Economics Section, Part I, 278-283.
[64] Miller, G. E. and Feltz, C. J. (1997). Asymptotic Inference for Coefficients of Variation.
Commun. in Statist.: Theory and Methods. 26, 3, 715-726.
[67] Price, R. (1962). Error Probabilities for Adaptive Multichannel Reception of Binary Sig-
nals. IRE Transc. On Information Theory, It-8, 387-389.
[68] Raj, D. Sampling Theory, McGraw Hill: Bombay, New Delhi 1968.
[69] Rao, C.R. (1965). Linear Statistical Inference and its Applications. Wiley, New York.
[71] Rao, K. A. and Vidya, R. (1992). On the Performance of a Test for the Coefficient of
Variation. Calcutta Stat. Asoc. Bulletin, 42, March and June, Nos. 165-66, 87-95.
[72] Schoenberg, I. J. (1938). Metric Spaces and Completely Monotone Functions Variates.
Australian J. Stat., 7, 110-114.
[73] Scheffé, H. (1959). The Analysis of Variance. N.Y.: John Wiley and Sons, Inc.
[74] Searle, S.R. (1971). Linear Models. John Wiley and Sons, Inc., New York.
[75] Sebestyen, G. S. (1961). Recognition of membership in classes. IRE Trans. on Inf. Th.
IT-7, 44-50.
138 BIBLIOGRAPHY
[76] Sen, A. R. and Gerig, T. M. (1980). MLE in Two Normal Samples with Equal but
Unknown Population Coefficient of Variation. J. Amer. Statist. Asoc., 75, 371, Sept.,
704-708.
[77] Shafer, N. J. and Sullivan, J. A. (1986). A Simulation Study of a Test for the Equality of
the Coefficients of Variation. Commun. in Statist.: Simul. and Comput., 15, 3, 681-695.
[80] Teng, Ch., Fang H. and Deng W. (1989). The Generalized Wishart Distribution. J. of
Mathematical Research and Exposition. 9, 4. 36, 9-106 (supplement).
[81] Tiku, M. L. Series Expansions for the Doubly Non-central F Distribution. Australian
Journal of Statistics, 7 (November 1965), 78-99.
[82] Turin, G. L. (1959). Some computations of error rates for selectively fading multipath
channels. Proc. Nat. Electron. Conf. 15, 431-40.
[83] Tyler, D. E. (1982). Radial estimates and the Test for Sphericity. Biometrika, 69, 429-436.
[86] Weibull, M. (1953). The Distribution of t− and F -Statistics and of Correlation and
Regression Coefficients in Stratified Samples from Normal Populations with Different
Means. Skandinavisk Aktuarietidskrift, 36, 9-106 (supplement).
BIBLIOGRAPHY 139
[87] Wishner, R. P. (1962). Distribution of the normalizad periodogram detector. IRE Trans.
on Inf. Th. IT-8, 342-9.
[88] Zellner, A. (1976). Bayesian and Non-Bayesian of the Regression Model with Multivariate
Student-t Error Terms. Journal of the American Statistical Association, 71, 400-405.
140 BIBLIOGRAPHY
ANEXO
Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, In+1 ; f ), con X1 ∈ IR, X2 ∈ IRn , ν = (µ µTn )T ,
q
ν ∈ IRn+1 , µ ∈ IR, µ 6= 0, µn ∈ IRn , µn 6= 0 y defina T = X1 / ||X2 ||2 /n. Además, sea
1 0
Q ∈ O(n + 1), Q = , P ∈ O(n), tal que QX = Y = (Y1 Y2T )T = (X1 Y2T )T
0 P
y Q ν = (µ ||µn || 0T )T , esto es, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR, Y2 =
(Y2 ... Yn+1 )T ∈ IRn y η = (µ ||µn || 0T )T . Note que ||Y|| = ||X|| y ||Y2 || = ||X2 ||, con lo
q
cual T = Y1 / ||Y2 ||2 /n. Ası́,
Ãn+1 !
X
gY (Y) = f ((Y − η)T (Y − η)) = f yi2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k Y2 .
i=1
141
142 BIBLIOGRAPHY
n−2
Y
(r φ1 . . . φn−2 θ) = (r φ θ), cuyo jacobiano es rn−1 senn−j−1 φj , de manera que
j=1
³ ´ n−2
Y
gy1 ,r,θ (Y1 , r φ θ) = f y12 + r2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k cos φ1 rn−1 senn−j−1 φj .
j=1
Finalmente, la densidad de T es
n−1
2π 2
gT (t) = 1/2 n−2
n Γ( 2 )
Z∞ Zπ Ã Ã ! !
vn f
1 + t2 2 δ
v −2 1/2
+ γ cos φ1 v + δ2 + γ 2) senn−2 φ1 dφ1 dv,
n n
0 0
con v > 0, δ = µ y γ = kµn k.