Está en la página 1de 143

DISTRIBUCIONES ELÍPTICAS MULTIVARIADAS

SINGULARES Y NO SINGULARES:
TEORÍA Y APLICACIONES

Vı́ctor Leiva Sánchez


Departamento de Estadı́stica
Universidad de Valparaı́so
CHILE

José A. Dı́az Garcı́a


Departamento de Estadı́stica y Cálculo
Universidad Autónoma Agraria Antonio Narro
MÉXICO
Prólogo

La distribución Normal multivariada ha servido durante mucho tiempo como modelo estándar
para observaciones provenientes de diferentes áreas, siendo ésta el objetivo central del análisis
multivariante clásico. Sin embargo, a través de los años los estadı́sticos han tratado de extender
la teorı́a de este análisis a casos más generales y, por lo tanto, con mayor cobertura.

Últimamente se ha planteado una clase de distribuciones cuyos contornos de sus densidades


tienen la misma forma elı́ptica de la Normal, pero además contienen distribuciones de colas
más y menos pesadas que las de ésta. Esta clase de distribuciones simétricas se denom-
ina distribuciones Contornos Elı́pticos o simplemente distribuciones Elı́pticas. En el análisis
multivariante, la familia de distribuciones Elı́pticas proporciona una alternativa y una gener-
alización de la distribución Normal, ya que ésta última es un caso particular de tal familia,
por lo que da origen a lo que hoy se denomina Análisis Multivariado Generalizado.

La utilización de distribuciones Elı́pticas en problemas que sólo han sido resueltos con la
distribución Normal, permite generalizar la teorı́a hasta ahora planteada. Algunos de estos
problemas ya han sido resueltos para las distribuciones Elı́pticas no singulares, aunque no
ası́ para el caso singular. Especı́ficamente, cuando se muestrea desde una población Elı́ptica,
el problema de las distribuciones de muestreo tradicionalmente usadas, esto es, las distribu-
ciones chi-cuadrado, t y F, que bajo distribuciones Elı́pticas se denominan distribuciones
chi-cuadrado,t y F, ha sido parcialmente resuelto. Quedando abierto el problema desde la
perspectiva de las distribuciones Elı́pticas singulares y para las distribuciones t y F doble no
centradas generalizadas. Por otra parte, el interés puede radicar en la estimación e inferencia

1
2

de los parámetros de dispersión de la población en estudio. Bien se sabe que las medidas de
dispersión se utilizan para evaluar la variabilidad de un conjunto de datos, siendo la desviación
estándar la más utilizada; sin embargo, ésta entrega poca información del conjunto si es in-
terpretada en forma aislada, sólo cuando se la relaciona con la media su interpretación tiene
mayor sentido. Por esta razón el coeficiente de variación, que relaciona a ambas medidas,
es sumamente útil. Este coeficiente mide la dispersión u homogeneidad de un conjunto de
datos asociados a una variable aleatoria y es una medida de variabilidad relativa, es decir,
es adimensional, pues representa a la desviación estándar por una unidad de media y resulta
de particular interés cuando se desea comparar la variabilidad entre grupos cuyas medias y
varianzas difieren. Sus aplicaciones son diversas y se lo ha empleado con mucho éxito en la
medición de la variabilidad relativa. Por ejemplo, se lo ha utilizado ampliamente para com-
parar métodos de medición; en Finanzas, se lo ha usado para medir el riesgo relativo de rentas
variables; en Teorı́a de Inventarios para comparar la variabilidad de dos niveles de almace-
namiento y también se ha aplicado el coeficiente de variación en Ciencias Fı́sicas, Biológicas
y Médicas. Dentro del contexto de la Estadı́stica se pueden encontrar también aplicaciones
del coeficiente de variación en un problema de muestreo, especı́ficamente en la determinación
del tamaño de la muestra, al emplear una prueba de hipótesis para el coeficiente de variación
para evaluar la no normalidad de una variable aleatoria positiva, en Modelos Lineales y en
Confiabilidad, entre otras.

Existen en la actualidad excelentes libros y artı́culos que recogen las investigaciones hechas
hasta la fecha acerca de la distribuciones Elı́pticas, como lo son los libros [1], [32], [31], [39]
y [70], y diversas publicaciones, entre las que se encuentran los trabajos [50], [16], [18], [49],
[15], [12] y [83], y los trabajos recientes [5] y [54], entre otros. Aunque a partir de 1970 estas
distribuciones comenzaron su auge, se registran estudios anteriores, como lo son [72] y [56].

Asimismo, las distribuciones de formas cuadráticas y distribuciones asociadas al muestreo,


obtenidas a partir de distribuciones Elı́pticas, fueron estudiadas y publicadas en [11], [34], [4]
y [78], entre otros.
3

Por otra parte, los primeros resultados distribucionales del CV de una población Normal se
remontan a los estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi
cuatro décadas, en [44] se retoma el tema comparando aproximaciones de percentiles del CV
muestral con los resultados hasta ahı́ propuestos. Posteriormente en [6] se plantea un contraste
aproximado para probar la homogeneidad de coeficientes de variación. En [7] se encuentra un
test basado en el estadı́stico de razón de verosimilitud para contrastar estas mismas hipótesis.
Luego en [63] se propone un nuevo contraste para la igualdad de dos coeficientes de variación,
en [30] se generaliza a k muestras, y en [77] se presentan estudios de simulación de estos
contrates. Por su parte, en [43] se realiza inferencia para el CV de una distribución Inversa
Gaussiana. En [62], y posteriormente en [35], se presentan pruebas de hipótesis asintóticas
para el coeficiente de variación de una, dos y k muestras, junto con estudios de simulación. En
[40] se entregan diversos resultados que permiten probar la igualdad de coeficientes de variación
de k muestras provenientes de poblaciones normales basados en la revisión de contrastes ya
conocidos, como lo son las pruebas de Bennet, de razón de verosimilitud, de la t no centrada,
de Wald -la que extienden a k muestras y para distintos tamaños de éstas- y además presentan
un nuevo contraste basado en la prueba de Score. En [64] se hace inferencia asintótica para el
CV de una población Normal presentando fórmulas para estadı́sticos de prueba, a través de
los cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de
los resultados planteados para el CV de una población Normal son extendidos en [54] al caso
de una población Elı́ptica.

A partir de esto el queda abierta la aplicación de las distribuciones Elı́pticas singulares sobre:
las distribuciones chi-cuadrado, t y F generalizadas centradas y no centradas, las distribu-
ciones t y F generalizadas doble no centradas, y sobre la inferencia para el coeficiente de
variación de una población Elı́ptica.

Se estudia en este trabajo el problema de singularidad de una distribución Elı́ptica, pues la


densidad multivariada no existe en todo IRn , tal como se menciona en [32] y [69]; sin embargo,
dicha densidad sı́ existe en un subespacio de IRn , tal como se presenta en este trabajo. Se
4

tratan también aquı́ problemas asociados con distribuciones empleadas en el muestreo, como
lo son la distribución chi-cuadrado generalizada centrada y no centrada, la distribución t
generalizada centrada y no centrada y la distribución F generalizada centrada, no centrada y
doble no centrada, bajo singularidad y no singularidad de la ley Elı́ptica asociada. Finalmente,
a través de las distribuciones Elı́pticas, de la distribución t generalizada no centrada y del
caso de muestras grandes, se estudia el aspecto distribucional e inferencial del coeficiente de
variación poblacional, tanto para el caso de una población Elı́ptica con estructura dependiente
e independiente.

Las aportaciones especı́ficas que se hacen en este trabajo, son:

(1) Hallar la densidad de una vector aleatorio Elı́ptico singular siguiendo el argumento prop-
uesto en [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas asociadas a este
vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la distribución
Elı́ptica afecta los grados de libertad de tales distribuciones. Posteriormente, se utilizan dos
distribuciones Elı́pticas singulares especı́ficas, como lo son la Pearson tipo VII y la de tipo
Kotz, hallando ası́ explı́citamente las densidades de estas distribuciones. Finalmente, se tratan
dos aplicaciones de la distribución Elı́ptica singular. La primera de ellas relacionada con la
distribución de los residuos de un modelo lineal Elı́ptico y la segunda relacionada con el
estadı́stico t generalizado, basado en una muestra obtenida desde una población Elı́ptica.

(2) Presentar las distribuciones t y F generalizadas, tanto para el caso centrado, no centrado y
doble no centrado, y bajo singularidad y no singularidad de la distribución Elı́ptica asociada,
en cuyo caso la singularidad de la distribución afecta los grados de libertad de las distribuciones
t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas centradas, se usa la
invarianza de tales distribuciones bajo leyes Elı́pticas con parámetro de posición igual a cero,
coincidiendo con las del caso Normal. Para las distribuciones F generalizadas no centrada y
doble no centrada, se presentan sus densidades tanto en términos de integrales como de las
derivadas de la función generadora de densidades asociada a cada distribución Elı́ptica, y por
ende de cada distribución F generalizada. En el caso de la distribuciones t generalizadas no
5

centrada y doble no centrada no es posible obtener esta representación, por lo que su densidad
sólo se expresa a través de integrales. Finalmente se ilustran todos estos resultados para dos
subfamilias de distribuciones Elı́pticas, como lo son la distribución de Pearson tipo VII y
la distribución de tipo Kotz, subfamilias que a su vez contienen como casos particulares a
las distribuciones Elı́pticas t y Normal multivarian-tes, respectivamente. En esta ilustración
y para el caso de la distribución F generalizada, se observa la evidente simplificación que
se produce al usar la densidad en términos de la derivada de la gene-radora de densidades
en lugar de la expresión integral. Sin embargo, se debe tener presente que la aplicación
de este resultado es sólo posible cuando la generadora de densidades, asociada a la particular
distribución Elı́ptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribución. Como no todas las distribuciones Elı́pticas
disponen de momentos, como por ejemplo la distribución de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.

(3) Proponer un coeficiente de variación generalizado, como una medida de varia-bilidad rel-
ativa, válido para poblaciones cuya distribución carece de primer y segundo momento (los
momentos de una distribución Elı́ptica pueden verse en [32][p. 67])). Esta medida se puede
entender como una generalización del CV y se define como la raı́z cuadrada del parámetro de
escala dividido por el parámetro de posición. Se analizan aspectos distribucionales e inferen-
ciales de este CV generalizado bajo dos modelos Elı́pticos, como lo son el modelo dependiente
(el vector aleatorio tiene una estructura dependiente con distribución Elı́ptica multivariada) y
el modelo independiente (cada variable aleatoria del vector es independiente e idénticamente
distribuida Elı́ptica univariada). Especı́ficamente, para ambos modelos (dependiente e inde-
pendiente) se encuentra el estimador de verosimilitud máxima (EVM) y, en forma alterna-
tiva, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda expresado en
términos de las funciones f y φ asocia-das a cada ley Elı́ptica, por lo cual en esta sección sólo
es posible hallar una expresión general para este estimador. Posteriormente se presenta la
distribución exacta del inverso del EVM del CV para el modelo dependiente y la distribución
asintótica del EVM y del EM del CV bajo el modelo independiente. A partir de estas distribu-
6

ciones se obtienen intervalos de confianza y pruebas de hipótesis para el CV. Los resultados
obtenidos bajo el modelo dependiente son ilustrados a través de dos subfamilias de distribu-
ciones Elı́pticas, como lo son la distribución de Pearson Tipo VII y la distribución de Tipo
Kotz, permitiendo encontrar ası́ expresiones explı́citas para los resultados planteados; partic-
ularmente se estudian las distribuciones t-multivariada y de Cauchy (esta última distribución
carece de momentos), como casos particulares de la subfamilia Elı́ptica de Pearson Tipo VII,
y la distribución Normal, como caso particular de la subfamilia de Tipo Kotz. Los resultados
encontrados bajo el modelo independiente se particularizan para la distribuciones univariadas
t con s grados de libertad y Normal, incluyendo además la eficiencia relativa asintótica (ERA)
de los estimadores hallados. Finalmente se entrega una detallada lista de aplicaciones del CV.

Este trabajo ha sido estructurado en dos partes y seis capı́tulos. La primera parte presenta
aspectos introductorios de la distribuciones Elı́pticas y del álgebra matricia, la cual está es-
tructurada en 3 capı́tulos. En el primero de ellos se proporcionan los aspectos preliminares,
requeridos para solucionar algunos problemas que se resuelven en los capı́tulos subsiguientes.
En el segundo capı́tulo se introducen las distribuciones Elı́pticas y Esféricas, en él se presentan
resultados conocidos de estas distribuciones y sus relaciones con la distribución Normal. En
el capı́tulo tercero se tratan las distribuciones empleadas habitualmente en el muestreo, en
este caso de una población Elı́ptica, como lo son las distribuciones chi-cuadrado, t y F gener-
alizadas, para los casos centrados y no centrados, basados en resultados ya conocidos. En la
segunda parte se presentan los resultados de las 3 aportaciones originales propuestas en este
trabajo, soló planteadas hasta ahora en artı́culos. la cual está compuesta por los Capı́tulos
cuatro, cinco y seis de este trabajo. En el capı́tulo cuatro se trata la distribución Elı́ptica
singular, se encuentra su densidad y se presentan dos aplicaciones de ésta. En el capı́tulo cinco
se presentan las distribuiciones t y F generalizadas doble no centradas, se halla su densidad
bajo singularidad y no singularidad de la ley Elı́ptica asociada. En el capı́tulo seis se presentan
todos los aspectos relacionados con la inferencia del coeficiente de variación de una población
Elı́ptica con estructura dependiente e independiente, ası́ como los aspectos distribucionales
de los estimadores del coeficiente de variación planteados. Finalmente, se acompaña a una
7

extensa bibliografı́a del tema que fue revisada por el autor.


8
Notación y Abreviaturas

IRn : Espacio real n-dimensional.

A ∈ IRn×p : Matriz real de dimension n × p.

A, B, C, . . . : Matrices constantes.

a, b, c, . . . : Constantes reales.

X, Y, Z, . . . : Vectores aleatorios.

X, Y, Z, . . . : Variables aleatorias.

aij : El ij-ésimo elemento de la matriz A.

AT : La transpuesta de A.

In : Matriz identidad de orden n.

eni : Vector unitario de orden n.

aj : j-ésima columna de la matriz A.

a(i) : i-ésima fila de la matriz A.

|A| : Determinante de A.

A−1 : Inversa de A.

A− : Inversa generalizada de A.

Ac : Inversa condicional de A.

9
10

rk A : Rango de A.

tr A : Traza de A.

diag A : Matriz diagonal.

UT : Conjunto de matrices triangulares superiores.

LT : Conjunto de matrices triangulares inferiores.

f (·) : Función real valorada f .

f 0 (·) : Derivada de la función f .

f (2k) (·) : Derivada 2k-ésima de la función f .

A>0 : Matriz definida positiva.

A≥0 : Matriz semi-definida positiva.

A⊗B : Producto Kronecker de las matrices A y B.

O(p) : Conjunto de matrices ortogonales ∈ IRp×p .

Vn,n−p : Variedad de Stiefel ∈ IRn×(n−p) .

Im A : Imagen de A.

t.c.e.g. : Transformación de coordenadas esféricas generalizadas.

J(X → Y) : Jacobiano de la transformación de X a Y.

IE(X) : Valor esperado de X.

V ar(X) : Varianza de X.
11

ψX (t) : Función caracterı́stica de X.

f.c. : Función Caracterı́stica.


d
X=Y : X e Y tienen la misma distribución.

Nn (·, ·) : Distribución Normal multivariada.

ECn (·, ·; ·) : Distribución Elı́ptica en IRn .

Sn (·) : Distribución Esférica en IRn .

Beta(·, ·) : Distribución Beta.

PnV II (·) : Distribución de Pearson tipo VII multivariada.

PnII (·) : Distribución de Pearson tipo II multivariada.

U ni{EkXk = 1} : Distribución Uniforme en la esfera unitaria.

tn (·, ·) : Distribución t-multivariada.

Kn (·, ·) : Distribución de tipo Kotz en IRn .

Gχ2 : Distribución chi-cuadrado generalizada.

Gt : Distribución t generalizada.

GF : Distribución F generalizada.

GF 00 : Distribución F generalizada doble no centrada.

EMV(θ) : Estimador Máximo Verosı́mil de θ.

CV : Coeficiente de Variación.

TRV : Test de Razón de Verosimilitud.


12
Contents

I ASPECTOS INTRODUCTORIOS 17

1 Preliminares 19
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2 Aspectos de Teorı́a Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1 Matrices Ortogonales y Semi-ortogonales . . . . . . . . . . . . . . . . . 20
1.2.2 Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3 Inversión de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.4 Partición de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.5 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.6 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.7 Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.8 Matrices Definidas y Semi-definidas Positivas . . . . . . . . . . . . . . . 27
1.2.9 Proyecciones Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.10 Factorizaciones de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.11 Inversa Generalizada de una Matriz . . . . . . . . . . . . . . . . . . . . 31
1.2.12 Producto Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Evaluación del Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.1 La Transformación de Coordenadas Esféricas Generalizadas . . . . . . 34

2 Distribuciones de Contornos Elı́pticos 37


2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

13
14 CONTENTS

2.2 Distribución Elı́ptica No Singular . . . . . . . . . . . . . . . . . . . . . . . . . 38


2.2.1 Distribuciones Elı́pticas y Esféricas . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Representación Estocástica . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.3 Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.4 Distribuciones Condicionales . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.5 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.6 Caracterizaciones de Normalidad . . . . . . . . . . . . . . . . . . . . . 43
2.2.7 Distribución Invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.8 Distribuciones Elı́pticas Particulares . . . . . . . . . . . . . . . . . . . 45

3 Distribución de Formas Cuadráticas 49


3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Distribución Chi-cuadrado Generalizada . . . . . . . . . . . . . . . . . . . . . 50
3.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2.2 Distribución Chi-cuadrado Generalizada Centrada y No Centrada . . . 50
3.3 Distribución t Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.2 Distribución t Generalizada Centrada y No Centrada . . . . . . . . . . 57
3.4 Distribución F Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.2 Distribución F Generalizada Centrada y No Centrada . . . . . . . . . . 63

II RESULTADOS 69

4 Distribución Elı́ptica Singular 71


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Densidad de una distribución Elı́ptica Singular . . . . . . . . . . . . . . . . . . 71
4.3 Distribuciones χ2 , t y F Generalizadas . . . . . . . . . . . . . . . . . . . . . . 77
4.3.1 Distribución χ2 Generalizada . . . . . . . . . . . . . . . . . . . . . . . 77
CONTENTS 15

4.3.2 Distribución t Generalizada . . . . . . . . . . . . . . . . . . . . . . . . 80


4.3.3 Distribución F Generalizada . . . . . . . . . . . . . . . . . . . . . . . . 83
4.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.1 Distribución de los Residuos de un Modelo Lineal Elı́ptico . . . . . . . 85
4.4.2 Distribución del Estadı́stico t Generalizado . . . . . . . . . . . . . . . . 87

5 Distribuciones Gt y GF Doble No Centrada 91


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Distribución Gt Doble No centrada . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.1 Distribución Gt No Centrada . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Distribución Gt bajo una Ley de Pearson Tipo VII Singular . . . . . . 95
5.2.3 Distribución Gt bajo una Ley de Tipo Kotz Singular . . . . . . . . . . 97
5.2.4 Distribución Gt Doble No Centrada . . . . . . . . . . . . . . . . . . . . 99
5.3 Distribución GF Doble No Centrada . . . . . . . . . . . . . . . . . . . . . . . 100
5.3.1 Distribución GF No Centrada . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.2 Distribución GF bajo una Ley de Pearson Tipo VII Singular . . . . . . 103
5.3.3 Distribución GF bajo una Ley de Tipo Kotz . . . . . . . . . . . . . . . 106
5.3.4 Distribución GF Doble No Centrada . . . . . . . . . . . . . . . . . . . 109

6 Inferencias para el CV bajo una Ley Elı́ptica 113


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2 Especificación de los Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.2.1 Modelo Elı́ptico con Estructura Dependiente . . . . . . . . . . . . . . . 117
6.2.2 Modelo Elı́ptico con Estructura Independiente . . . . . . . . . . . . . . 117
6.3 Estimadores del CV de una Población Elı́ptica . . . . . . . . . . . . . . . . . . 118
6.3.1 Estimadores del CV bajo el Modelo D . . . . . . . . . . . . . . . . . . 118
6.3.2 Estimadores del CV bajo el Modelo I . . . . . . . . . . . . . . . . . . . 120
6.4 Distribuciones Asociadas al Estimador del CV . . . . . . . . . . . . . . . . . . 120
6.4.1 Distribución del EVM del CV bajo el Modelo D . . . . . . . . . . . . . 121
16 CONTENTS

6.4.2 Distribución Asintótica del CV bajo el Modelo I . . . . . . . . . . . . . 121


6.5 Intervalos de Confianza para el CV de una población Elı́ptica . . . . . . . . . . 124
6.5.1 Intervalo de Confianza para el CV bajo el Modelo D . . . . . . . . . . . 124
6.5.2 Intervalo de Confianza para el CV bajo el Modelo I . . . . . . . . . . . 125
6.6 Pruebas de Hipótesis para el CV de una Población Elı́ptica . . . . . . . . . . . 126
6.6.1 Prueba de Hipótesis para el CV bajo el Modelo D . . . . . . . . . . . . 126
6.6.2 Prueba de Hipótesis para el CV bajo el Modelo I . . . . . . . . . . . . 126
6.7 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Part I

ASPECTOS INTRODUCTORIOS

17
Chapter 1

Preliminares

1.1 Introducción

Este capı́tulo presenta los aspectos preliminares de este trabajo y está compuesto por dos
secciones; en la primera de ellas se encuentran definiciones y resultados conocidos del álgebra
matricial, como lo son los de: matrices ortogonales y semi-ortogonales, determinante y rango
de una matriz, inversión y partición de matrices, valores y vectores propios de una matriz,
formas cuadráticas, matrices definidas y semidefinidas positivas, proyecciones ortogonales,
factorización de matrices e inversas generalizadas de un matriz; cada uno de los cuales se
hace necesario para el mejor entendimiento de este trabajo, ya se que emplean con bas-
tante frecuencia durante el desarrollo de éste, pudiendo encontrar mayores detalles de esta
sección en cualquier libro de Álgebra Lineal, como por ejemplo en citeg:76, entre otros. En
la segunda sección se presenta la evaluación de jacobianos de transformaciones, enfatizando
particularmente en la transformación de coordenadas esféricas generalizadas, ya que dicha
transformación es utilizada ampliamente a lo largo de este trabajo, mayores detalles de esta
sección pueden hallarse en [32], ası́ como en otros libros de la bibliografı́a. Otros aspectos
matemáticos ası́ como de teorı́a estadı́stica, utilizados en este trabajo, fueron omitidos en
estos preliminares, pudiendo de cualquier forma revisarse en [69] o [65], ası́ como en los antes
mencionados y en otros que aparecen en la bibliografı́a.

19
20 CHAPTER 1. PRELIMINARES

1.2 Aspectos de Teorı́a Matricial


Se presentan a continuación los elementos del álgebra matricial más utilizados durante este
trabajo, ya descritos anteriormente y que juegan un importante papel en algunas secciones de
éste.
Una matriz A ∈ IRn×p es un arreglo rectangular de elementos aij , tal que
 
 a11 . . . a1p 
 
. .. .
A=
 .. . ..

. (1.1)
 
 
an1 . . . anp

También se puede escribir A = (aij ), aij ∈ IR.


Para la definición anterior considere que

1. si n = p, entonces se dice que A es cuadrada de orden p.

2. AT es la transpuesta de A y tiene orden p × n.

3. si AT = A, se dice que A es simétrica.

4. si A es cuadrada y todos los elementos que están fuera de la diagonal son ceros, entonces
A se dice que es una matriz diagonal y se denota por A = diag(aii ). Si para A = (aij ),
aij = 0, ∀ j < i, entonces A se dice matriz triangular superior y se denota por A ∈
UT(p); si aij = 0, ∀ j > i, entonces A se dice matriz triangular inferior y se denota por
A ∈ LT(p).

5. si todos los elementos de A son ceros, entonces A se denomina matriz nula y se denota
por A = 0.

1.2.1 Matrices Ortogonales y Semi-ortogonales

[Conjunto de Matrices Ortogonales] El conjunto de matrices ortogonales, denotado por O(p),


es aquél que contiene a todas las matrices H ∈ IRp×p , tal que H T H = Ip , esto es,

O(p) = {H ∈ IRp×p | H T H = Ip }.
1.2. ASPECTOS DE TEORÍA MATRICIAL 21

[Matriz Ortogonal] Sea A ∈ IRp×p . Entonces, si A ∈ O(p) se dice que es una matriz
ortogonal.
[Conjunto de Matrices Semi-ortogonales] El conjunto de matrices semi-ortogonales, también
llamado Variedad de Stiefel y denotado por Vn,p , es aquél que contiene a todas las matrices
H ∈ IRn×p , tal que H T H = Ip , esto es,

Vn,p = {H ∈ IRn×p | H T H = Ip },

es decir, las columnas de H son ortonormales.


[Matriz Semi-ortogonal] Sea A ∈ IRn×p . Entonces, si A ∈ Vn,p , se dice que A es una matriz
semi-ortogonal.

1.2.2 Determinante de una Matriz

[Determinante] Sea A ∈ IRp×p . Entonces, el determinante de A, denotado por |A|, viene dado
por
X
|A| = ²π a1j1 a2j2 ... apjp , (1.2)
π
P
donde π denota la suma sobre todas las p! permutaciones π = (j1 , ..., jp ) de (1, ..., p) y ²π = 1
ó −1, dependiendo si la permutación es par o impar.
Sea A ∈ IRp×p , tal que

1. si ai = 0 ó a(j) = 0, para algún i o j, entonces |A| = 0.

2. |A| = |AT |.

3. |(a1 . . . ai−1 α · ai ai+1 . . . ap )| = α |A|, α ∈ IR.

4. |α A| = αp |A|, α ∈ IR..

5. |AB| = |A| · |B|, B ∈ IRp×p .

6. |A1 · . . . · An | = |A1 | · . . . · |An |, Ai ∈ IRp×p , i = 1, ..., n.


22 CHAPTER 1. PRELIMINARES

7. |AAT | = |AT A| ≥ 0.
   
 A C   A 0  q×q
8.  =  = |A| · |B|, donde B ∈ IR , C ∈ IRp×q y D ∈ IRq×p .
0 B D B

9. |Ip + BC| = |Iq + CB|, donde B ∈ IRp×q y C ∈ IRq×p .


p
Y
10. |T | = tii , si T = (tij ) ∈ UT(p).
i=1

11. |H| = ±1, si H ∈ O(p).

1.2.3 Inversión de Matrices

[Matriz Inversa] Sea A ∈ IRp×p y |A| 6= 0. Entonces, existe una única matriz B ∈ IRp×p tal
que AB = Ip y B es llamada la inversa de A y se denota por A−1 .
Una matriz cuyo determinante es distinto de cero se denomina no singular.
. Sea A ∈ IRp×p , tal que

1. AA−1 = A−1 A = Ip .

2. (A−1 )T = (AT )−1 .

3. (AB)−1 = B −1 A−1 , si A y B son matrices no singulares.

4. |A−1 | = |A|−1 .

5. A−1 = AT , si A ∈ O(p).

6. Si A = diag(aii ), con aii 6= 0, ∀ i = 1, ..., p, entonces A−1 = diag(a−1


ii ), ∀ i = 1, ..., p.

7. Si A ∈ UT(p), entonces A−1 ∈ UT(p) y sus elementos en la diagonal son a−1


ii , ∀ i =

1, ..., p.
1.2. ASPECTOS DE TEORÍA MATRICIAL 23

1.2.4 Partición de Matrices

Una matriz no singular A ∈ IRp×p se dice que está particionada en submatrices si, para
i, j = 1, 2, A puede escribirse de la forma
 
A11 A12 
A=
 , (1.3)
A21 A22

donde A11 ∈ IRm×q , A12 ∈ IRm×(p−q) , A21 ∈ IR(n−m)×q y A22 ∈ IR(n−m)×p−q .


Sean A, B y C matrices de órdenes adecuados y particionadas apropiadamente. Entonces,
 
 A11 + B11 A12 + B12 
1. A + B =   y
A21 + B21 A22 + B22
 
 A11 C11 + A12 C21 A11 C12 + A12 C22 
2. AC =  .
A21 C11 + A22 C21 A21 C12 + A22 + C22

3. Sea A ∈ IRp×p una matriz no singular, tal que B = A−1 . Particione A y B de manera
similar y de la misma forma que antes, esto es,
   
 A11 A12   B11 B12 
A=  y B= ,
A21 A22 B21 B22

donde A11 , B11 ∈ IRq×q y A22 , B22 ∈ IR(p−q)×(p−q) , con A11 y A22 no singulares.

Denote ahora

A11.2 = A11 − A12 A−1


22 A21 y A22.1 = A22 − A21 A−1
11 A12 . (1.4)

Entonces,

B11 = A−1
11.2 , B12 = −A−1 −1
11 A12 A22.1 ,

B21 = −A−1 −1
22 A21 A11.2 , B12 = A−1
22.1 ,

B11 = A−1 −1 −1 −1
11 + A11 A12 A22.1 A21 A11 , B12 = −A11.2 A12 A−1
22 ,

B21 = −A−1 −1
22.1 A21 A11 y B22 = A−1 −1 −1 −1
22 + A22 A21 A11.2 A12 A22 .
24 CHAPTER 1. PRELIMINARES

4. Sea A ∈ IRp×p particionada como en (2.3) y A11.2 y A22.1 como en (2.4). Ası́,

(a) si |A22 | 6= 0, entonces |A| = |A22 | |A11.2 |.

(b) si |A11 | 6= 0, entonces |A| = |A11 | |A22.1 |.

(c) si |A11 | 6= 0, entonces |A11 | |A22.1 | = |A22 | |A11.2 |.

5. Sean A ∈ IRp×p y B ∈ IRq×q matrices no singulares, C ∈ IRp×q y D ∈ IRq×p . Ası́,

(A + CBD)−1 = A−1 − A−1 CB(B + BDA−1 CB)−1 BDA−1 . (1.5)

6. Si X ∈ IRn×p , entonces
 
 XT1 X1 . . . XT1 Xp 
  Xn
T .. ... .. 
X X=
 . . =

X(i) XT(i) . (1.6)
  i=1
XTp X1 ... XTp Xp

1.2.5 Rango de una Matriz

[Rango de una Matriz] Sea A ∈ IRn×p una matriz distinta de la matriz nula. Entonces, si
r de las columnas o filas de A son linealmente independientes, A tiene rango r ≤ min(p, n),
denotándolo por rk A = r.
Sea A ∈ IRn×p , tal que

1. rk 0 = 0

2. rk A = p, si A es una matriz cuadrada y no singular.

3. rk A = rk AT = rk AAT = rk AT A.

4. rk(AB) ≤ min(rk A, rk B), B ∈ IRp×m .

5. rk(A + C) ≤ (rk A + rk C), C ∈ IRn×p .

6. rk(ABC) = rk B, si A y C son matrices cuadradas no singulares de órdenes adecuados.

7. si AB = 0, con B ∈ IRp×m , entonces rk B ≤ (p − rk A).


1.2. ASPECTOS DE TEORÍA MATRICIAL 25

1.2.6 Valores y Vectores Propios

[Valor Propio] Sea A ∈ IRp×p . Entonces, los valores propios de A están dados por las raı́ces
de la ecuación caracterı́stica en λ, asociados al polinomio caracterı́stico |A − λI|, dadas por

|A − λI| = 0. (1.7)

Para el polinomio caracterı́stico considere que

1. Dado que éste es de orden p, entonces tiene exactamente p raı́ces.

2. Las raı́ces del polinomio caracterı́stico no son necesariamente distintas, es decir, pueden
tener una multiplicidad mayor que 1.

3. Las raı́ces del polinomio caracterı́stico pueden ser reales, complejas o ambas.

4. Si λ1 es una raı́z del polinomio caracterı́stico, entonces |A−λ1 Ip | = 0, es decir, (A−λ1 Ip )


es singular y λ1 es un valor propio de A.

[Vector Propio] Sean A ∈ IRp×p y X ∈ IRp . Entonces, los vectores propios de A están
dados por la solución del sistema de ecuaciones en X, dado por

(A − λI) X = 0, (1.8)

al reemplazar cada valor propio λ en dicho sistema, es decir, para cada valor propio λ existe
un vector propio X.
Sea A ∈ IRp×p , tal que

1. si A tiene valores propios λ de multiplicidad r, entonces existen r vectores propios


ortogonales correspondientes a λ.

2. si A = AT , entonces todos sus valores propios son reales, digamos λ1 , λ2 , ..., λp , con
λ1 ≥ λ2 ≥ · · · ≥ λp . Entonces, los valores propios de A están en la diagonal de una
matriz D, esto es, D = diag(λi ), i = 1, ..., p.
26 CHAPTER 1. PRELIMINARES

3. los vectores propios, correspondientes a distintos valores propios de una matriz simétrica,
son ortogonales.

4. si B = P AP −1 , donde A, B y P son matrices cuadradas y P es no singular, entonces A


y B tienen los mismos valores propios.

5. los valores propios de A y de AT son los mismos.

6. los valores propios no nulos de AB y de BA son los mismos. En particular, los valores
propios no nulos de AAT y AT A son los mismos.

7. si A = diag(aii ), i = 1, ..., p, entonces a11 , ..., app son los valores propios de A y los
vectores eT1 , eT2 , ..., eTp son, respectivamente, sus vectores propios asociados, donde eTi ∈
IRp es un vector que tiene sólo un uno en la posición i-ésima y el resto son ceros, esto
es, eTi = (0 . . . 0 1 0 . . . 0).

8. si los valores propios de A son λ1 , λ2 ,..., λp , entonces los valores propios de A−1 son λ−1
1 ,

λ2−1 ,..., λ−1


p .

9. si A ∈ O(p), entonces todos los valores propios tienen valor absoluto igual a 1.

10. si A ∈ UT(p) (o LT(p)), entonces los valores propios de A son a11 , ..., app (los elementos
de la diagonal).

11. si A tiene valores propios λ1 , λ2 ,..., λp , entonces (A − k Ip ) tiene valores propios λ1 −


k, λ2 − k, ... , λp − k.

1.2.7 Formas Cuadráticas

[Forma Cuadrática] Sea X ∈ IRp , tal que f (x1 , ..., xp ) = f (X) es una función real valorada,
esto es, xi ∈ IR, ∀ i = 1, ..., p. Entonces, se dice que f (X) es una forma cuadrática si
p X
X n
f (x1 , ..., xp ) = aij xi xj = XT A X,
i=1 j=1
1.2. ASPECTOS DE TEORÍA MATRICIAL 27

donde A ∈ IRp×p es llamada la matriz de la forma cuadrática.


La matriz de una forma cuadrática siempre se puede escoger simétrica.
Sean X, Y ∈ IRp y A, B y C ∈ IRp×p . Entonces, cuando es necesario hacer un cambio
de variables de xi a yi , i = 1, ..., p, a través del conjunto de ecuaciones lineales Y = C −1 X,
donde C es una matriz no singular, la forma cuadrática XT A X se puede expresar como

XT A X = YT C T A C Y = YT (C T AC) Y = YT B Y,

donde B =T A C, de modo que A y B son congruentes.

1.2.8 Matrices Definidas y Semi-definidas Positivas

[Matriz Definida Positiva] Sea A ∈ IRp×p . Entonces, A se dice definida positiva si

1. A = AT y

2. XT AX > 0, ∀ X ∈ IRn y X 6= 0.

[Matriz Semidefinida Positiva] Sea A ∈ IRp×p . Entonces, A se dice semidefinida positiva si

1. A = AT ,

2. XT AX ≥ 0, ∀ X ∈ IRn y

3. XT AX = 0, para al menos un X ∈ IRn y X 6= 0.

[Matriz Definida No Negativa] Una matriz se dice definida no negativa si y sólo si, es
definida positiva o semi-definida positiva.

1.2.9 Proyecciones Ortogonales

[Matriz Idempotente] Una matriz A se dice idempotente si A2 = A.


[Traza] Sea A ∈ IRp×p . Entonces, la traza de A se define como la suma de los elementos
de la diagonal, esto es,
p
X
tr A = aii .
i=1
28 CHAPTER 1. PRELIMINARES

[Matriz de una Proyección Ortogonal] Una matriz A se dice que es la matriz de una
proyección ortogonal si

1. A = AT y

2. A2 = A,

esto es, si es simétrica e idempotente.


En lo posterior, para referirse a la matriz de una proyección ortogonal se dirá simplemente
proyección ortogonal, pues la proyección ortogonal es la aplicación lineal de dicha matriz y su
relación es biunı́voca.
Sea A una proyección ortogonal. Entonces,

1. (Ip − A) es también una proyección ortogonal.

2. tr A = rk A.

3. sus valores propios son 0 ó 1.

1.2.10 Factorizaciones de Matrices

Sea A ∈ IRp×p . Ası́,

1. si A tiene valores propios reales, entonces

A = H T HT , (1.9)

donde H ∈ O(p) y T ∈ UT(p), cuyos elementos de la diagonal son los valores propios
de A.

2. si A = AT , con valores propios λ1 , λ2 ,..., λp , entonces

A = H T D H, (1.10)
1.2. ASPECTOS DE TEORÍA MATRICIAL 29

donde H ∈ O(p) y D = diag(λi ), i = 1, 2, ..., p. Si H T = (h1 ... hp ), entonces hi es un


vector propio de A asociado al valor propio λi , i = 1, 2, ..., p. Frecuentemente, se asume
que λ1 ≥ λ2 ≥ · · · ≥ λp . Además, si λ1 , λ2 , ..., λp son distintos, la representación (2.10)
es única, salvo cambios de signo en cada elemento de la primera fila de H. Ası́, se puede
reescribir (2.10) de la forma
p
X
A= λi hi hTi , (1.11)
i=1

la cual es llamada ”descomposición espectral” de A.


1 1 1 1
3. si A > 0 (≥ 0), entonces existe A 2 > 0 (≥ 0), tal que A = A 2 A 2 . Ası́, A 2 puede
descomponerse de la forma
A1/2 = H T D1/2 H, (1.12)

donde A1/2 es llamada ”raı́z cuadrada simétrica”, H y D están definidas como en (2.10)
1 ³√ ´
y D 2 = diag λi .

4. si A ∈ IRp×p y el rk A = r ≤ p, entonces

(a) existe una matrix B ∈ IRp×r de rango r, tal que

A = B BT . (1.13)

(b) existe una matriz no singular C ∈ IRp×p , tal que


 
Ir 0  T
A=C 
  C . (1.14)
0 0

(c) existe una matriz T ∈ UT(p), tal que

A = T T T. (1.15)

Cuando los elementos de la diagonal de T son no negativos, la descomposición


(2.15) se denomina ”descomposición de Cholesky”. Dicha descomposición es única
si A > 0.
30 CHAPTER 1. PRELIMINARES

5. si A ∈ IRn×p (n ≥ p), entonces A puede descomponerse de la forma

A = U B, (1.16)

donde U ∈ Vn,p y B ∈ IRp×p y B ≥ 0. Si el rk B = p, entonces B > 0. Otra forma de


representar A es  
 Ip 
A=U   B, (1.17)
0
donde ahora U ∈ O(p) y B está definida como en (2.16).

6. si A ∈ IRn×p y B ∈ IRn×q , tal que p ≤ q, entonces AT A = B T B si y sólo si, existe una


matriz H ∈ Vp,q , tal que A H = B.

7. Si A ∈ IRn×p (n ≥ p), entonces


A = U D V, (1.18)

donde U ∈ Vn,p , V ∈ O(p), D = diag(λi ), i = 1, ..., p y λ21 , ..., λ2p , son los valores propios
de AT A. Otra representación de A serı́a

A = H (D 0)T V, (1.19)

donde H ∈ O(n), V y D son las mismas que en (2.18) y 0T ∈ IR(n−p)×p . La descom-


posición dada en (2.18) o en (2.19) es llamada ”descomposición en valores singulares”.

8. Si A1 , ..., Ak son matrices simétricas tal que, Ai Aj = 0, para i 6= j, i, j = 1, ..., k, entonces


existe H ∈ O(p) tal que, H T Ai H = Di , siendo Di una matriz diagonal, i = 1, ..., k.

9. Si A, B ∈ IRn×n , con A > 0 y B = B T , entonces existe una matriz no singular H ∈ IRn×n


tal que,
A = H HT y B = H D HT , (1.20)

donde D = diag(λi ) y λ1 ,...,λn son los valores propios de A−1 B. Si B > 0 y λ1 ,...,λn son
todos distintos, H es única, salvo cambios de signo en cada elemento de la primera fila
de H.
1.2. ASPECTOS DE TEORÍA MATRICIAL 31

1.2.11 Inversa Generalizada de una Matriz

[Matriz Inversa Generalizada] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que
cumple con

1. ABA = A,

2. BAB = B,

3. (AB)T = AB y

4. (BA)T = BA,

tal que B es llamada la matriz inversa generalizada (o de Moore-Penrose) de A, se denota por



B = A y se usa la terminologı́a g-inversa para referirse a ella.
. Sea A ∈ IRn×p . Ası́,

1. toda matriz A tiene asociada una única matriz A que satisface las condiciones de la
Definición 2.28, esto es, cada matriz tiene asociada una única g-inversa.

2. si rk A = n, entonces A = AT (AT A)−1 .

3. si rk A = p, entonces A = (AT A)−1 A.

4. si rk A = n = p, entonces A = A−1 .
− − − − −
5. si rk A = r, entonces, rk A = rk A = rk A A = rk AA = rk AA A = rk AAA .
− −
6. (A ) = A.

7. si A es simétrica, entonces A también lo es.
− − −
8. A = (AT A) AT = AT (AAT ) .
− − −
9. (AT A) = A (A )T .
− −
10. (AT ) = (A )T .
32 CHAPTER 1. PRELIMINARES


11. si A = P QT , con P ∈ IRn×r , Q ∈ IRr×m y rk A = rk P = rk Q = r, entonces A =
− −
(Q )T P .

12. si A es una proyección ortogonal, entonces A = A.

13. si AT = A, entonces A = H T DH (como en (2.10)), donde H ∈ O(p) y D = diag(λi ),


i = 1, ..., n. Sea 

 λ−1
− ; si λ 6= 0
λ = .
 0 ; si λ = 0
− −
Entonces, A = H T diag(λi )H.
− −
14. AA y A A son proyecciones ortogonales.

[Matriz Inversa Condicional] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que
cumple con
ABA = A, (1.21)

tal que, B se denomina matriz inversa condicional de A o c-inversa de A y se denota por


c
B=A .
Sea A ∈ IRn×p . Ası́,
c
1. toda matriz A tiene asociada una matriz A , pero no es única.
c
2. rk A ≥ rk A = r.
c c
3. AA y A A son matrices idempotentes.
c c
4. si rk A = r, entonces rk A A = rk A A = r
c
5. A A = Ip si y sólo si, el rango de A es p, esto es, el rango de A es igual al número de
sus columnas.
c
6. A A = In si y sólo si, el rango de A es n, esto es, el rango de A es igual al número de
sus filas.
c c
7. (AT ) = (A )T .
1.3. EVALUACIÓN DEL JACOBIANO 33

1.2.12 Producto Kronecker

[Producto Kronecker] Considere las matrices A = (aij ) ∈ IRn×p y B ∈ IRm×q . El producto


Kronecker de dos matrices, es la matriz de orden (nm × pq) definida por
 
 a11 B a12 B · · · a1p B 
 

 a21 B a22 B · · · a2p B 

AB = 
 .. .. ... .. 
 = (aij B).
 . . . 
 
 
an1 B an2 B · · · anp B

Sean A, B, C y D matrices de órdenes adecuados y sean α, β ∈ IR. Tal que,

1. ABC = (AB)C = A(BC).

2. (A + B)(C + D) = AC + BC + AD + BD.

3. (AB)(CD) = ACBD.

4. αA = α A = A α = Aα.

5. (AB)T = AT B T .

6. (AB)−1 = A−1 B −1 .
− − −
7. (AB) = A B .

8. si A ∈ IRn×n , con valores propios λ1 , . . . , λn y B ∈ IRm×m , con valores propios δ1 , . . . , δm ,


entonces los nm valores propios de (AB) están dados por

λi δj , i = 1, ...n, j = 1, ..., m.

1.3 Evaluación del Jacobiano


Para calcular la función de distribución multivariante de algunos estadı́sticos, en muchas
ocasiones se hace necesario hacer cambios de variables con integración múltiple; en este caso
se usa con frecuencia el jacobiano de la transformación.
34 CHAPTER 1. PRELIMINARES

Considere la integral múltiple sobre un conjunto C ∈ IRn


Z
g(x1 , ..., xn ) dx1 · · · dxn . (1.1)
C

Sea entonces XT = (x1 . . . xn ) una transformación uno-a-uno a nuevas variables YT =


(y1 . . . yn ) a través de la relación yi =fi (x1 , ..., xn ); i = 1, ..., n, donde las {fi }’s son conti-
nuamente diferenciables. Esta relación se denota por Y = f (X) y X = f −1 (Y). El determi-
∂XT
nante de , se denota por
∂YT
¯ ¯
¯ ∂(x . . . x ) ¯
¯ 1 n ¯
J = J(X → Y) = ¯ ¯
¯ ∂(y1 . . . yn ) ¯

y se denomina Jacobiano de la transformación de X a Y y |J| es su valor absoluto. Ahora


(3.1) puede expresarse como
Z
g(f −1 (Y)) |J(X → Y)| dY, (1.2)
T
donde
T ≡ {Y | Y = f (X), X ∈ C}.

Sea J(·) el jacobiano de una transformación. Ası́,

1. J(X → Y) = (J(Y → X))−1 .

2. si Y = f (X) y z = g(Y), entonces

J(X → z) = J(X → Y) · J(Y → z) (1.3)

3. Si dX = A dY, entonces J(X → Y) es |A| y |J| es el valor absoluto.

1.3.1 La Transformación de Coordenadas Esféricas Generalizadas

Sean  
j−i
Y
xj = r sen φk  cos φj ; 1 ≤ j ≤ n − 2,
k=1
Ãn−2 !
Y
xn−1 = r sen φk cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2,
k=1
Ãn−2 !
Y
xn = r sen φk sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞.
k=1
1.3. EVALUACIÓN DEL JACOBIANO 35

Entonces, el Jacobiano de la transformación de XT = (x1 ... xn ) a YT = (r, φ1 , ..., φn−2 , θ)


viene dado por
Ãn−2 !
Y
n−1 n−k−1
J(x1 , ..., xn → r, φ1 , ..., φn−2 , θ) = r sen φk . (1.4)
k=1

Demostración. Sea Ãn−2 !


Y
x2n =r 2 2
sen φk sen2 θ, (1.5)
k=1
de modo que
Ãn−2 ! Ãn−2 ! Ãn−2 !
Y Y Y
x2n+1 + x2n =r 2 2
sen φk 2
cos θ + r 2 2
sen φk 2
sen θ = r 2 2
sen φk . (1.6)
k=1 k=1 k=1

Haga ahora n = 3 y luego por inducción se generaliza para n. Ası́,


à 1 !
Y
x22 + ... + x2n = x2 + x3 = r2 sen2 φk = r2 sen2 φ1 , (1.7)
k=1

con lo cual
n
X n
X
x2i = x2i + x21 = r2 sen2 φ1 + r2 cos2 φ1 = r2 . (1.8)
i=1 i=2

De esta manera

J(x1 , ..., xn → r, φ1 , ..., φn−2 , θ) = J(xn → θ) · J(xn−1 → φn−2 ) · . . . · J(x2 → φ1 ) · J(x1 → r).

Entonces, derivando parcialmente (3.5), (3.6), (3.7) y (3.8), se tiene que


Ãn−2 !
∂xn 1 2 Y
= r sen2 φk sen θ cos θ,
∂θ xn k=1

n−2
à !
∂xn−1 1 Y cos φn−2
= r2 sen2 φk ,
∂φn−2 xn−1 k=1 sen φn−2
..
.
∂x2 1 2
= r sen φ1 cos φ1 ,
∂φ1 x2
∂x1 r
= .
∂r x1
36 CHAPTER 1. PRELIMINARES

De modo que, si X0 = (x1 . . . xn ) e Y0 = (r φ1 . . . φn−2 θ), entonces

J(X → Y) =

Ãn−2 ! Ãn−2 !
r2 Y
2 r2 Y
2 cos φn−2 r2 r
sen φk sen θ cos θ · sen φk · sen φ1 cos φ1 · .
xn k=1 xn−1 k=1 sen φn−2 x2 x1
Ası́, finalmente,
Ãn−2 !
Y
n−1 n−k−1
J (x1 . . . xn ) → (r φ1 . . . φn−2 θ)) = r sen φk .
k=1

Los cos φk se cancelan en forma sucesiva con un término igual que le precede en el numer-
ador. El exponente (n − k − 1) se observa como se va generalizando ya en el segundo término
del producto.
Chapter 2

Distribuciones de Contornos Elı́pticos

2.1 Introducción

En el último tiempo se ha planteado una clase de distribuciones cuyos contornos de sus den-
sidades tienen la misma forma elı́ptica de la distribución Normal, pero además contienen
distribuciones de colas más y menos pesadas que las de ésta. Dicha clase de distribuciones se
denomina de Contornos Elı́pticos o simplemente distribuciones Elı́pticas.

Las distribuciones Elı́pticas han sido estudiada por diversos autores, entre los que se encuen-
tran los trabajos [50], [18], [49] y [12], y los más recientes [5] y [54], entre otros. Aunque a
partir de 1970 estas distribuciones comenzaron su auge, se registran estudios anteriores, como
lo son [72] y [56]. La mayorı́a de estos trabajos, salvo los más recientes, son recopilados en los
libros [1], [32], [31], [39] y [70], quienes entregan un adecuado tratamiento del tema.

A pesar de los diversos trabajos que se han presentado hasta ahora, aún no se encuentran trata-
dos diversos problemas que hasta ahora sólo han sido abordados con la distribución Normal,
entre ellos la densidad de una distribución Elı́ptica singular, la distribución F Generalizada
doble no centrada y la inferencia para el coeficiente de variación, entre otros.

37
38 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

2.2 Distribución Elı́ptica No Singular

2.2.1 Distribuciones Elı́pticas y Esféricas

Para fijar ideas, considere un vector aleatorio n-dimensional X. Ahora bien, si X ∈ IRn es
un vector aleatorio con parámetro de posición µ ∈ IRn , matriz de escala Σ ∈ IRn×n y con
rk Σ = r ≤ n, entonces la distribución de X se dice singular o no singular, dependiendo si
r < n o si r = n, respectivamente.
[Distribución Elı́ptica] Sea X ∈ IRn . Entonces, X pertenece a la familia de distribuciones
Elı́pticas de parámetros µ, Σ y φ si y sólo si su función caracterı́stica es

ψX (t) = exp(itT µ) φ(tT Σt) (2.1)

y se denota por X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y φ : IRn → IR.

Observe que la función caracterı́stica existe aun cuando Σ sea semidefinida positiva, es decir,
cuando rk Σ = r < n, en cuyo caso la distribución Elı́ptica obtenida es llamada distribución
Elı́ptica singular, la cual se tratará con detalle más adelante.
Sea X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, la densidad de X es
1
gX (X) = |Σ|− 2 f [(X − µ)T Σ−1 (X − µ)], (2.2)

siendo f (u), con u ≥ 0, una función real y que se denomina generadora de densidades. En
este caso, se usa la notación X ∼ ECn (µ, Σ; f ).

Ası́, la condición necesaria para que la densidad de X exista con respecto a la medida de
Lebesgue en IRn es que rk Σ = r = n, esto es, que Σ > 0, con lo cual la distribución de X es
no singular.
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X puede representarse
de la forma
X = µ + AT Y,

de modo que
Y = (AT )−1 (X − µ),
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 39

con Σ = AT A, A ∈ IRn×n .
[Distribución Esférica] Sea X ∼ ECn (µ, Σ; φ) con µ ∈ IRn , Σ ∈ IRn×n . Entonces, si
µ = 0 y Σ = In , se dice que X se distribuye Esférica y se denota por X ∼ Sn (φ), esto es,
Sn (φ) ≡ ECn (0, In ; φ) o Sn (f ) ≡ ECn (0, In ; f ).
Sea X ∼ Sn (φ). Entonces,

d
1. X = H X, ∀ H ∈ O(n).

2. ψX (t) = φ(tT t) = φ(ktk2 ), φ(u), u ≥ 0, dado como en (5.1).

3. la densidad de X puede expresarse como gX (X) = f (XT X), f (u), u ≥ 0, dado como
(5.2).

d
4. para XT = (X1 X2 . . . Xn ) ∼ Sn (φ), aT X = X1 ; ∀ a ∈ IRn y kak = 1.

En una distribución Esférica, para n = 1 se tienen todas las distribuciones simétricas en


IR.

2.2.2 Representación Estocástica

Sea U (n) un vector aleatorio uniformemente distribuido en la esfera unitaria en IRn , esto es,
U (n) ∼ Un {X ∈ IRn kXk = 1} y que se denota por U (n) ∼ Un {EkXk=1 }, U (n) se distribuye de
acuerdo a una ley Esférica.
Sea X ∼ Sn (f ). Entonces, X admite la representación estocástica

d
X = R U (n) , (2.3)

donde R ≥ 0 tiene función de distribución GR (·) y es independiente de U (n) ∼ Un {EkXk=1 }.


La distribución de R es algunas veces llamada distribución Radial.
d
Sea X = R U (n) ∼ Sn (f ) y IP (X = 0) = 0. Entonces,

d X d (n)
kXk = R y =U , (2.4)
kXk
40 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

de modo que
X
X = R U (n) = kXk · .
kXk
donde R ∼ GR (·) y U (n) ∼ Un {EkXk=1 } son independientes.
Sea U (n) ∼ Un {EkXk=1 }. Entonces,
1
IE(U (n) ) = 0 y Var(U(n) ) = In . (2.5)
n

Sean U (n) ∼ Un {EkXk=1 } y R ∼ GR (·) independientes. Entonces, si IE(R) < ∞,

IE(X) = IE(R) · IE(U (n) ) = 0. (2.6)

Sean U (n) ∼ Un {EkXk=1 } y R ∼ GR (·), independientes. Entonces, si IE(R2 ) < ∞,


1
V ar(X) = IE(R2 ) · V ar(U (n) ) = IE(R2 ) · In . (2.7)
n

Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X admite la


representación estocástica
d
X = µ + R AT U (n) , (2.8)

donde la variable aleatoria R ≥ 0 es independiente de U (n) y A ∈ IRn×n es tal que Σ = AT A.


d
Sea X = µ + R AT U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0, R ≥ 0
independiente de U (n) , A ∈ IRn×n y Σ = AT A. Entonces,
d
Q(X) = (X − µ)T Σ−1 (X − µ) = R2 , (2.9)

donde R está dad en (5.3).


Sea X no degenerada. Ası́,

1. si X ∼ ECn (µ, Σ; f ) y X ∼ ECn (µ0 , Σ0 ; f0 ), con µ, µ0 ∈ IRn y Σ, Σ0 ∈ IRn×n , entonces


existe una constante real c0 > 0, tal que

µ = µ0 , c0 Σ = Σ 0 y f0 (·) = f (c−1
0 ). (2.10)
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 41

d d
2. si X = µ + R AT U (r) = µ0 + R0 AT U (r0 ) , donde r ≥ r0 , entonces existe una constante
c0 > 0, tal que

d −1/2
µ = µ0 , c0 AT A = AT A y R0 = c0 R br0 /2,(r−r0 )/2 , (2.11)

donde br0 /2,(r−r0 )/2 ≥ 0 es independiente de R y b2r0 /2,(r−r0 )/2 ∼ Beta(r0 /2, (r − r0 )/2), si
r > r0 y br0 /2,(r−r0 )/2 ≡ 1 si r = r0 .

En lo posterior se usará indistintamente la notación X ∼ ECn (µ, Σ; f ) o X ∼ ECn (µ, Σ; φ),


según convenga, lo mismo ocurrirá con las distribuciones Esféricas.

2.2.3 Distribuciones Marginales

Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0, B ∈ IRn×m y γ ∈ IRm . Entonces,

Z = γ + BT X ∼ ECn (BT µ + γ, BT Σ B; f ). (2.12)

Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn ,Σ ∈ IRn×n , Σ > 0 y considere la partición de X, µ y


Σ dada por      
X1   µ1   Σ11 Σ12 
X=
 , µ =  , Σ =   (2.13)
X2 µ2 Σ21 Σ22
donde X1 , µ1 ∈ IRm y Σ11 ∈ IRm×m . Entonces, X1 ∼ ECm (µ1 , Σ11 ; f ) y X2 ∼ EC(n−m) (µ2 , Σ22 ; f ).

2.2.4 Distribuciones Condicionales


³ ´T
Sea X = XT1 XT2 , donde X ∈ IRn , X1 ∈ IRm y X2 ∈ IRn−m . Se está interesado en la
distribución condicional de X1 dado X2 = x0 .
d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, la
distribución condicional de X1 dado X2 = x0 viene dada por

(X1 / X2 = x0 ) ∼ ECm (0, I; fm ), (2.14)


42 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

cuya representación estocástica es


³ ´
d
(X1 / X2 = x0 ) = R kx0 k2 U (m) , (2.15)

donde R(·) y U (m) son independientes y


³ ´ ³ 1
´
d
R kx0 k2 = (R2 − kx0 k)2 ) 2 / X2 = x0 . (2.16)

d
Sea X = µ + RAT U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y considere la
misma partición de X, µ y Σ dada en (5.13). Entonces,

d
(X1 / X2 = x0 ) = µ1.2 + Rq(x0 ) AT11.2 U (n) ∼ ECm (µ1.2 , Σ11.2 , f ), (2.17)

donde
µ1.2 = µ1 + Σ12 Σ−1
22 (x0 − µ2 ),

Σ11.2 = Σ11 − Σ12 Σ−1


22 Σ21 ,

q(x0 ) = (x0 − µ2 )T Σ−1


22 (x0 − µ2 )

y Σ11.2 = AT11.2 A11.2 . Además, para todo a ≥ 0, Ra2 es independiente de U (m) y admite la
representación estocástica
³ 1
´
d
Rq(x0 ) = (R2 − q(x0 )) 2 / X2 = x0 . (2.18)

2.2.5 Momentos

Si X ∼ Nn (µ, Σ), con µ ∈ IRn y Σ ∈ IRn×n , se sabe que IE(X) = µ y V ar(X) = Σ. En el caso
de las distribuciones Elı́pticas no siempre existen estos momentos (por ejemplo la distribución
de Cauchy).
d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de
U (n) . Entonces, si IE(R) < ∞ y IE(R2 ) < ∞, el primer y segundo momento de X existen.
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 43

d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de
U (n) , IE(R) y IE(R2 ) < ∞. Entonces,

IE(R2 )
IE(X) = µ y V ar(X) = · Σ.
rk Σ

Como se vio en el Teorema 5.62, en una distribución Elı́ptica la matriz de covarianzas, Σ0 ,


es proporcional al parámetro Σ de su distribución y en general no es igual a éste.
Sean X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0, una distribución no degenerada
y Mk el k-ésimo momento de X. Entonces,

1. M1 (X) = µ.

2. M2 (X) = µµT − 2φ0 (0)Σ y V ar(X) = −2φ0 (0)Σ.

3. M3 (X) = µµT µ − 2φ0 (0)[µΣ + Σµ + vec(Σ)µT ],

si ellos existen, donde es el producto Kronecker de dos matrices definido anteriormente.


Cuando la matriz de covarianzas Σ0 de X ∼ ECn (µ, Σ; φ) existe, al considerar Σ como Σ0
sólo se tiene un caso particular; la igualdad se cumple si se elige φ de manera que −2φ(0) = 1,
esto es, cuando X ∼ Nn (µ, Σ).

2.2.6 Caracterizaciones de Normalidad

La distribución Normal pertenece a la clase de distribuciones Elı́pticas. A continuación se


presentan ciertas propiedades de esta distribución, las que no pueden extenderse a otras dis-
tribuciones Elı́pticas, caracterizando ası́ a la distribución Normal.
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X tiene una
distribución Normal si y sólo si Q(X) = (X − µ)T Σ−1 (X − µ) ∼ χ2 (n).
El resultado anterior de debe a que la relación entre f y F es uno-a-uno.
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn y Σ ∈ IRn×n y Σ > 0. Entonces, cualquier distribución
marginal es Normal si y sólo si, X se distribuye normalmente.
44 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ = diag(σii ), i = 1, ..., n. Entonces, las
siguientes proposiciones son equivalentes

1. X se distribuye normalmente.

2. las componentes de X son independientes.

3. Xi y Xj (1 ≤ i < j ≤ n) son independientes.

Sea X = (XT1 XT2 )T ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X1 ∈ IRm .
Entonces, X1 / X2 = x0 se distribuye normalmente con probabilidad 1 si y sólo si X se
distribuye normalmente.

2.2.7 Distribución Invariante

Un aspecto importante de las distribuciones Esféricas es el siguiente. Cuando se está intere-


sados en hallar sus distribuciones t o F asociadas, se observa que éstas son invariantes bajo
cualquiera de ellas. Ası́, haciendo uso de la representación estocástica que admiten las distribu-
ciones Esféricas, se muestra que las distribuciones de los estadı́sticos T y F son independientes
de la variable aleatoria R, lo cual las hace invariantes.

Ası́, si X = (X1 · · · Xn )T , con X ∈ IRn , entonces


n n
1X 1 X
X̄ = Xi = 1T X, y S= (Xi − X̄)2 = XT DX, (2.19)
n i=1 n i=1

de modo que
2 S S
Sn−1 = y Sn2 = , (2.20)
n−1 n
1 T
donde D = In − 11 y 1 = (1 . . . 1)T ∈ IRn .
n
Algunos estadı́sticos muy útiles en análisis univariado son
√ X̄ √ X̄
T = n ←→ T = n−1 (2.21)
Sn−1 Sn
y
k XC1 X
F = , (2.22)
r XC2 X
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 45

donde C1 y C2 con proyecciones ortogonales, tales que rk C1 = r y rk C2 = k y C1 C2 = 0.

Por otro lado, se sabe que


T ∼ t(n − 1) y F ∼ F (r, k),

cuando X ∼ Nn (0, In ).

Se desea demostrar que este resultado es invariante cuando X ∼ Sn (f ).

En efecto, considere la función real-valorada h(·) definida por


1 T
√ 1 X
h(X) = n n .
µ ¶1
1 2
XT DX
n−1
Entonces,
1 T 1 T (n)
√ 1 R U (n) √ 1 U
d
T = h(X) = h(R U (n) ) = n n = n n ,
µ ¶1 µ ¶1
1 2 1 2
R2 U T (n) D U (n) UT (n) D U (n)
n−1 n−1
(2.23)
cuya distribución es independiente de R, de modo que lo anterior es válido para toda la clase
de distribuciones Esféricas, es decir, la distribución t centrada generalizada es invariante bajo
distribuciones Esféricas, coincidiendo por tanto con la distribución t centrada tradicional.
Análogamente, F ∼ F (r, k) para toda distribución Esférica, con lo cual la distribución F
centrada generalizada es también invariante bajo leyes Esféricas. En general entonces, se
puede plantear el siguiente teorema.
Sea X ∼ Sn (f ). Entonces, la distribución del estadı́stico t(X) es invariante bajo leyes
Esféricas si
t(αX) = t(X), ∀ α > 0. (2.24)

2.2.8 Distribuciones Elı́pticas Particulares

A continuación se dan ejemplos de algunas distribuciones Elı́pticas y Esféricas.


46 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

[Distribución t-multivariada] Una distribución Esférica particular es la distribución t-


multivariada. Ası́, si X ∼ tn (0, In ; ν), entonces su densidad viene dada por
³ ´ Ã !− ν+p
ν+n
Γ 2 XT X 2
gX (X) = ³ ´ n 1+ ,
Γ n
(πν) 2 ν
2

esto es, dicha densidad puede expresarse como

gX (x) = f (XT X),

donde ³ ´ Ã !− ν+p
ν+n
T
Γ 2 XT X 2
f (X X) = ³ ´ n 1+ ,
Γ n
(π ν) 2 ν
2

es decir,
µ ¶− ν+p
u 2
f (u) = 1 + ,
ν
con lo cual se observa que la distribución t-multivariada pertenece a la clase Esférica de
distribuciones.
[Distribución de tipo Kotz] Para r, s > 0 y 2m + n > 2, la densidad de X es
³ ´
n
−n 2m+n−2 Γ 2
gX (u) = f (u) = s π 2 r 2s ³ ´ tm−1 exp(−r us ), (2.25)
2m+n−2
Γ 2s

la que pertenece a la familia de distribuciones. Particularmente, la distribución Normal mul-


tivariada es un caso especial cuando m = 1, s = 1 y r = 1/2.
[Distribución de Pearson tipo VII] Si X ∼ PnV III (m, s), con m > n/2 y s > 0, entonces su
densidad es
µ ¶m
−n Γ(m) u n
gX (u) = f (u) = (s π) 2 ³ ´ 1+ , m> , s > 0, (2.26)
Γ m− n s 2
2

la que forma parte de distribuciones Elı́pticas. A su vez, esta familia incluye a la distribución
t-multivariada. Recuerde que si X ∼ Nn (0, Σ), Σ > 0 e Y ∼ χ2 (m), X e Y independientes.

Entonces, la distribución de T = ( m X)/Y se denomina distribución t-multivariada (John-
son and Kotz [47]) y es un caso especial de (5.25) cuando m = (n + s)/2. Cuando m = 1, la
correspondiente distribución se llama distribución de Cauchy multivariada.
2.2. DISTRIBUCIÓN ELÍPTICA NO SINGULAR 47

[Distribución Uniforme en la Esfera Unitaria en IRn ]


Sea X ∼ Un {EkXk=1 }. Considere la densidad
 ³ ´


 Γ n2 n
X

 ; si x2i ≤ 1

 n
 π2 i=1
pX (X) =  .






 0 ; en otro caso

d
Se sabe que HX = X, ∀ H ∈ O(n) y que la distribución Uniforme en la esfera unitaria
pertenece a la clase de distribuciones Elı́pticas en IRn . Entonces, X puede representarse
d
estocásticamente como X = R U (n) . Ası́, la densidad de R = kXk es
 n
³ ´
n+2



2π 2Γ
2


 ³ ´ n r n−1 = n r n−1 ; si 0 ≤ r ≤ 1
 n
 Γ 2 π2
gR (r) = .







 0 ; en otro caso

[Distribución de Laplace o Bessel generalizada]


Si X tiene una distribución de Laplace generalizada, entonces tiene densidad
 a  
µ ¶ 1 1
n n u 
2 u 2 n
gX (u) = f (u) = 2a+n−1 π β n Γ a +
2  Ka   , a > − , β > 0, (2.27)
2 β β 2

donde Ka (·) denota a la función de Bessel modificada de tercer tipo, es decir


π (I−a (z) − Ia (z))
Ka (z) = , | arg z| < π, a = 0, ±1, ±2, ...
2 sen(aπ)
e

X µ ¶a+2k
1 z
Ia (z) = , |z| < ∞, | arg z| < π,
k=0 k! Γ(k + a + 1) 2
la cual pertenece a la familia de distribuciones Elı́pticas.
[Distribuciones Elı́pticas n-variantes]

Tabla 1 Densidades o funciones caracterı́sticas de las distribuciones Elı́pticas que se


mencionan.
48 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELÍPTICOS

Ley Elı́ptica f (u), con u = XT X o φ(v), con v = tT t

Kotz f (u) = c um−1 exp(−rus ); r, s > 0, 2m + n > 2.

Normal multivariada f (u) = c exp(− 12 u).


³ ´−m
u
Pearson tipo VII (P V II ) f (u) = c 1 + s
, s > 0, m > n2 .
h ³ ´i− ν+n
u 2
t-multivariada f (u) = c 1 + s
, s, ν > 0.
h ³ ´i− ν+1
u 2
Cauchy f (u) = c 1 + s
, s, ν > 0.

Pearson tipo II (P II ) f (u) = c (1 − u)−m , m > 0.

Logı́stica f (u) = c exp(−u) (1 − exp(−u))−2 .


Z∞ µ ¶
n u
Mezcla de Normales f (u) = c v exp −
2 dF (v), F = F D.
2v
0
α
Leyes Estables φ(u) = exp(r u 2 ), 0 < α ≤ 2, r < 0.
³ ´
n
Uniforme multivariada φ(u) = 0 F1 2
; − u4 .

Donde c > 0 es una constante de normalización que varı́a dependiendo de cada distribución,
algunas de las cuales ya se han planteado explı́citamente en los ejemplos anteriores.
d
[Distribución de R2 ] Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X = R U (n) ,
d
donde R = kXk y es independiente de U (n) ∼ Un {EkXk=1 }. Entonces, haciendo uso del
Corolario 5.53 se tiene que

1. si R2 ∼ χ2 (n), esto es equivalente a decir que X ∼ Nn (0, In ).

2. si R2 ∼ n−1 Fν,n , esto es equivalente a decir que X ∼ tn (0, In ; ν).

3. si R2 ∼ Beta( n2 , ν + 1), esto es equivalente a decir que X ∼ PnII (0, In ; ν).


Chapter 3

Distribución de Formas Cuadráticas

3.1 Introducción

La distribución de formas cuadráticas y lineales, y expresiones relacionas, obtenidas a partir


de distribuciones Elı́pticas, fueron estudiadas y publicadas en [11], [34] y [4], entre otros,
y posteriormente presentadas en los libros de [1] y [39], entre otros. Estas distribuciones
corresponden a las distribuciones χ2 , t y F obtenidas bajo distribuciones Elı́pticas.

Las distribuciones t y F obtenidas a partir de distribuciones Elı́pticas se denominan distribu-


ciones t y F generalizadas. Sin embargo, si el parámetro de posición ν de la ley Elı́ptica es
igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y
F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes Elı́pticas
cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no
centradas dependen de la ley Elı́ptica particular bajo la cual fueron obtenidas. Asimismo,
las distribuciones t y F generalizadas doble no centradas, análogas a las del caso Normal,
dependen también de la ley Elı́ptica asociada.

49
50 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

3.2 Distribución Chi-cuadrado Generalizada

3.2.1 Introducción

Recuerde que si X ∼ Nn (0, In ), entonces U = XT X ∼ χ2 (n) y tiene densidad


1 n 1
gU (u) = n
³ ´ u 2 −1 exp(− u); u ≥ 0. (3.1)
2 Γ
2
n 2
2

Análogamente, si X ∼ Nn (µ, In ), con µ ∈ IRn , µ 6= 0, entonces U = XT X ∼ χ2 (n, δ), con


δ = (1/2)µT µ, cuya densidad es
+k−1 n 1
δ exp(−δ) u 2
∞ k
X exp(− u)
2´ ;
gU (u) = n
³ u > 0, (3.2)
k=0 k! 2 2 +k Γ n
+k
2

es decir, una suma ponderada infinita de densidades χ2 (n + 2k) centradas, cuyos factores de
ponderación vienen dados por una ley de Poisson de parámetro δ = (1/2)µT µ. Esta última
llamada distribución chi-cuadrado no centrada con parámetro de no centralidad dado por
δ = (1/2)µT µ.

De la misma forma, si X ∼ Nn (µ, Σ), con µ ∈ IRn , µ 6= 0, Σ ∈ IRn×n y Σ > 0, entonces


U = XT Σ−1 X ∼ χ2 (n, δ), con δ = (1/2)µT Σ−1 µ, cuya densidad es la misma que en el caso
anterior haciendo la correspondiente adaptación en el parámetro de no centralidad.

3.2.2 Distribución Chi-cuadrado Generalizada Centrada y No Cen-


trada

A continuación se presenta la distribución chi-cuadrado generalizada no centrada antes que


su distribución centrada equivalente, ya que esta última es sólo un caso particular de la no
centrada, obteniendo ambas distribuciones bajo no singularidad de la ley Elı́ptica asociada.
[Distribución Gχ2 no centrada] Sea X ∼ ECn (µ, In ; f ), con µ ∈ IRn y µ 6= 0. Entonces,
U = XT X ∼ Gχ2 (n, δ; f ), con δ = (1/2)µT µ y tiene densidad dada por
n−1 Zπ
π 2 n
gU (u) = ³ ´ u 2 −1 f (u − 2γ u(1/2) cos φ + γ 2 ) senn−2 φ1 dφ1 ; u > 0, (3.3)
n−1
Γ 2 0
3.2. DISTRIBUCIÓN CHI-CUADRADO GENERALIZADA 51

donde γ 2 = µT µ = 2δ.
Demostración. Sean X ∼ ECn (µ, In ; f ), con µ ∈ IRn , µ 6= 0 e Y = H X ∼ ECn (ν, In ; f ),
q qP
n
con H ∈ O(n); ν = (kµk 0 . . . 0)T y kµk = (µT µ) = i=1 µ2i . Note que

kYk = kH Xk = (XT H T HX)(1/2) = (XT X)(1/2) = kXk.

De esta manera, como


gY (Y) = f ((Y − ν)T (Y − ν))

donde  T  
 y1 − kµk   y1 − |µk 
   
   
T
 y 2   y2 

(Y − ν) (Y − ν) =  .   ,
  . 
 ..   .. 
   
   
yn yn
se obtiene que
n
X
(Y − ν)T (Y − ν) = (y1 − kµk)2 + yi2
i=2
n
X
= y12 − 2y1 kµk + kµk2 + yi2
i=2
n
X
= yi2 + kµk2 − 2y1 kµk.
i=1

Ası́, Ã n !
X
gY (Y) = f yi2 2
+ kµk − 2y1 kµk .
i=1

Considere la t.c.e.g. y el cambio de variables

Y1 = r cos φ1
 
j−i
Y
Yj = r sen φk  cos φj ; 1 ≤ j ≤ n − 2
k=1
Ãn−2 !
Y
Yn−1 = r sen φk cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2
k=1
Ãn−2 !
Y
Yn = r sen φk sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞
k=1

X
Yi2 = kY k2 = r2 = U ,
k=0
52 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

de modo que el Jacobiano de la transformación de Y = (Y1 . . . Yn )T a Z = (r φ1 . . . φn−2


θ)T viene dado por
Ãn−2 !
Y
n−1 n−k−1
J = J ((Y1 . . . Yn ) → (r φ1 . . . φn−2 θ)) = r sen φk .
k=1

De este modo

gZ (r, φ1 , . . . , φn−2 , θ) = gY (z) · |J|


Ãn−2 !
³ ´ Y
2 2 n−1 n−k−1
= f r + kµk − 2r cos φ1 kµk r sen φk .
k=1

Obtenga ahora la densidad de r = kXk = kYk


Zπ Zπ Z2π
gr (r) = ··· gZ (r, φ1 , . . . , φn−2 , θ) dθ dφ1 · · · dφn−2
0 0 0
n−1
−1 Zπ ³ ´
rn−1 2π π 2
= ³
n−1
´ f r2 + kµk2 − 2r kµk cos φ1 senn−2 φ1 dφ1
Γ 2 0
n−1 Zπ ³ ´
2 rn−1 π 2
= ³
n−1
´ f r2 + γ 2 − 2r γ cos φ1 senn−2 φ1 dφ1 ,
Γ 2 0

donde γ 2 = kµk2 . Considere ahora el cambio de variables



u = r2 −→ r = u,

cuyo jacobiano es
dr 1
J= = √ ,
du 2 u
de modo que

gU (u) = gr ( u) |J|
√ 1
= gr ( u) √
2 u
n−1 µ ¶ Zπ ³ ´
2 (u(1/2) )n−1 π 2 1
= ³ ´ f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1
Γ n−1 2 u(1/2)
2 0
n−1 Zπ ³ ´
π 2 n
= ³ ´ u 2 −1 f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1 ; u > 0,
n−1
Γ 2 0
3.2. DISTRIBUCIÓN CHI-CUADRADO GENERALIZADA 53

con γ 2 = µT µ = kµk2 = 2δ. Por tanto

U = XT X = kXk2 = r2 ∼ Gχ2 (n, δ),

donde δ = (1/2)µT µ = kµk2 es el parámetro de no centralidad de la distribución.


[Distribución Gχ2 centrada] Sea X ∼ Sn (f ). Entonces, U = XT X ∼ Gχ2 (n; f ) y su
densidad es n
π2 n
gU (u) = ³ ´ u 2 −1 f (u); u > 0. (3.4)
n
Γ 2

Demostración. Considere el Teorema 2.79 y reemplace en la expresión (3.2.3) γ = kµk = 0,


de modo que µ = 0 (caso centrado). Entonces,
n−1 Zπ
π 2 n
−1
gU (u) = ³
n−1
´ u 2 f (u) senn−2 φ1 dφ1
Γ 2 0
n−1 Zπ
π 2 n
−1
= ³
n−1
´ u 2 f (u) senn−2 φ dφ
Γ 2 0
n−1
π 2 n
= ³ ´ u 2 −1 f (u) In .
n−1
Γ 2

La integral In es válida para toda distribución Elı́ptica y en particular para la distribución


Normal y en ese caso
µ ¶
1 u
f (u) = n exp − ,
(2π) 2 2
obteniendo
n−1 µ ¶
π 2 n
−1 1 u
gU (u) = ³ ´ u 2 n exp − In
Γ n−1 (2π) 2 2
2
µ ¶
1 n
−1 u
= n 1
³ ´ u 2 exp − In .
22 π2 Γ n−1 2
2

Ahora bien, como gU (u) es densidad entonces


Z∞
1 = gU (u) du
0
54 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

Z∞ µ ¶
1 n u
= n 1
³ ´ u 2 −1 exp − In du
22 π2 Γ n−1 2
0 2
Z∞ µ ¶
1 n
−1 u
= In n 1
³ ´ u 2 exp − du.
22 π2 Γ n−1 2
2 0

Usando ahora la función Gamma se tiene


³ ´
Z∞ µ ¶ Γ n µ ¶
n
−1 u 2 n n
u 2 exp − du = =2 Γ
2
2 1 n 2
0 ( )2
2
y por tanto
1
³ ´
n−1
π2 Γ 2
In = ³ ´
n
Γ 2

Ası́, finalmente
n
π2 n−1
gU (u) = ³ ´ u
n
2 f (u); u>0
Γ 2

U = YT Y ∼ Gχ2 (n).

Note que la densidad dada en el Teorema 2.79 está expresada en términos de una integral.
En Teng, Fang y Deng [80] puede verse como esta densidad es expresada en términos de las
derivadas de la función f , usando expansión en serie de Taylor de dicha función. A continución
se da la demostración de ese resultado.
[Densidad Gχ2 no centrada en función de las derivadas de f ] Sea U ∼ Gχ2 (n, δ; f ),
1
δ = µT µ y f expandible en serie de Taylor en IR. Entonces, una forma alternativa de
2
expresar la densidad de U es
∞ n
X γ 2k π 2 n
gU (u) = ³ ´ u 2 +k−1 f (2k) (u + γ 2 ); u > 0, (3.5)
n
k=0 k! Γ 2
+k

donde γ 2 = 2δ = µ0 µ y f (2k) (·) es la 2k-ésima derivada de f (·).


3.2. DISTRIBUCIÓN CHI-CUADRADO GENERALIZADA 55

Demostración. Sea U ∼ Gχ2 (n, δ; f ), con δ = (1/2)µT µ. Entonces su densidad viene dada
por
n−1 Zπ
π 2 n
−1
gU (u) = ³
n−1
´ u 2 f (u + γ 2 − 2u(1/2) γ cos φ) senn−2 φ dφ. (3.6)
Γ 2 0

Considere el cambio de variable

y = u(1/2) −→ u = y 2 ,

cuyo jacobiano es
dy
J= = 2y,
du
tal que
n−1 Zπ
2π 2
gU (y) = ³ ´ y n−1 f (y 2 + γ 2 − 2 y γ cos φ) senn−2 φ dφ
n−1
Γ 2 0
n−1
2π 2
= ³ ´ y n−1 In ; u > 0, γ 2 = 2δ.
n−1
Γ 2

Considere el desarrollo en serie de Taylor en IR dado por



X al
f (v) = vl ,
l=0 l!

procediendo análogamente a Anderson y Fang [1, pág. 85], se obtiene


In = f (y 2 + γ 2 − 2y γ cos φ) senn−2 φ dφ
0
Zπ "X

#
al 2 2 l
= (y + γ − 2y γ cos φ) senn−2 φ dφ
l=0 l!
0
π

X al Z
= (y 2 + γ 2 − 2y γ cos φ)l senn−2 φ dφ
l=0 l!
0
√ µ ¶ X

π n−1 γ 2k
= Γ ³ ´ y 2k f (2k) (y 2 + γ 2 )
2 2 k=0 k! Γ k + n
2
56 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

con lo cual
n−1
2π 2
gU (y) = ³ ´ y n−1 In
n−1
Γ 2
√ 
n−1 µ ¶ X

2π 2 π n−1 γ 2k
= ³ ´ y n−1  Γ ³ ´ y 2k f (2k) (y 2 + γ 2 )
Γ n−1 2 2 k=0 k! Γ k + n
2 2
∞ n
X 2k
γ π 2
= ³ ´ y n+2k−1 f (2k) (y 2 + γ 2 ), u > 0,
n
k=0 k! Γ k + 2

donde γ 2 = µT µ = 2δ y f (2k) (·) es la 2k-ésima derivada de f (·) respecto de u.


La expresión (2.17) sólo es posible cuando la función generadora de densidades, f , es ex-
pandible en serie de Taylor, lo cual ocurre cuando existen los momentos de dicha distribución.
Por tanto, este uso está limitado para aquellas distribuiones Elı́pticas que posean momentos
(por ejemplo, esta representación no es posible para la distribución de Cauchy). Este hecho
justifica la existencia de las dos expresiones para la densidad.

3.3 Distribución t Generalizada

3.3.1 Introducción

La distribución t generalizada (Gt) juega un papel similar a la distribución t bajo la teorı́a de


inferencia Normal. Como se ha mencionado, la distribución Gt es la distribución de

X1 √ X1
T =s = nq ,
XT2 X2 XT2 X2
n
cuando X = (X1 XT2 )T tiene una distribución Elı́ptica. La notación ECn+1 (µ, Σ; f ) sigue
siendo válida, tanto bajo singularidad como no singularidad de la distribución, tal como se
menciona anteriormente.

Recuerde que si X = (X1 XT2 )T ∼ Nn+1 (0, In+1 ), con X1 ∈ IR y X2 ∈ IRn , entonces
√ X1
T = nq ∼ t(n)
XT2 X2
3.3. DISTRIBUCIÓN T GENERALIZADA 57

y tiene densidad ³ ´
n n+1
n2 Γ 2 n+1
gT (t) = ³ ´ (n + t2 )− 2 ; t ∈ IR. (3.7)
π (1/2) Γ n2

Análogamente, si X = (X1 XT2 )T ∼ Nn+1 (µ, In+1 ), con X1 ∈ IR y X2 ∈ IRn ; µT = [µ1 0],
µ1 ∈ IR y µ1 6= 0, entonces
√ X1
T = nq ∼ t(n, δ),
XT2 X2
con δ = µ1 y su densidad es
à ! ∞ ³ ´ k
n+k+1
n
n
2 δ 2
X Γ 2
δ k 2 2 tk
gT (t) = ³ ´ n+1 exp − k ; t ∈ IR. (3.8)
Γ n
(n + t2 ) 2 2 k=0 k!(n + t2 ) 2
2

Esta última llamada distribución t no centrada con parámetro de no centralidad dado por
δ = µ1 .

De la misma forma, si X = (X1 XT2 )T ∼ Nn+1 (µ, Σ), con X1 ∈ IR y X2 ∈ IRn ; µ = [µ1 0]T ,
µ1 ∈ IR y µ1 6= 0; Σ ∈ IRn×n y dada por
 
σ12 0 
Σ=
 ,
0 Σn

Σn ∈ IRn×n y Σn > 0, entonces


√ X1
T = nq ∼ t(n, δ),
XT2 Σ−1 X2
con δ = µ1 /σ1 .

3.3.2 Distribución t Generalizada Centrada y No Centrada

Haciendo uso de la invarianza de la distribución Gt bajo leyes Esféricas se presenta el siguiente


resultado, a continuación de él se plantea la distribución t generalizada no centrada bajo no
singularidad de la ley Elı́ptica.
[Distribución Gt centrada] Sea X = (X1 XT2 )T ∼ Sn+1 (f ), con X1 ∈ IR y X2 ∈ IRn .
Entonces,
√ X1
T = nq ∼ Gt(n; f ),
XT2 X2
58 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

la cual coincide con la del caso de una distribución Normal, esto es, Gt(n; f ) ≡ t(n), ∀f .
[Distribución Gt no centrada] Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y
X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces,

√ X1
T = nq ∼ Gt(n, δ; f ),
XT2 X2

con δ = µ1 y su función de densidad viene dada por


n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy; t ∈ IR (3.9)
Γ 2 0


donde δ es parámetro de no centralidad y δ1 = .
(n + t2 )(1/2)
Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈
IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces su densidad es

gX (X) = f ((X − µ)T (X − µ))

donde  T  
 x 1 − µ1   x 1 − µ1 
   
    n+1
T
 x 2   x2  X

(X − µ) (X − µ) =  .    = (x1 − µ1 )2 + x2i ,
 ..
 
  .. 

   .  i=2
   
xn+1 xn+1

Ası́, Ãn+1 ! Ãn+1 !


X X
gX (X) = f x2i + (x1 − µ1 )2 = h x2i = h(u),
i=2 i=2
n+1
X
esto es, la densidad anterior es función de x2i , de modo que es posible aplicar el Lema
i=2
2.4.5 (vea [32], pág. 53) que para nuestro caso particular se reduce a lo siguiente y teniendo
q
presente que kX2 k = XT2 X2 = R y U = R2 , tal que dU = 2R dR.

Z∞ Ãn+1
X
! n
Y
I(n) = h x2i dxk
0 i=2 k=1
3.3. DISTRIBUCIÓN T GENERALIZADA 59

n Z∞
π2 n
= ³ ´
n
h(u) u 2 −1 du
Γ 2 0
n Z∞
π 2 n
= ³ ´
n
f (u + (x1 − µ1 )2 ) u 2 −1 du
Γ 2 0
n Z∞
π 2 n
= ³ ´
n
f (r2 + (x1 − µ1 )2 ) r2( 2 −1) (2r dr)
Γ 2 0
n Z∞
2π 2
= ³ ´
n
f (r2 + (x1 − µ1 )2 ) rn−1 dr
Γ 2 0

Sea l(·) Borel medible tal que, IE(l(X1 , R)) < ∞ y recuerde que

√ X1 √ X1
T = n −→ R= n ,
R T

cuyo jacobiano es
dX1 √ 1
J= = n .
dT R

Entonces

IE(T ) = IE(l(X1 , R))


n Z∞ Z∞
2π 2
= ³ ´
n
l(x1 , r) rn−1 f (r2 + (x1 − µ1 )2 ) dr dx1
Γ 2 −∞ 0
n Z∞ Z∞ Ã√ !
2π 2 n x1
= ³ ´ rn−1 f (r2 + (x1 − µ1 )2 ) dr dx1
Γ n r
2 −∞ 0
n Z∞ Z∞ " µ ¶2 # Ã !
2π 2
n−1 tr
2 r
= ³ ´ tr f r + − µ1 dr √ dt
Γ n n(1/2) n
2 −∞ 0
n Z∞ Z∞ " µ ¶2 #
2π 2
n tr 2
= √ ³ ´ tr f r + − µ1 dr dt
nΓ n n(1/2)
2 −∞ 0
n Z∞ Z∞ Ã !
2π 2
n t2 r 2 2t r 2
= √ ³ ´ tr f r + − (1/2) µ1 + µ21 dr dt
nΓ n n n
2 −∞ 0
n Z∞ Z∞ Ã !
2π 2
n (t2 + n) r2 2t r µ1
= √ ³ ´ tr f − (1/2) + µ21 dr dt
nΓ n n n
2 −∞ 0
60 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

Ası́, al hacer el cambio de variable


à !(1/2)
t2 + n
y= r,
n
cuyo jacobiano es
à !−(1/2)
dr t2 + n
J= =
dy n
y reemplazando adecuadamente lo anterior y δ = µ1 , δ1 = (tδ)/(n + t2 )(1/2) en (3.3), se obtiene
finalmente que
n Z∞ Ã !
2π 2 n (t2 + n) r2 2t r δ
gT (t) = √ ³ ´ r f − (1/2) + δ 2 dr
nΓ n n n
2 0
n à !− n Z∞ à !−(1/2) 
2π 2 t2 + n 2 ³ ´ t2
+ n
n 2 2 
= √ ³ ´ y f y − 2δ1 y + δ dy 
nΓ n n n
2 0
n Z∞
2(nπ) 2 2 − n+1
= ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy; t ∈ IR
Γ 2 0

donde δ = µ1 el parámetro de no centralidad de la distribución Gt no centrada con (n − 1)


g.l. y δ1 = (tδ)/(n + t2 )(1/2) .
Sea T ∼ Gt(n, δ; f ). Entonces, si δ = 0 la densidad de una distribución t generalizada no
centrada coincide con la densidad de una distribución t centrada.

Demostración Sea T ∼ Gt(n, δ; f ). Entonces, su densidad es


n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy,
Γ 2 0

si δ = 0 (caso centrado), se obtiene


n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 ) y n dy (3.10)
Γ 2 0
n
2(nπ) 2 n+1
= ³ ´ (n + t2 )− 2 I(n). (3.11)
n
Γ 2

La integral I(n) es válida para toda distribución Elı́ptica y en particular para la distribución
Normal, en cuyo caso
µ ¶
1 u
f (u) = n+1 exp −
(2π) 2 2
3.3. DISTRIBUCIÓN T GENERALIZADA 61

y ası́ se tiene

Z∞ Ã ! Z∞ Ã !
n 1 y2 1 n y2
I(n) = y n+1 exp − dy = n+1 y exp − dy,
(2π) 2 2 (2π) 2 2
0 0

Considere ahora el cambio de variable


x = y 2 −→ y = x,

cuyo jacobiano es
dy 1 1
J= =− √ y |J| = √ ,
dx 2 x 2 x

con lo cual

Z∞ Ã !
1 n y2
I(n) = n+1 y exp − dy
(2π) 2 2
0
Z∞ µ ¶
1 n x 1
= n+1 x 2 exp − √ dx
(2π) 2 2 2 x
0
Z∞ µ ¶
1 n+1
−1 x
= n+1 x 2 exp − dx
2 (2π) 2 2
0
µ ¶
1 n+1 n+1
= n+1 n+1 Γ 2 2
2³ +1 2
´π
2 2

n+1
Γ 2
= n+1 .
2π 2

Finalmente
³ ´
n n+1
2(n π) 2
− n+1
Γ 2
gT (t) = ³ ´
n
(n + t2 ) 2
n 1
+2
Γ 2
2π 2

n
³ ´
n+1
n2 Γ 2 n+1
= ³ ´ (n + t2 )− 2

π (1/2) Γ n2
62 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

3.4 Distribución F Generalizada

3.4.1 Introducción

La distribución F generalizada (GF), al igual que la distribución Gt, juega un papel similar
a la distribución F bajo la teorı́a de Normal. Como ya se mencionó, la distribución GF es la
distribución de
XT1 X1
n XT1 X1
V = Tm = ,
X2 X2 m XT2 X2
n
cuando X = (XT1 XT2 )T tiene una distribución Elı́ptica. La notación ECm+n (µ, Σ; f ) sigue
siendo válida, tanto bajo singularidad como no singularidad de la distribución.

Recuerde que si X = (XT1 XT2 )T ∼ Nm+n (0, Im+n ), con X1 ∈ IRm y X2 ∈ IRn , entonces

n XT1 X1
V = ∼ F (m, n)
m XT2 X2

y su densidad es ³ ´
m+n m n m
Γ 2
m 2 n 2 v 2 −1
gV (v) = ³ ´
m
³ ´
n m+n ; v > 0. (3.12)
Γ 2
Γ 2
(m + nv) 2

Análogamente, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
µ = [µ1 0]T , µ1 ∈ IRm y µ1 6= 0, entonces

n XT1 X1
V = ∼ F (m, n; δ),
m XT2 X2

con δ = (1/2)µT1 µ1 y cuya densidad viene dada por


³ ´ m n m
m+n+2k

X exp(−δ) δ k Γ 2
m 2 +k n 2 v 2 +k−1
gV (v) = ³ ´ ³ ´ m+n+2k ; v > 0, (3.13)
k=0 k! Γ m
+k Γ n
(n + mv) 2
2 2

es decir, una suma ponderada infinita (cuyos factores de ponderación vienen dados por una
ley de Poisson de parámetro δ = (1/2)µT1 µ1 ) de densidades F (m + 2k, n) centradas. Esta
distribución es llamada F no centrada con m g.l. en el numerador, n g.l. en el denominador
y parámetro de no centralidad δ = (1/2)µT1 µ1 .
3.4. DISTRIBUCIÓN F GENERALIZADA 63

Asimismo, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0, entonces

n XT1 X1
V = ∼ F (m, n; δ1 , δ2 ),
m XT2 X2

con δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT2 µ2 y tiene densidad


³ ´ m n m
m+n
∞ X
X ∞
exp(−δ1 − δ2 ) δ1 δ2 Γ 2
+ k 1 + k 2 m 2 +k1 n 2 +k2 v 2 +k1 −1
gV (v) = ³ ´ ³ ´ m+n+2k1 +2k2 ; v > 0.
k1 =0 k2 =0 k1 !k2 ! Γ m
+ k1 Γ n
+ k2 (mv + n) 2
2 2

Esta última es llamada la distribución F doble no centrada con m g.l. en el numerador, n g.l.
en el denominador y parámetros de doble no centralidad δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT2 µ2 .

Por último, se tiene una mayor generalización si X = (XT1 XT2 )T ∼ Nm+n (µ, Σ), con X1 ∈
IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0;
Σ ∈ IR(m+n)×(m+n) , dada por
 
 Σ11 0 
Σ= ,
0 Σ22

con Σ11 ∈ IRm , Σ11 > 0, Σ22 ∈ IRm , Σ22 > 0, entonces

n XT1 Σ−1
11 X1
V = ∼ F (m, n; δ1 , δ2 ),
m X2 Σ−1
T
22 X2

donde δ1 = (1/2)µT1 Σ−1 T −1


11 µ1 y δ2 = (1/2)µ2 Σ22 µ2 .

3.4.2 Distribución F Generalizada Centrada y No Centrada

De la misma forma que en el caso de la distribución Gt, se usa la invarianza de la distribución


GF bajo leyes Esféricas para obtener el siguiente resultado. Posteriormente se plantea la
distribución GF no centrada bajo no singularidad de la ley Elı́ptica.

[Distribución GF centrada] Sea X = (XT1 XT2 )T ∼ Sm+n (f ), con X1 ∈ IRm y X2 ∈ IRn .


Entonces,
n XT1 X1
V = ∼ GF(m, n; f ),
m XT2 X2
64 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS

la cual coincide con la del caso de una distribución Normal, esto es, GF(n, m; f ) ≡ F (m, n), ∀f .

Se presenta ahora la distribución GF no centrada como caso particular de la distribución GF


doble no centrada, la que se presenta más adelante.
[Distribución GF no centrada] Sea XT = (X1 X2 ) ∼ ECm+n (µ, Im+n ; f ), con X1 ∈ IRm
h i
y X2 ∈ IRn ; µ ∈ IRm+n , µT = µT1 0 , µ1 ∈ IRm y µ1 6= 0. Entonces,

n XT1 X1
V = ∼ GF(m, m; δ; f ),
m XT2 X2
con δ = (1/2)µT1 µ1 y su función de densidad viene dada por
n+m−1 µ ¶ m−2 µ ¶− m+n

m m 2 2 m 2
gV (v) = ³ ´ ³ ´
n n
v 1+ v
Γ m−1
Γ n n
2 2
π
Z Z∞

senm−2 θ y m+n−1 f (y 2 − 2γ ∗ y cos θ + γ 2 ) dθ dy, v > 0,


0 0

(3.14)
µ ¶(1/2)
mv
donde γ ∗ = γ y γ 2 = 2δ.
n + mv
Demostración. Considere la densidad de una distribución F generalizada doble no centrada
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1 Γ n−1 n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ1∗ cos θ + γ12
0 0 0
−2 y γ2∗ cos θ + γ22 ) dy dθ dφ
µ ¶(1/2) µ ¶(1/2) µ ¶−(1/2)
mv n n
donde γ1∗ = γ y γ2∗ = 1+ .
n + mv mv mv
Haciendo γ2 = 0, se obtiene
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n−1 n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ dφ
0 0 0
3.4. DISTRIBUCIÓN F GENERALIZADA 65
 π 
n+m
−1 µ ¶ m−2 µ ¶− m+n Z
2π m m2 2 m 2
 sen n−2
= ³ ´ ³ ´ v 1+ v φ dφ
Γ m−1
Γ n−1 n n n
2 2 0
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
³ ´
n+m
−1 µ ¶ m−2 µ ¶− m+n π (1/2) Γ n−1

m m 2 2 m 2 2
= ³ ´ ³ ´ v 1+ v ³ ´
Γ m−1 Γ n−1 n n 2 2
n Γ n
2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
= ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n n n n
2 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ
0 0
µ ¶
∗ m v (1/2)
donde γ = γ.
n + mv
Sea V ∼ GF(m, n, δ; f ). Entonces, si δ = 0 la densidad de una distribución F generalizada
no centrada coincide con la densidad de una distribución F centrada.

Demostración Considere la densidad de una distribución F generalizada no centrada


n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n n n n
2 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2γ ∗ y cos θ + γ 2 ) dθ dy, v > 0,
0 0
µ ¶(1/2)
mv
donde γ ∗ = γ y γ 2 = 2δ.
n + mv
Haciendo δ = 0 (caso centrado) se obtiene
n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v (3.15)
Γ m−1
Γ n n n n
2 2
Zπ Z∞
senm−2 θy m+n−1 f (y 2 ) dθ dy (3.16)
0 0
n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
= ³ ´ ³ ´ v 1+ v (3.17)
Γ m−1
Γ n n n n
2 2
66 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
 π  ∞ 
Z Z
 sen m−2 m+n−1 2
θ dθ  y f (y ) dy (3.18)
0 0
1
³ ´ ³ ´
n+m−1 µ ¶ m−2 µ ¶
− m+n π Γ m−1 Γ m+n

m m 2 2 m 2 2
2 2
= ³ ´ ³ ´ v 1+ v ³ ´ m+n (3.19)
Γ m−1 Γ n n n 2 2
n m
Γ 2 2π 2
³ ´
Γ m+n µ ¶ m−2 µ ¶− m+n
m m 2 2 m 2
= ³ ´ ³ ´
n n
v 1+ v (3.20)
Γ m
Γ n n
2 2
³ ´ m n m
m+n
Γ 2
m 2 n 2 v 2 −1
= ³ ´
m
³ ´
n m+n ; v > 0. (3.21)
Γ 2
Γ 2
(m + nv) 2

Note que la densidad dada en el Teorema 4.88 está expresada a través de una integral, en [33] se
puede ver como esta densidad es expresada, usando desarrollo en serie de Taylor, en términos
de las derivadas de la función f . A continuación de da explı́citamente la demostración.
[Densidad GF no centrada en función de las derivadas de f ] Sea V ∼ GF (n, m, δ; f ),
1
con δ = µT1 µ1 y f expandible en serie de Taylor en IR. Entonces una forma alternativa de
2
expresar la densidad de V viene dada por
m+n µ ¶ m−2 µ ¶− m+n
2π m
2 m 2 m 2
gV (v) = ³ n ´ v 1+ v
Γ n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
(3.22)

donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-ésima derivada de f (·).

Demostración. Sea V ∼ GF(m, n, δ; f ). Entonces su densidad es


n+m
−1 µ ¶ m−2 µ ¶−(1/2)(m+n)
m m 2π 2 2 m
gV (v) = ³ ´ ³ ´
n n
v 1+ v
Γ m−1
Γ n n
2 2
π
Z Z∞

= senm−2 θ y m+n−1 f (y 2 − 2γ1 y cos θ + γ 2 ) dθ dy, v > 0,


0 0
µ ¶(1/2)
mv
donde δ = (1/2)γ 2 = (1/2)µT µ y γ 1 = γ.
n + mv
3.4. DISTRIBUCIÓN F GENERALIZADA 67

Z∞
gV (v) = c(m, n; v) y m+n−1 T (y) dy,
0

donde n+m
−1 µ ¶ m−2 µ ¶−(1/2)(m+n)
m m 2π 2 2 m
c(m, n; v) = ³ m−1 ´ ³ n ´ v 1+ v ,
Γ Γ n n n
2 2

de modo que

T (y) = senm−2 θ f (y 2 − 2γ1 y cos θ + γ 2 ) dθ,
0

puede expresarse tal como en el Teorema 3.3 de la forma


µ ¶ X

m−1 γ 2k
T (y) = π (1/2) Γ ³ ´ y k f (2k) (u + γ 2 ).
2 k=0 k! Γ k + n
2

Ası́, finalmente,
m+n 1
−2 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (u) = ³ ´ ³ ´ v 1+ v (3.23)
Γ m−1
Γ n n n n
2 2
Z∞ µ ¶ X

m+n−1 (1/2) m−1 γ 2k
y π Γ ³ ´ y k f (2k) (u + γ 2 ) (3.24)
dy
2 k=0 k! Γ k + n
0 2
m+n µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
= ³ ´ v 1+ v (3.25)
Γ n n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy; u > 0,(3.26)
k=0 k! Γ k + 2 0

donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-ésima derivada de f (·).


68 CHAPTER 3. DISTRIBUCIÓN DE FORMAS CUADRÁTICAS
Part II

RESULTADOS

69
Chapter 4

Distribución Elı́ptica Singular

4.1 Introducción

En este capı́tulo se encuentra la densidad de una vector aleatorio Elı́ptico singular siguiendo el
argumento propuesto en Rao [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas
asociadas a este vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la
distribución Elı́ptica afecta los grados de libertad de tales distribuciones. Posteriormente, se
utilizan dos distribuciones Elı́pticas singulares especı́ficas, como lo son la Pearson tipo VII y la
de tipo Kotz, hallando ası́ explı́citamente las densidades de estas distribuciones. Finalmente,
se tratan dos aplicaciones de la distribución Elı́ptica singular. La primera de ellas relacionada
con la distribución de los residuos de un modelo lineal Elı́ptico y la segunda relacionada con
el estadı́stico t generalizado, basado en una muestra obtenida desde una población Elı́ptica.

4.2 Densidad de una distribución Elı́ptica Singular

Tal como se mencionó anteriormente, si X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ ≥ 0,
es decir, rk Σ = r < n, entonces X tiene una distribución Elı́ptica singular. A continuación se
halla explı́citamente la densidad de X de forma análoga al caso de una distribución Normal
singular, tal como en [69, p. 527] y [25].

71
72 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

Sea X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Entonces, la


función de densidad de X viene dada por
à r !
Y −1 −
2
λi f [(X − µ)T Σ (X − µ)] (4.1)
i=1

y
N T X = N T µ, con probabilidad 1, (4.2)
r −
lo cual se denotará por X ∼ ECn (µ, Σ; f ), donde Σ es un inverso generalizado simétrico de Σ,
los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) ≡ {N ∈ IRn×(n−r) /N T N = I(n−r) },
la variedad de Stiefel, tal que N T Σ = 0.

Demostración: Dado que Σ = ΣT , entonces existe Q ∈ O(n), tal que


 
Dr 0  0
Σ = Q
 Q . (4.3)
0 0

Considere ahora la partición Q = (B N ), con B ∈ IRn×r y N ∈ IRn×(n−r) y observe que


     
T T T
 B   B ΣB B Σ N   Dr 0 
QT Σ Q =   Σ (B N ) =  =  (4.4)
NT N T ΣB N T Σ N 0 0

y sea la transformación
     
T T
 W   B   B X 
Y= = X =  ,
Z NT N X

de modo que, por Fang y Zhang [32, p. 66],

E(Z) = E(N T X) = N T µ

y
Cov(Z) = N T Cov(X) N = N T c0 Σ N = c0 N T Σ N = 0,

donde c0 = −2φ(0), esto es,


0
Z ∼ EC(n−r) (N T µ, 0; f ),
4.2. DENSIDAD DE UNA DISTRIBUCIÓN ELÍPTICA SINGULAR 73

es decir,
N T (X − µ) = 0, con probabilidad 1. (4.5)

Además, nuevamente por Fang y Zhang [32, p. 66]

E(W) = B T µ y V ar(W) = c0 B T Σ B,

esto es,
W ∼ ECr (B T µ, B T Σ B; f ),

donde f (·) es la densidad restringida sólo al rango de Σ, con lo cual la densidad de W es


¯ ¯−1/2
¯ T ¯
¯B Σ B ¯ f [(B T X − B T µ)T (B T ΣB)−1 (B T X − B T µ)]. (4.6)

Ası́, la función de densidad conjunta de (W, Z) o la de X, está definida por (7) y (8). Alter-
nativamente, observe que
r
Y
1. |B T Σ B| = |Dr | = λi , donde Dr es una matriz diagonal, cuyos elementos de su
i=1
diagonal son los λi , los valores propios no nulos de Σ.

2. Como  
 Dr 0  T
Σ = Q Q ,
0 0
entonces
    
−  Dr−1 0  T  Dr−1 0  B T
 −1 T
Σ = Q  Q = (B N )    = B Dr B .
T
0 0 0 0 N

De esta manera, por (2.6)



Σ = B (B T Σ B)−1 B T , (4.7)

con lo cual se obtiene que

(B T X − B T µ)T (B T Σ B)−1 (B T X − B T µ) = (X − µ)T B (B T Σ B)−1 B T (X − µ)



= (X − µ)T Σ (X − µ).
74 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

Ası́, finalmente, la densidad de X está dada por


à r !
Y −1/2 −
λi f [(X − µ)T Σ (X − µ)] (4.8)
i=1

y
N (XT − µ) = 0, con probabilidad 1. (4.9)

lo cual se interpreta como la densidad (2.8) sobre el hiperplano (2.9).


Formalmente, la densidad de X existe con respecto a la medida de Hausdorff. Ası́, uti-
lizando la notación de Billingsley [8], W tiene densidad con respecto a la medida de Lebesgue
definida sobre el conjunto A, digamos λr (A), donde A está definido por (2.9) y Z tiene den-
sidad con respecto a la medida de conteo C{Z}, en donde el soporte sólo contiene al punto
Z = N 0 µ.
Lo observadoanteriormente
 se
 ilustrará
 de forma más clara
   en el siguiente ejemplo.
 X1    1   1 2  
Sea X =   ∼ EC21 µ =  , Σ =   ; f  , donde rk Σ = 1; de modo que
X2 1 2 4
X tiene una distribución Elı́ptica singular. Los valores propios de Σ son λ1 = 5 y λ2 = 0
y sus vectores propios asociados son de la forma (b 2b)T y (−2a a)T , respectivamente, con
a, b ∈ IR. Luego, como los vectores propios no son únicos, la densidad singular que se halla
tampoco lo es. Ası́, si se consideran los vectores propios normalizados de B y N , se obtiene que
√ √ 
 1/ 5 2/ 5  T
Q = (B N ) =  √ √  es ortogonal. Finalmente, la densidad de X = (X1 X2 ) viene
2/ 5 4/ 5

dada por (1/ 5 f [(1/25)(x21 − 6x1 + 4x1 x2 − 12x2 + 9)] y −2x1 + x2 + 1 = 0, con probabilidad
1; lo que se interpreta como la densidad de X con dominio en la recta L : −2x1 + x2 + 1 = 0.
A continuación se presentan 5 gráficos, dos de los cuales permiten ilustrar más claramente
el ejemplo antes planteado (Gráficos 1 y 2), ası́ como el caso de degenerancia (Gráficos 3 y 4)
y el no singular (Gráfico 5).

1. En los Gráficos 1 y 2 se representan las densidades de una distribución Elı́ptica singular


en IR2 de rango 1. Se ve cómo dicha densidad, aunque no existe en todo el espacio, sı́
existe enuno de dimensión menor. Se muestran dos densidades particulares sobre sus
4.2. DENSIDAD DE UNA DISTRIBUCIÓN ELÍPTICA SINGULAR 75

respectivos planos; sin embargo, lo importante de este resultado es que, aun cuando
la densidad no es única, la probabilidad de un evento se calcula a partir de cualquier
representación de esta densidad y coincide cualquiera sea ella.

15cm6cmd:/aapoyovl/seminary/eliptica/graf1y2.bmp

2. En los Gráficos 3 y 4 se representan las densidades de una distribución Elı́ptica singular


en IR2 de rango 0. Se ve cómo dicha densidad, aunque no existe en todo el espacio, en
este caso está acumulada en un único punto, que es la intersección de los planos, cuya
representación, de manera análoga al caso anterior, tampoco es única.

3. En el Gráfico 5 se representa la densidad de una distribución Elı́ptica no singular en


IR2 . Se ve cómo dicha densidad ocupa todo el espacio.
76 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

15cm6cmd:/aapoyovl/seminary/eliptica/graf3y4.bmp 10cm6cmd:/aapoyovl/seminary/eliptica/gra

Dos distribuciones Elı́pticas especı́ficas son la distribución de Pearson tipo VII y la de tipo
Kotz, las que a su vez contienen a las distribuciones t-multivariada, cuando m = (r + s)/2,
y Normal multivariada, cuando m = 1, s = 1/2 y t = 1, respectivamente. Ası́, por Gupta y
Varga [39] y el Teorema 2.91, se presentan a continuación ambas distribuciones para el caso
de un distribución Elı́ptica singular.
Sea X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Ası́, si su
densidad viene dada por
à r !  − −m
Y −1 Γ(m) (X − µ)T Σ (X − µ) 
2
λi r
³ ´ 1 +
i=1 (πs) 2 Γ m − 2r s

y
N T (X − µ) = 0, con probabilidad 1,

entonces X tiene una distribución de Pearson tipo VII singular de rango r con parámetros

m > r/2 y s > 0, donde Σ es un inverso generalizado simétrico de Σ, los λi son los valores
propios no nulos de Σ y N ∈ Vn,(n−r) , tal que N T Σ = 0.
Sea X ∼ ECnr (µ,Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Ası́, si su
densidad viene dada por
à r ! ³ ´ "
2m+r−2
Y −1/2 t s 2t Γ 2r µ ¸t !
− m−1 −
λi r
³ ´ (X − µ)T Σ [(X − µ)] exp −s (X − µ)T Σ (X − µ)
2m+r−2
i=1 π2 Γ 2t

y
N T (X − µ) = 0, con probabilidad 1,

entonces X tiene una distribución de Tipo Kotz singular de rango r y parámetros m, t y s,



con 2m + r > 2, t > 0, s > 0, donde Σ es un inverso generalizado simétrico de Σ, los λi son
los valores propios no nulos de Σ y N ∈ Vn,(n−r) , tal que N T Σ = 0.
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS 77

4.3 Distribuciones χ2, t y F Generalizadas

Las distribuciones χ2 , t y F generalizadas, centradas y no centradas, han sido ampliamente


estudiadas para el caso de una distribución Elı́ptica no singular, incluyendo casos de Elı́pticas
particulares, en los libros [1] y [32]. A pesar de ello, el uso de la densidad de una distribución
Elı́ptica singular no ha sido aún estudiado. Esta singularidad de la ley Elı́ptica afecta los
grados de libertad de la distribución. Particularmente, si el rango de Σ es r < n, entonces
la distribución χ2 asociada tiene r grados de libertad, una situación análoga ocurre con las
distribuciones t y F generalizadas.

4.3.1 Distribución χ2 Generalizada

Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , µ 6= 0, Σ ∈ IRn×n , Σ > 0 y rk Σ = r = n. Entonces,


U = XT Σ−1 X tiene una distribución Gχ2 no centrada, denotado por U ∼ Gχ2 (n, δ; f ) cuya
densidad es
n−1 Zπ
π 2 n
−1
1
gU (u) = ³
n−1
´ u 2 f (u − 2γ u 2 cos φ + γ 2 ) senn−2 φ1 dφ1 ; u > 0, (4.10)
Γ 2 0

donde γ 2 = µT Σ−1 µ = 2δ (vea [32, p. 82]).

Una forma alternativa de expresar la densidad de U , si f es expandible en serie de Taylor en


IR, es
∞ n
X γ 2k π 2 n
gU (u) = ³ ´ u 2 +k−1 f (2k) (u + γ 2 ); u > 0, (4.11)
n
k=0 k! Γ 2
+k

donde γ 2 = 2δ = µT µ y f (2k) (·) es la 2k-ésima derivada de f (·) (vea [80]).

Ası́, bajo singularidad de la distribución Elı́ptica, obtenemos el siguiente resultado.


Sea X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Entonces,


U = XT Σ X ∼ Gχ2 (r, δ; f ),


con δ = (1/2)µT Σ µ.
78 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

Demostración. Sean X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , rk Σ = r < n,



Σ = QT Q y Q ∈ IRr×n una factorización de rango completo e Y = Q X. Entonces,

Y ∼ ECr (ν, Ir ; f ), con ν = Q µ; luego kYk2 ∼ Gχ2 (r, δ; f ), con

− − −
δ = (1/2)µT Q Q µ = (1/2)µT Σ µ.


El resultado es inmediato, ya que kYk2 = XT Σ X.
. Sea X con distribución de Pearson tipo VII singular de rango r. Entonces, U =

XT Σ X ∼ Gχ2 (r, δ; f ) tiene densidad
r ∞
sm− 2 Γ(m) X (m)2k r
gU (u) = ³ ´ ³ ´ γ 2k u 2 +k−1 (s + u + γ 2 )−2k−m ; u > 0, (4.12)
r r
Γ m− 2 k=0 k! Γ 2
+k


donde γ 2 = 2δ = µT Σ µ.

Demostración. Usando la densidad de una distribución Gχ2 expresada en términos de las



derivadas de la función f , dada anteriormente, obtenemos que si U = XT Σ X ∼ Gχ2 (r, δ; f ),
entonces
∞ r
X γ 2k π 2 r
gU (u) = ³ ´ u 2 +k−1 f (2k) (u + γ 2 ); u > 0,
r
k=0 k! Γ 2
+k

donde γ 2 = 2δ = µT Σ µ y f (2k) es la 2k-ésima derivada de f . En nuestro caso particular
· ¸−m
u Γ(m)
f (u) = r
³ ´ 1+
r
(π s) 2 Γ m − 2 s

y por tanto
Γ(m)
f (2k) (u) = r
³
r
´ sm−r/2 (m)2k (s + u)−m−2k ,
π Γ m−
2
2

donde (m)2k = m(m − 1)(m − 2) · . . . · (m − 2k + 1). Ası́,


r ∞ r
sm− 2 Γ(m) X (m)2k γ 2k u 2 +k−1 (s + u + γ 2 )−m−2k
gU (u) = ³
r
´ ³
r
´
Γ m− 2 k=0 k! Γ 2
+k
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS 79


. Sea X con distribución de tipo Kotz singular de rango r. Entonces, U = XT Σ X ∼
Gχ2 (r, δ; f ) tiene densidad
2m+r−2
³ ´
r
ts 2t Γ 2
gU (u) = ³
2m+r−2
´
Γ 2t
∞ X
∞ r
X 2k
γ (−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k
³
r
´ ,
k=0 z=0 k! (k + 2k)! Γ 2
+k

(4.13)

donde u > 0 y γ 2 = 2δ = µT Σ µ.

Demostración. De manera análoga al Corolario 3.97, si X tiene distribución de tipo Kotz


singular de rango r, entonces
2m+r−2
³ ´
r
ts 2t
2
Γ ³ ´
f (u) = r
³ ´ um−1 exp −s ut ; 2m > r − 2, t, s > 0.
π2 Γ 2m+r−2
2t

El resultado se sigue observando que


2m+r−2
³ ´
r
ts 2t Γ 2 X∞
(−r)l utl+m−1
f (u) = r
³ ´ ,
π2 Γ 2m+r−2
l=0 l!
2t

con lo cual la derivada 2k-ésima de f es


2m+r−2
³ ´
r
(2k)
ts 2t
2
Γ ∞
X (−s)2(k+1) (t(z + 2k) + q − 1)2k ut(z+2k)+m−1−2k
f (u) = r
³ ´ .
π2 Γ 2m+r−2 z=l−2k=0 (k + 2k)!
2t

Ası́, finalmente,
2m+r−2
³ ´
r
ts 2t Γ 2
gU (u) = ³
2m+r−2
´
Γ 2t
∞ ∞ r
X X 2k γ (−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k
³
r
´ ,
k=0 z=0 k! (k + 2k)! Γ 2
+k


con u > 0 y γ 2 = 2δ = µT Σ µ.
80 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

4.3.2 Distribución t Generalizada

Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0 ]T ,
q
µ1 ∈ IR y µ1 6= 0. Entonces, T = (X1 / (XT2 X2 )/n tiene una distribución t generalizada no
centrada, denotado por T ∼ Gt(n, δ; f ), con δ = µ1 y su función de densidad es
n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy; t ∈ IR, (4.14)
Γ 2 0

1
donde δ es el parámetro de no centralidad y δ1 = (tδ)/((n + t2 ) 2 ) (vea [32, p. 85]).

Sea T ∼ Gt(n, δ; f ). Entonces, si δ = 0, la distribución t generalizada no centrada coincide


con la distribución t centrada clásica (vea [32, p. 63]).

Se presenta ahora la distribución Gt no centrada bajo singularidad de la distribución Elı́ptica


asociada, esto es, cuando X ∼ ECnr (µ, Σ; f ), donde r < n es el rango de Σ. Esta singularidad
de la ley Elı́ptica afecta los grados de libertad de la distribución de T , de forma similar al caso
de la distribución Gχ2 dada anteriormente.
(r+1)
Sea X = (X1 XT2 )T ∼ EC(n+1) (µ, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T
 
2
 σ1 0  (n+1)×(n+1)
y µ1 ∈ IR, µ1 6= 0; Σ =   ∈ IR , Σn ∈ IRn×n y rk Σn = r < n. Entonces,
0 Σn

√ X1
T = rq −
∼ Gt(r, δ; f ),
XT2 Σ X2
con δ = µ1 /σ1 .
(r+1)
Demostración. Sea X = (X1 XT2 ) ∼ EC(n+1) (µ, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn ,
 
 σ12 0 
 
T   (n+1)×(n+1)
µ = [µ1 0] y µ1 ∈ IR, µ1 =
6 0; Σ =   ∈ IR .
 
 
0 Σn
Factorice Σn = Q QT , tal que Q ∈ IRn×r , con rk Q = r < n, de modo que
     
σ1−1 0  σ1−1
X1   Y1 
Y=


− ·X =  = .

0 Q Q X2 Y2
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS 81

Entonces, X = (Y1 Y2T )T ∼ EC(r+1) (ν, Ir+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRr ; ν ∈ IRr+1 ,


       
 σ1−1 0   σ1−1 0   µ1   µ1 /σ1 
ν= − ·µ= − · = ;
0 Q 0 Q 0 0

luego
√ Y1 √ X1 √ X1
T = rq = rq − −
= r q ∼ Gt(r, δ; f ),
Y2T Y2 T T −
(Q X2 ) (Q X2 ) X2 Σn X2
con δ = µ1 /σ1 .
Sea X = (X1 XT2 ) con distribución de Pearson tipo VII singular de rango (r+1). Entonces,
√ X1
T = rq −
∼ Gt(r, δ; f ),
XT2 Σ X2
tiene densidad
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ
2
2
Γ m− 2
r−2m−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) r+k+1 2m+k−r−1
X k 1 2 )Γ 2
Γ 2
,
k=0 k! sk Γ (m + k)
(4.15)

donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 .

Demostración. Sea X con distribución de Pearson tipo VII singular de rango (r + 1) de


parámetros m > (r + 1)/2 y s > 0. Entonces
· ¸−m
Γ(m) u
f (u) = r
³ ´ 1+ .
(πs) 2 Γ m − r s
2

Ası́, si T ∼ Gt(r, δ; f )
r Z∞ " #−m
2 r 2 Γ(m) 2 − r+1 y 2 − 2δ1 y + δ 2
gT (t) = r
³ ´ ³ ´ (r + t ) 2 1+ y r dy,
s Γ m−
2
r
Γ r s
2 2 0

con δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Entonces, usando el desarrollo en serie dado en [1, p. 85],
se tiene que
" #−m ∞
à !k à !−k−m
y 2 − 2δ1 y + δ 2 X (−m)k −2 δ1 y y2 + δ2
1+ = 1+ ,
s k=0 k! s s
82 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

con lo cual
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
1+ dy.
s + δ2 s + δ2
0

Considere ahora el cambio de variable

y2 q
u= =⇒ y= u (s + δ 2 ),
s + δ2

cuyo jacobiano es ¯ ¯
¯ dy ¯ (s + δ 2 )1/2
¯ ¯
J = ¯¯ ¯¯ = ,
du 2 u1/2
de donde, finalmente
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
r−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) −m r+k+1 2m−r+k−1
X k 1 2 Γ 2
Γ 2

k=0 k! sk Γ(k + m)

. Sea X = (X1 XT2 ) con distribución de tipo Kotz singular de rango r, con m = 2 y s = 1.
Entonces,
√ X1
T = rq −
∼ Gt(r, δ; f )
XT2 Σ X2
tiene densidad
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2

" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
r+2k+1 2
− 2δ1 + δ2 ,
k=0 k! (2s δ1 ) (2s δ1 ) 2s δ1

(4.16)

donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 .


4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS 83

Demostración. Sea X con distribución de Tipo Kotz Singular de rango r de parámetros m,


t y s, y 2m + r > 2, t > 0, s > 0. Entonces
2m+r−2
³ ´
r
ts 2t
2
Γ ³ ´
f (u) = r
³
2m+r−2
´ um−1 exp −s ut ; 2m > r − 2, t, s > 0.
π2 Γ 2t

r r
Considere el caso en que m = 2 y t = 1, con lo cual f (u) = ((2 s 2 +1 )/r) π 2 u exp(−s u), lo
que conduce a
r
2(rπ) 2 r+1
gT (t) = ³ ´ (r + t2 )− 2
r
Γ 2
Z∞ r
2 s 2 +1 2
r (y − 2δ1 y + δ 2 ) exp(−s (y 2 − 2δ1 y + δ 2 )) y r dy.
r π2
0

Usando ahora desarrollo en serie y la función Gamma, se obtiene finalmente que


r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 ) 2


" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2 s δ1

con δ = µ1 y δ1 = (tδ)/((r + t2 )1/2 ).

4.3.3 Distribución F Generalizada

Sea X = (XT1 XT2 ) ∼ EC(m+n) (µ, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 0]T ,
µ1 ∈ IRm y µ1 6= 0. Entonces, V = (n/m)((XT1 X1 )/(XT2 X2 )) tiene una distribución F
generalizada no centrada, denotado por F ∼ GF(m, n, δ; f ), cuya densidad es
m+n−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ m−1 ´ ³ n ´ v 1+ v
Γ Γ n n n
2 2
Zπ Zπ
senm−2 θ y m+n−1 f (y 2 − 2δ1 y cos θ + δ 2 ) dθ dy; u > 0,
0 0
(4.17)

donde δ 2 = µT µ y δ1 = (m v/(n + mv))2 δ, tal como en [32, p. 86].


84 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

Una forma alternativa de expresar la densidad de V , si f es expandible en serie de Taylor en


IR, es en términos de las derivadas de la función f , quedando representada de la siguiente
manera:
m+n−1 µ ¶ m−2 µ ¶− m+n
2π 2m m 2 m 2
gV (v) = ³ m−1 ´ ³ n ´ v 1+ v
Γ Γ n n n
2 2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
(4.18)

donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-ésima derivada de f (·), tal como puede verse
en [33].
(r +r )
Sea X = (XT1 XT2 )T ∼ EC(m+n)
1 2
(µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
 
h iT Σ11 0 
µ = µT1 0 , µ1 ∈ IRm , µ1 6= 0; Σ =    ∈ IR
(m+n)×(m+n)
, Σ11 ∈ IRm×m y
0 Σ22
n×n
rk Σ11 = r1 < m, Σ22 ∈ IR y rk Σ22 = r2 < n. Entonces,

r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22

con δ = (1/2)µT1 Σ11 µ1 .
(r +r )
Demostración. Sea X = (XT1 XT2 ) ∼ EC(m+n)
1 2
(µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ;
 
h iT
 Σ11 0 
µ = µT1 0 , µ1 ∈ IRm y µ1 6= 0; Σ =   ∈ IR(m+n)×(m+n) , Σ11 ∈ IRm×m y
Σ220
n×n
rk Σ11 = r1 < m, Σ22 ∈ IR y rk Σ22 = r2 < n. Considere, además, la descomposición
Σ11 = Q1 QT1 y Σ22 = Q2 QT2 , de modo que
      
− −
Q1 0   X1   Q1 X1   Y1 
Y=hX=
 −  = − = .
0 Q2 X2 Q2 X2 Y2
h iT
Entonces, Y = (Y1T Y2T ) ∼ EC(r1 +r2 ) (ν, Ir1 +r2 ; f ), con Y1 ∈ IRr1 y Y2 ∈ IRr2 ; ν = ν1T 0 ,

ν1 ∈ IRr1 y ν1 = Q1 µ1 6= 0; luego

r2 Y1 Y1 r2 XT1 Σ11 X1
V = = ∼ GF(r1 , r2 ; δ; f ),
r1 Y2T Y2 r1 XT Σ− X2
2 22
4.4. APLICACIONES 85

− −
con δ = (1/2)(ν1T ν1 ) = (1/2)(µT1 Σ11 µ1 ) y Σii , i = 1, 2 es un inverso generalizado simétrico.

Sea V ∼ GF(m, n; δ; f ). Entonces, si δ = 0, V tiene una distribución F generalizada


centrada, la cual coincide con distribución F centrada clásica (vea [32, p. 63]).
La distribución GF no centrada, obtenida bajo singularidad de la distribución Elı́ptica
asociada, esto es, cuando X ∼ ECnr (µ, Σ; f ), es afectada en los grados de libertad de la
distribución de V , al igual que en el caso de las distribuciones χ2 y t, dadas anteriormente.
Cuando −
r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22

con δ = (1/2)(µT1 Σ11 µ1 ), y X tiene una distribución de Pearson tipo VII singular de rango
(r1 + r2 ) o una distribución de tipo Kotz singular de rango (r1 + r2 ), la forma explı́cita de la
densidad de X se encuentra desarrollada en [33].

4.4 Aplicaciones
En esta sección se aplica la distribución Elı́ptica singular a la distribución de los residuos de un
modelo lineal Elı́ptico y a la distribución del estadı́stico t generalizado, basado en un muestra
obtenida desde una población Elı́ptica, .

4.4.1 Distribución de los Residuos de un Modelo Lineal Elı́ptico

Considere el modelo lineal de rango completo

Y = Xβ + ²,

donde ², Y ∈ IRn , X ∈ IRn×p , β ∈ IRp e

Y ∼ ECn (Xβ, σ 2 In ; f ),

cuyos residuos están dados por



e = Y − X̂ = (I − XX )Y.
86 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

De esta manera, e tiene una distribuión Elı́ptica singular, más aún,


e ∼ ECn(n−p) (0, σ 2 (I − XX ); f ),

donde σ02 = c0 σ 2 , c0 = −2φ0 (0), φ(·) está dado en (2.2.1) y σ 2 es el parámetro de escala de la
distribución de e.

Lo anterior debido a que

− −
rk(distribución) = rk(Cov(e)) = rk(Cov((I − XX )Y)) = rk(σ02 (I − XX )) = n − p,

Asimismo,
− −
T(I − XX ) 1 − 1 − 1
e 2
e = 2 YT (I − XX )Y = 2 ||(I − XX )Y||2 = 2 (YT Y − β̂ T XYT ) = eT e,
σ σ σ σ

donde
eT e
∼ Gχ2 (n − p; f ).
σ2

De la expresión anterior, ahora note que la suma de cuadrados debido al modelo, YT Xβ̂ es
tal que
− − − −
YT Xβ̂ = YT XX Y = YT (XX )T (XX )Y = ||XX Y||2 ,

con
− −
XX Y ∼ ECnp (Xβ, σ 2 XX ; f ),

pues
− −
E(XX Y) = XX Xβ = Xβ,
− − − −
Cov(XX Y) = XX σ02 I(XX )T = σ02 XX

y
− −
rk[Cov(XX Y)] = rk(XX ) = rk(X) = p,

por lo tanto
− −
T (XX )(XX )
− YT Xβ̂
(Y XX ) 2
Y = 2
∼ Gχ2 (p, δ; f ),
σ σ
4.4. APLICACIONES 87

donde δ es el parámetro de no centralidad de la distribución Gχ2 y viene dado por δ =


||Xβ||2 /(2σ 2 ).
Observe que la expresión para U dada en (11) es una acntidad pivotal para σ 2 , esto es, el
parámetro de escala de la distribución del vector de residuos. De etsa forma, es posible es-
tablecer una expresión explı́cita para el intervalo de confianza de parámetro antes mencionado
a partir de la cantidad pivotal y de los Corolarios ? y ? al reemplazar el parámetro de no
centralidad δ por cero. Los resultados obtenidos se presentan en la Tabla 2.

Tabla 2 Formas explı́citas de los Intervalos de Confianza del 100(1 − α)% el parámetro de
escala de la distribución del vector de residuos para las distribuciones Elı́pticas que se
especifican.

eT e
Ley Elı́ptica Distribución de U = IC100(1−α)% (σ 2 )
σ2
 
2m−n+p 2m−n+p T
s(n − p) s(n−p) eT e s(n−p) e e
Pearson VII U= Y  , 
2m − n + p F1− α2 (n − p, 2m − n + p) F α2 (n − p, 2m − n + p)

Y ∼ F(n − p, 2m − n + p)
à !
eT e/(n − p) eT e/(n − p)
t-multivariada U = (n − p)Y ,
F1− α2 (n − p, s) F α2 (n − p, s)
Y ∼ F(n − p, s)
 

eT e eT e 
Tipo Kotz U = Y 1/t ,
(Γ1− α2 (s, 2m+n−p−2
2t ))1/t (Γ α2 (s, 2m+n−p−2
2t ))1/t
Y ∼ Γ(s, 2m+n−p−2
2t )
 

eT e eT e 
Normal U ∼ χ2 (n − p) ,
χ21− α (n − p) χ2α (n − p)
2 2

4.4.2 Distribución del Estadı́stico t Generalizado

A continuación se hallará la distribución del estadı́stico t generalizado, basado en una muestra


obtenida desde una población Elı́ptica, la que involucra a la distribución Elı́ptica singular,
Fang y Zhang [32, p. 63].
Sea X ∼ ECn (ν, σ 2 In ; f ), con ν = µ 1n , ν ∈ IRn , µ ∈ IR, 1n ∈ IRn , σ02 = c0 σ 2 ,
88 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR

c0 = −2φ0 (0) y φ dado en (2.2.1). Entonces,

√ X̄
T = n ∼ Gt(n − 1, δ; f ), (4.19)
S
n
X n
X
donde X̄ = Xi /n y S 2 = (Xi − X̄)2 /(n − 1) y δ = µ/σ es el parámetro de no centralidad
i=1 i=1
de la distribución Gt no centrada con (n − 1) g.l.

Demostración. Para aplicar el Teorema 3.99 defina


   
1 1  
 1n T   1n T X 
nσ nσ  Y1 
Y=AX=

 
 X=

= ,
 1   1 
D DX Y2
σ σ

con D = (In − (1/n)1n 1n T ) = D2 = DT , de modo que


      
Y1   µ/σ   1 0 
Y=

n
 ∼ EC(n+1)  , 

 ; f ,
Y2 0 0 D

esto es, Y tiene una distribución Elı́ptica singular; para ver esto observe que
   
1
 1n T   µ/σ 

E(Y) = E(A X) = A µ 1n = 

 
 µ 1n = 

.
 1   µ 
D D 1n
σ σ

Además, rk(D) = tr(In − (1/n)1n 1n T ) = n − tr((1/n)1n 1n T ) = n − 1. Entonces, observando


que D1n = 0, se tiene que E(Y) = (µ/σ 0). Por otro lado, el parámetro Σ de X, digamos
ΣY , es ΣY = A ΣX AT = σ 2 A AT . Ahora, como
 
2
 1/σ 0 
A AT =  ,
0 (1/σ 2 ) D

se obtiene que
   
1/n 0   1 0 
ΣY = 
 = .
0 ΣY2 0 D
4.4. APLICACIONES 89

− −
Finalmente, observe que ΣY = D = D, Ası́, T se puede escribir como
2

1 1 T
√ Y1 √ 1n T X √ 1n X √ X̄
T = nv = nv nσ = nvn = n ,
u uµ ¶T µ ¶ u T S
u T − u 1 − 1 uX D X
u Y2 ΣY Y2 u D X ΣY DX t
t 2 u
t σ 2 σ (n − 1)
(n − 1)
(n − 1)

con lo cual, por el Teorema 3.99, se obtiene queT = n X̄/S ∼ Gt(n−1, δ; f ), donde δ = µ/σ.
90 CHAPTER 4. DISTRIBUCIÓN ELÍPTICA SINGULAR
Chapter 5

Distribuciones Gt y GF Doble No
Centrada

5.1 Introducción

Las distribuciones t y F obtenidas a partir de distribuciones Elı́pticas se denominan distribu-


ciones t y F generalizadas. Sin embargo, si el parámetro de posición ν de la ley Elı́ptica es
igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y
F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes Elı́pticas
cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no
centradas dependen de la ley Elı́ptica particular bajo la cual fueron obtenidas. Asimismo,
las distribuciones t y F generalizadas doble no centradas, análogas a las del caso Normal,
dependen también de la ley Elı́ptica asociada.

La distribución t doble no centrada bajo una distribución Normal ha sido estudiada en [9],
mientras que la distribución F doble no centrada ha sido estudiada en [81]. Esta última
distribución ha sido utilizada para calcular la potencia de la prueba de interacción de efectos
en el modelo de análisis de varianza a dos criterios de clasificación con una observación por
celda (vea [10]). Del mismo modo, la distribución F doble no centrada se ha utilizado para

91
92 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

calcular la probabilidad del error de señales binarias de recepción multicanal adaptiva (vea
[67]). Por otra parte, estas distribuciones doble no centradas han sido también aplicadas
a problemas de comunicación, en señales capturadas a través de radar, y en patrones de
reconocimiento, donde se involucran operaciones con formas cuadráticas basadas en datos
normales (vea [82], [48], [75] y [87]).

En este capı́tulo se presentan las distribuciones t y F generalizadas, tanto para el caso cen-
trado, no centrado y doble no centrado, y bajo singularidad y no singularidad de la distribución
Elı́ptica asociada, en cuyo caso la singularidad de la distribución afecta los grados de libertad
de las distribuciones t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas
centradas, se usa la invarianza de tales distribuciones bajo leyes Elı́pticas con parámetro de
posición igual a cero, coincidiendo con las del caso Normal. Para las distribuciones F gen-
eralizadas no centrada y doble no centrada, se presentan sus densidades tanto en términos
de integrales como de las derivadas de la función generadora de densidades asociada a cada
distribución Elı́ptica, y por ende de cada distribución GF. En el caso de la distribuciones
t generalizadas no centrada y doble no centrada no es posible obtener esta representación,
por lo que su densidad sólo se expresa a través de integrales. Finalmente se ilustran todos
estos resultados para dos subfamilias de distribuciones Elı́pticas, como lo son la distribución
de Pearson tipo VII y la distribución de tipo Kotz, subfamilias que a su vez contienen como
casos particulares a las distribuciones Elı́pticas t y Normal multivarian-tes, respectivamente.
En esta ilustración y para el caso de la distribución GF, se observa la evidente simplificación
que se produce al usar la densidad en términos de la derivada de la gene-radora de densidades
en lugar de la expresión integral. Sin embargo, se debe tener presente que la aplicación de
este resultado es sólo posible cuando la generadora de densidades, asociada a la particular dis-
tribución Elı́ptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribución. Como no todas las distribuciones Elı́pticas
disponen de momentos, como por ejemplo la distribución de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 93

5.2 Distribución Gt Doble No centrada

Tal como se mencionó, la distribución Gt es la distribución t obtenida bajo una ley Elı́ptica.
En esta sección se presentan las distribuciones Gt centrada, no centrada y doble no centrada,
obtenidas bajo una distribución Elı́ptica singular y no singular.

La distribución Gt juega un papel similar al de la distribución t bajo la teorı́a de inferencia


Normal, y corresponde a la distribución de

X1 √ X1
T =q = nq , (5.1)
(XT2 X2 )/n XT2 X2

cuando X = (X1 XT2 )T ∈ IRn+1 sigue una distribución Elı́ptica, con X1 ∈ IR y X2 ∈ IRn .
Ası́, haciendo uso de la invarianza de la distribución Gt bajo leyes Elı́pticas con parámetro de
posición igual a cero (vea [32, p. 67]), esto es, X = (X1 XT2 )T ∼ ECn+1 (0, Σ; f ), con X1 ∈ IR
y X2 ∈ IRn , Σ ∈ IRn , Σ > 0, se obtiene que

√ X1
T = nq ∼ Gt(n; f ), (5.2)
XT2 Σ−1 X2

la cual coincide con la del caso Normal, esto es, Gt(n; f ) ≡ t(n), ∀f .

5.2.1 Distribución Gt No Centrada

A continuación se presenta la distribución Gt no centrada bajo singularidad y no singularidad


de la distribución Elı́ptica asociada.
h iT
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ 0T ,
 
2
σ 0 
µ ∈ IR y µ 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ = 
  , Σn ∈ IR
n×n
y rk Σn = n. Entonces,
0 Σn

√ X1
T = nq ∼ Gt(n, δ; f ), (5.3)
XT2 Σ−1
n X2

con parámetro de no centralidad δ = µ/σ.


94 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
h iT
Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con ν ∈ IRn , ν = µ 0T , µ ∈ IR
 
2
σ 0 
y µ 6= 0, Σ = 
  ∈ IR
(n+1)×(n+1)
y rk Σn = n. Considere la descomposición Σn =
0 Σn
Q QT , de modo que
     
−1 −1
 σ 0   σ X1   Y1 
Y= −1
 X =  −1 = .
0 Q Q X2 Y2

Entonces, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRn ; η ∈ IRn+1 ,


       
−1 −1
σ 0   σ 0   µ   µ/σ 
η=
 −1
 ν = −1
  = .
0 Q 0 Q 0 0

Finalmente,

√ Y1 √ X1 √ X1 µ
T = nq = n q −1 = nq ∼ Gt(n, δ; f ), δ = .
Y2T Y2 −1
(Q X2 )T (Q X2 ) XT2 Σn X2
−1 σ

De [32] se sabe que si T ∼ Gt(n, δ; f ), entonces la función de densidad de T es


n Z∞
2(nπ) 2 2 − n+1
gT (t) = ³ ´ (n + t )
n
2 f (y 2 − 2δ1 y + δ 2 ) y n dy; t ∈ IR, (5.4)
Γ 2 0

donde δ es el parámetro de no centralidad y δ1 = (tδ)/(n + t2 )1/2 .

De forma análoga al caso no singular (Σ > 0), también es posible obtener la distribución Gt
no centrada bajo una distribución Elı́ptica singular, esto es, cuando X ∼ ECnr (ν, Σ; f ), donde
r < n es el rango de Σ (Σ ≥ 0). Esta singularidad afecta los g.l. de la distribución Gt, tal
como se verá a continuación.
h iT
r+1
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ 0T y
 
2
 σ 0 
µ ∈ IR, µ 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =   , Σn ∈ IR
n×n
y rk Σn = r < n. Entonces,
0 Σn

√ X1
T = nq −
∼ Gt(r, δ; f ), (5.5)
XT2 Σn X2
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 95


con parámetro de no centralidad δ = µ/σ y Σ es un inverso generalizado simétrico de Σ.
−1 − −
Demostración. Es análoga a la del Teorema 1, reemplazando Q por Q , donde Q es un
− − −
inverso generalizado simétrico de Q, con lo cual Σn = Q Q y con rk Σn = r < n. De este
modo, la distribución Gt no centrada tiene r g.l. y el mismo parámetro de no centralidad
dado en (6).

5.2.2 Distribución Gt bajo una Ley de Pearson Tipo VII Singular

A continuación se estudia la distribución Gt bajo una distribución de Pearson tipo VII singular.
[Gt bajo una ley de Pearson tipo VII] Sea X = (X1 XT2 )T con distribución de Pearson tipo
VII singular de rango r + 1. Entonces,

√ X1
T = nq −
∼ Gt(r, δ; f ),
XT2 Σ X2

tiene densidad
r
r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ
2
2
Γ m− 2
r−2m−k−1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) r+k+1 2m+k−r−1
X k 1 2 )Γ 2
Γ 2
,
k=0 k! sk Γ (m + k)
(5.6)

donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 .

Demostración. Sea X con distribución de Pearson singular de rango r + 1 de parámetros


r+1
m> y s > 0. Entonces
2
· ¸−m
Γ(m) u
f (u) = r
³ ´ 1+ .
(πs) 2 Γ m − r s
2

Ası́, como
r Z∞
2(rπ) 2 r+1
gT (t) = ³ ´ (r + t2 )− 2 f (y 2 − 2δ1 y + δ 2 ) y r dy; t ∈ IR,
r
Γ 2 0
96 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA


con δ = µ1 y δ1 = 1 , entonces
(r + t2 ) 2
r Z∞ " #−m
2(rπ) 2 2 − r+1 Γ(m) y 2 − 2δ1 y + δ 2
gT (t) = ³ ´ (r + t ) 2
r+k
³ ´ 1+ y r dy
Γ r
(πs) 2 Γ m− r s
2 0 2
r Z∞ " #−m
2 r Γ(m)2
2 − r+1 y 2 − 2δ1 y + δ 2
= r
³ ´ ³ ´ (r + t ) 2 1+ y r dy,
s Γ m−
2
r
Γ r s
2 2 0

usando el desarrollo en serie dado en Anderson y Fang [1, pág. 85], se tiene
" #−m ∞
à !k à !−k−m
y 2 − 2δ1 y + δ 2 X (−m)k −2 δ1 y y2 + δ2
1+ = 1+ ,
s k=0 k! s s
tal que
r
2 r 2 Γ(m) r+1
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
Z∞ X

à !k à !−k−m
(−m)k −2 δ1 y y2 + δ2
1+ y r dy
k=0 k! s s
0
r
2 r 2 Γ(m) r+1
= r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
∞ Ã !−k−m

X (−m)k (−2 δ1 )k Z (s + δ 2 ) + y 2
y r dy
k=0 k! sk s
0
r ∞
2 r Γ(m)2 r+1 X (−m)k (−2 δ1 )k
= r
³ ´ ³ ´ (r + t2 )− 2

s2 Γ m − r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
r+k
(s + δ 2 )−(k+m) 1+ (s + δ 2 ) 2 dy
s + δ2 s + δ2
0
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
= r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞ à !−k−m à ! r+k
y2 y2 2
1+ dy.
s + δ2 s + δ2
0

Considere ahora el cambio de variable


y2 q
u= −→ y= u (s + δ 2 ),
s + δ2
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 97

cuyo jacobiano es
1
dy (s + δ 2 ) 2
J= = 1 ,
du 2u 2

con lo cual
r ∞
2 r 2 Γ(m) r+1 X (−m)k (−2 δ1 )k r−k
gT (t) = r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
 
1
Z∞
 (s + δ2) 2
du
r+k
(1 + u)−k−m u 2  1 
0 2 u2
r ∞
r Γ(m)
2 r+1 X (−m)k (−2 δ1 )k r−k+1
= r
³ ´ ³ ´ (r + t2 )− 2 (s + δ 2 ) 2
−m
s Γ m−
2
r
Γ r
k=0 k! sk
2 2
Z∞
r+k+1 r+k+1 2m−r+k−1
−1
u 2 (1 + u)− 2
− 2 du
0
r
r Γ(m)
2 r+1
= r
³ ´ ³ ´ (r + t2 )− 2
r r
s Γ m−
2
2
Γ 2
r−k+1
³ ´ ³ ´
∞ (−m) (−2 δ )k (s + δ 2 ) −m n+k+1 2m−r+k−1
X k 1 2 Γ 2
Γ 2

k=0 k! sk Γ(k + m)

5.2.3 Distribución Gt bajo una Ley de Tipo Kotz Singular

A continuación se estudia la distribución Gt bajo una distribución de tipo Kotz singular.


[Gt bajo una ley de tipo Kotz] Sea X = (X1 XT2 )T con distribución de tipo Kotz singular
de rango r, con m = 2 y s = 1. Entonces,

√ X1
T = nq −
∼ Gt(r, δ; f ),
XT2 Σ X2

tiene densidad
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2


" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2s δ1
98 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

(5.7)

donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 .

Demostración. Sea X con distribución de Tipo Kotz Singular de rango r de parámetros m,


t y s, y 2m + r > 2, t > 0, s > 0. Entonces
2m+r−2
³ ´
r
ts 2t Γ
2
³ ´
f (u) = r
³
2m+r−2
´ um−1 exp −s ut ; 2m > r − 2, t, s > 0.
π Γ 2
2t

Considere el caso en que m = 2 y t = 1, con lo cual


r
2 s 2 +1
f (u) = r u exp(−s u).
r π2
lo que conduce a
r
2(rπ) 2 r+1
gT (t) = ³ ´ (r + t2 )− 2
r
Γ 2
Z∞ r
2 s 2 +1 2
r (y − 2δ1 y + δ 2 ) exp(−s (y 2 − 2δ1 y + δ 2 )) y r dy
r π2
0
r r
−1 +1
4r 2 s 2 r+1
= ³ ´
r
(r + t2 )− 2 exp(−s δ 2 )
Γ 2
 ∞
Z
 y r+2 exp(−s y 2 ) exp(2s δ1 y) dy
0
Z∞
−2δ1 y r+1 exp(−s y 2 ) exp(−2δ1 y) dy
0

Z∞
+δ 2 y r+1 exp(−s y r ) exp(−2s δ1 y) dy  .
0

Usando ahora el desarrollo en serie



X (−s y 2 )k
exp(−s y 2 ) =
k=0 k!
y la función Gamma
Z∞ Z∞
r+2k Γ(r + 2k + 1)
y exp(2s δ1 y) dy = y (r+2k+1)−1 exp(2s δ1 y) dy = ,
(2 s δ1 y)r+2k+1
0 0
5.2. DISTRIBUCIÓN GT DOBLE NO CENTRADA 99

se obtiene finalmente
r r
4r 2 −1 s 2 +1
gT (t) = ³ ´
r r+1 exp(−s δ 2 )
Γ 2
(r + t2 )− 2

" #
X −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) r + 2k + 1
− 2δ1 + δ2 ,
k=0 k! (2s δ1 )r+2k+1 (2s δ1 )2 2 s δ1


con δ = µ1 y δ1 = 1 .
(r + t2 ) 2

5.2.4 Distribución Gt Doble No Centrada

A continuación se presenta la distribución Gt doble no centrada bajo singularidad y no sin-


gularidad de la distribución Elı́ptica asociada y su respectiva densidad.
h iT
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ µTn ,
 
2
 σ 0 
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =   , Σn ∈ IR
n×n
y
0 Σn
rk Σn = n. Entonces,
√ X1
T = nq ∼ Gt(n, δ, γ; f ), (5.8)
XT2 Σ−1
n X2
−1
con parámetros de doble no centralidad δ = µ/σ y γ = (1/2) µnT Σn µn .
h iT
Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con ν ∈ IRn , ν = µ µTn , µ ∈ IR
 
2
n  σ 0  (n+1)×(n+1)
y µ 6= 0, µn ∈ IR y µn =
6 0; Σ =   ∈ IR y rk Σn = n. Considere la
0 Σn
T
descomposición Σn = Q Q , de modo que
     
−1 −1
 σ 0   σ X1   Y1 
Y= −1
 · X =  −1
= .
0 Q Q X2 Y2

Entonces, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRn ; η ∈ IRn+1 ,


       
−1 −1
σ 0   σ 0   µ   µ/σ 
η=
 −1
·ν = −1
·  =  −1 .
0 Q 0 Q µn Q µn
100 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

Finalmente,

√ Y1 √ X1 √ X1
T = nq = n q −1 = nq ∼ Gt(n, δ, γ; f ),
Y2T Y2 −1
(Q X2 )T (Q X2 ) XT2 Σ−1
n X2

−1
donde δ = µ/σ y γ = (1/2) µTn Σn µn .

De manera similar al caso no singular, es posible obtener la distribución Gt doble no centrada


bajo una distribución Elı́ptica singular. Esta singularidad afecta los g.l. de la distribución de
T , tal como en el caso de las distribución Gχ2 , tal como se verá a continuación.
h iT
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ µTn ,
 
2
 σ 0 
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =   , Σn ∈ IR
n×n
y
0 Σn
rk Σn = r < n. Entonces,

√ X1
T = nq −
∼ Gt(r, δ, γ; f ), (5.9)
XT2 Σn X2

con parámetros de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn .
−1 −
Demostración. Es análoga a la del Teorema 2.113, reemplazando Σn por Σn y considerando
que rk Σn = r < n, con lo cual la distribución Gt doble no centrada tiene r g.l. y parámetros

de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn .

5.3 Distribución GF Doble No Centrada


Tal como se mencionó, la distribución GF es la distribución F obtenida bajo una ley Elı́ptica.
En esta sección se presentan las distribuciones GF centrada, no centrada y doble no centrada,
obtenidas bajo una distribución Elı́ptica singular y no singular.

La distribución GF, al igual que la distribución Gt, juega un papel similar a la distribución
F bajo la teorı́a de inferencia Normal, y corresponde a la distribución de
à ! ,à !
XT1 X1 XT2 X2 n XT1 X1
V = = , (5.10)
m n m XT2 X2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 101

cuando X = (XT1 XT2 )T ∈ IRm+n , con X1 ∈ IRm y X2 ∈ IRn , sigue una distribución Elı́ptica.
De la misma forma que en el caso de la distribución Gt, se usa la invarianza de la distribución
GF bajo leyes Elı́pticas con parámetros de posición igual a cero y de escala igual a la identidad
(vea [32, p. 67]), se obtiene que si X = (X1 XT2 )T ∼ ECm+n (0, In+1 ), con X1 ∈ IRm y
X2 ∈ IRn , entonces
n XT1 X1
V = ∼ GF(m, n; f ), (5.11)
m XT2 X2
la cual coincide con la del caso de una distribución Normal, esto es, GF(m, s; f ) ≡ F (m, n), ∀f .

5.3.1 Distribución GF No Centrada

A continuación se presenta la densidad de una distribución GF no centrada bajo singularidad


y no singularidad de la distribución Elı́ptica asociada.
m
Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σm+n ; f ), con X1 ∈ IR

y X2 ∈IRn ; ν ∈ IRm+n ,
h iT Σm 0 
ν = µT 0T , µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ =    , Σm ∈ IR
m×m
y
0 Σn
rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces,

n XT1 Σ−1
m X1
V = T
∼ GF(m, n; δ; f ), (5.12)
m X2 Σ−1
n X2

con parámetro de no centralidad δ = (1/2) µT Σ−1


m µ.
h iT
Demostración. Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σ; f ), con ν ∈ IRm+n , ν = µT 0T ,
 
 Σm 0 
µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ =   , rk Σm = m, Σn ∈ IR
n×n
y
0 Σn
rk Σn = n. Considere la descomposición Σm = P P y Σn = Q QT , de modo que
T

      
−1 −1
 P 0   X1   P X1   Y1 
Y=HX= −1
 = −1
= .
0 Q X2 Q X2 Y2

h iT
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (η, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; η = ζ T 0T ,
−1
ζ ∈ IRm y ζ = P µ 6= 0.
102 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

Finalmente,
−1
n Y1T Y1 n XT1 Σm X1
V = = ∼ GF(m, n; δ; f ),
m Y2T Y2 m XT2 Σ−1
n X2
−1
con δ = (1/2) ζ T ζ = (1/2) µT Σm µ.

De [32, p. 87] se sabe que si V ∼ GF(m, n; δ; f ), entonces su función de densidad es


n+m−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n n n n
2 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2ηy cos θ + γ 2 ) dθ dy, v > 0,
0 0
(5.13)

donde δ es el parámetro de no centralidad, η = ((m v)/(n + mv))1/2 γ y γ 2 = 2δ.


Sea V ∼ GF(m, n; δ; f ) y f expandible en serie de Taylor en IR. Entonces, una forma
alternativa de expresar la densidad de V es
m+n µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ v 1+ v
Γ n n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
(5.14)

donde δ es el parámetro de no centralidad, 2δ = γ 2 y f (2k) (·) es la 2k-ésima derivada de f .

Demostración. Si V ∼ GF(m, n, δ; f ), entonces su densidad está dada por (12). Considere


ahora
n+m
−1 µ ¶ m−2 µ ¶−1/2(m+n) Z∞

m m 2 2 m
gV (v) = ³ m−1 ´ ³ n ´ v 1+ v y m+n−1 T (y) dy,
Γ Γ n n n
2 2 0


de modo que T (y) = senm−2 θ f (y 2 − 2ηy cos θγ 2 ) dθ puede expresarse de la forma
0

µ ¶ X

1/2 m−1 γ 2k
T (y) = π Γ ³ ´ y k f (2k) (u + γ 2 ).
2 k=0 k! Γ k + n
2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 103

Ası́, finalmente,
m+n µ ¶ m−2 µ ¶− m+n
2π m
2 m 2 m 2
gV (u) = ³ ´ v 1+ v
Γ n n n n
2
∞ Z∞
X γ 2k
³
n
´ y m+n+k−1 f (2k) (y + γ 2 ) dy; u > 0,
k=0 k! Γ k + 2 0

donde 2γ = δ y f (2k) (·) es la 2k-ésima derivada de f .

De forma análoga al caso no singular, también es posible obtener la distribución GF no


centrada bajo una distribución Elı́ptica singular. Esta singularidad afecta los g.l. de la
distribución de V , tal como en el caso de las distribuciones Gχ2 y Gt, tal como se verá a
continuación.
m
Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Σm+n ; f ), con X1 ∈ IR

y X2 ∈ IRn ; ν ∈ IRm+n ,
h iT Σm 0 
ν = µT 0T , µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ =    , Σm ∈ IR
m×m
y
0 Σn
rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces,

n XT1 Σm X1
V = ∼ GF(r, s; δ; f ), (5.15)
m XT2 Σ−
n X 2

con parámetro de no centralidad δ = (1/2) µT Σm µ.
−1 − −1 −
Demostración. Es análoga a la del Teorema 3.116 reemplazando Σm por Σm y Σn por Σn ;
considerando además que rk Σm = r < m y rk Σn = s < n, con lo cual la distribución GF no

centrada tiene r y s g.l. y parámetro de no centralidad δ = (1/2) µT Σm µ.

5.3.2 Distribución GF bajo una Ley de Pearson Tipo VII Singular

A continuación se presenta la distribución GF no centrada bajo singularidad y no singularidad


de la distribución Elı́ptica asociada.
[GF bajo una ley de Pearson tipo VII] Sea X = (XT1 XT2 ) con distribución de Pearson tipo
VII singular de rango r1 + r2 . Entonces

r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22
104 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

tiene densidad
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2 Γ(m) sm− r1 2 r1 2 r1 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m − r1 +r
2
2
Γ r22 r2 r2 r2

X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´
r2
(s + γ 2 )r1 +r2 −m−k ; v>0
k=0 k! Γ 2
+k Γ(m + 2k)
(5.16)

donde γ 2 = 2δ = µT1 Σ11 µ1 .
Demostración. Sea X con distribución de Pearson tipo VII singular de rango r1 + r2 y
r1 + r2
parámetros m > y s > 0. Entonces
2
· ¸−m
Γ(m) u
f (u) = r1 +r2 ³ ´ 1+
(πs) 2 Γ m− r1 +r2 s
2

y
Γ(m)
f (2k) (u) = r1 +r2 ³ ´ sm (m)2k (s + u)−m−2k .
r1 +r2
(π s) 2 Γ m− 2

Ahora, como

r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22

con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π 2 r1 r1 2 r1 2
gV (v) = ³ ´ v 1+ v
Γ r2 r2 r2 r2
2

∞ Z∞
X γ 2k
³
r2
´ y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy, v > 0,
k! Γ +k 0 k=0 2
2 T (2k)
donde γ = 2δ = µ µ y f (·) es la 2k-ésima derivada de f (·).

En nuestro caso particular


r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X

2π r1 2 r1 2 r1 2 γ 2k
gV (v) = ³ ´ v 1+ v ³ ´
Γ r2 r2 r2 r2 k=0 k! Γ r2
+k
2 2
Z∞
Γ(m) sm (m)2k
y r1 +r2 +k−1 r1 +r2 ³ ´ (s + y + γ 2 )−m−2k dy;
r1 +r2
0 (π s) 2 Γ m− 2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 105

r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X

2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞
y r1 +r2 +k−1 (s + y + γ 2 )−m−2k dy
0

r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X

2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !−m−2k
y 2 r1 +r2 +k−1 2 −m−2k y
(s + γ ) (s + γ ) 1+ dy
s + γ2 s + γ2
0

r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X

2π 2 Γ(m) r1 r1 2 r1 2 γ 2k sm (m)2k
= r1 +r2 ³ ´ ³ ´ v 1+ v ³ ´
(π s) 2 Γ m − r1 +r
2
2
Γ r22 r2 r2 r2 k=0 k! Γ r2
2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !−(m+2k)
2 r1 +r2 −m−k y y
(s + γ ) 1+ (s + γ 2 )−1 dy,
s + γ2 s + γ2
0
con v > 0.

Considere el cambio de variable u = y/(s + γ 2 ) −→ y = u/(s + γ 2 )−1 , cuyo jacobiano es


J = (s + γ 2 )−1 , con lo cual
Z∞ Ã !r1 +r2 +k−1 Ã !−m−2k
y y
1+ (s + γ 2 )−1 dy =
s + γ2 s + γ2
0

Z∞
u(r1 +r2 +k)−1 (1 + u)−(r1 +r2 +k)−(m+k−r1 −r2 du
0
y de esta manera
Z∞ Ã !r1 +r2 +k−1 Ã !−m−2k
y y
1+ (s + γ 2 )−1 dy =
s + γ2 s + γ2
0

Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
Γ(m + 2k)
y ası́ finalmente
106 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π 2 Γ(m) r1 r1 2 r1 2
gV (v) = r1 +r2 ³ ´ ³ ´ v 1+ v
(π s) 2
r1 +r2
Γ m− 2 Γ 2 r2
r2 r2 r2

X γ 2k sm (m)2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´ (s + γ 2 )r1 +r2 −m−k ,
k=0 k! Γ r2
+k Γ(m + 2k)
2

r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2 Γ(m) sm− r1 2 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r1 +r2
Γ m− 2 Γ 2 r2
r2 r2 r2

X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 )
³ ´
r2
(s + γ 2 )r1 +r2 −m−k ,
k=0 k! Γ 2
+k Γ(m + 2k)
con v > 0.

5.3.3 Distribución GF bajo una Ley de Tipo Kotz

A continuación se estudia la distribución GF bajo una distribución de tipo Kotz singular.


[GF bajo una ley de tipo Kotz] Sea X con distribución de tipo Kotz singular de rango
r1 + r2 . Entonces

r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22

tiene densidad
2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
gV (v) = ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2(r1 +r2 +t(z+2k)+m−1) (−s)2(k+1)
³ ´
k=0 z=l−2k=0 k! (z + 2k)! Γ r22 + k
Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k))
; v > 0,
Γ(2k + 1 − m − t(z + 2k))
(5.17)

donde γ 2 = 2δ = µT1 Σ11 µ1 .

Demostración. Sea X con distribución de tipo Kotz singular de rango r1 + r2 y parámetros


m, t y s, con 2m + r1 + r2 > 2, t > 0, s > 0. Entonces
2m+r−2
³ ´
r
ts 2t Γ2
³ ´
f (u) = r
³
2m+r−2
´ um−1 exp −s ut ; 2m > r − 2, t, s > 0
π Γ2
2t
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 107

y
2m+r−2
³ ´
r1 +r2
ts 2t Γ 2

X(t(z + 2k) + m − 1)2k ut(z+2k)+m−1−2k
f (2k) (u) = r1 +r2 ³ ´ .
π 2 Γ 2m+r1 +r2 −2
z=l−2k=0 (−s)−2(k+1) (z + 2k)!
2t

Ahora, como

r2 XT1 Σ11 X1
V = ∼ GF(r1 , r2 ; δ; f ),
r1 XT Σ− X2
2 22

con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como
r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2
2π r1 2 r1 2 r1 2
gV (v) = ³ ´ v 1+ v
Γ r2 r2 r2 r2
2

∞ Z∞
X γ 2k
³
r2
´ y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy, v > 0,
k=0 k! Γ 2
+k 0
donde γ 2 = 2δ = µt µ y f (2k) (·) es la 2k-ésima derivada de f (·).

En nuestro caso particular


r1 +r2 µ ¶ r1 −2 µ ¶− r1 +r2 X

2π r1 2 r1 2 r1 2 γ 2k
gV (v) = ³ ´ v 1+ v ³ ´
Γ r2 r2 r2 r2 k=0 k! Γ r2
+k
2 2
2m+r−2
³ ´
Z∞ ts 2t Γ r1 +r2
2
y r1 +r2 +k−1 r1 +r2 ³ ´
2m+r1 +r2 −2
0 π 2 Γ 2t

X(t(z + 2k) + m − 1)2k (y + γ 2 )t(z+2k)+m−1−2k
dy;
z=l−2k=0 (−s)−2(k+1) (z + 2k)!

2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞
r1 +r2 +k−1
y (y + γ 2 )t(z+2k)+m−1−2k dy.
³ ´ 0
2m+r−2
2ts Γ r1 +r 2 µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
Γ r22 Γ 2m+r12t+r2 −2 r2 r2 r2
108 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞ Ã !r1 +r2 +k−1
y
γ 2(r1 +r2 +k−1) γ 2(t(z+2k)+m−1−2k) (1 + y)t(z+2k)+m−1−2k dy
γ2
0
2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
= ³ ´ ³ ´ v 1+ v
r2
Γ 2 Γ 2m+r1 +r2 −2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Z∞ Ã !r1 +r2 +k−1 Ã !t(z+2k)+m−1−2k
2(r1 +r2 +t(z+2k)+m−1−k) y y
γ 1+ 2 γ −2 dy.
γ2 γ
0

Considere el cambio de variable u = y/γ 2 −→ y = u γ 2 , cuyo jacobiano es J = γ −2 , con


lo cual
Z∞ Ã !r1 +r2 +k−1 Ã !t(z+2k)+m−1−2k
y y
1+ 2 γ −2 dy =
γ2 γ
0
Z∞
u(r1 +r2 +k)−1 (1 + u)−(r1 +r2 +k)−(k+1−r1 −r2 −m−t(z+2k)) du.
0

Aplicando ahora la función Beta, se tienes


Z∞ Ã !r1 +r2 +k−1 Ã !t(z+2k)+m−1−2k
y y
1+ 2 γ −2 dy =
γ2 γ
0
Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k))
.
Γ(2k + 1 − m − t(z + 2k))

Ası́, finalmente se obtiene que


2m+r−2
³ ´
2ts r1 +r2
Γ µ ¶ r1 −2 µ ¶− r1 +r2
2t
2 r1 r1 2 r1 2
gV (v) = ³ r ´ ³ 2m+r +r −2 ´ v 1+ v
Γ 2 Γ
2 1 2 r2 r2 r2
2t
∞ ∞
X X (t(z + 2k) + m − 1)2k γ 2(r1 +r2 +t(z+2k)+m−1) (−s)2(k+1)
³ ´
r2
k=0 z=l−2k=0 k! (z + 2k)! Γ 2
+k
Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k))
.
Γ(2k + 1 − m − t(z + 2k))
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 109

5.3.4 Distribución GF Doble No Centrada

A continuación se presenta la distribución GF doble no centrada bajo singularidad y no


singularidad de la distribución Elı́ptica asociada y su respectiva densidad.
Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; ν ∈ IRm+n , ν =
h iT Σm 0 
T
νm νnT , νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = 
 ,
0 Σn
Σm ∈ IRm×m y rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces,
−1
n XT1 Σm X1
V = ∼ GF(m, n; δ, γ; f ), (5.18)
m XT2 Σ−1
n X2

T −1 −1
con parámetros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn .
h iT
Demostración. Sea X = (X1 X2 )T ∼ ECm+n (ν, Σ; f ), con ν ∈ IRm+n , ν = νm
T T
νn ,
 
Σm 0 
νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = 
  , rk Σm = m,
0 Σn
Σn ∈ IRn×n y rk Σn = n. Considere la descomposición Σm = P PT y Σn = Q QT , de modo
que       
−1 −1
 P 0   X1   P X1   Y1 
Y=HX= −1
 = −1
= .
0 Q X2 Q X2 Y2
h iT
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn ,
−1 −1
µm ∈ IRm , µm = P νm 6= 0, µn ∈ IRn y µn = Q νn 6= 0.

Finalmente,
−1
n Y1T Y1 n XT1 Σm X1
V = = ∼ GF(m, n; δ, γ; f ),
m Y2T Y2 m XT2 Σ−1
n X2
−1 −1
T
con δ = (1/2) µTm µm = (1/2) νm Σm νm y γ = (1/2) µTn µn = (1/2) νnT Σn νn .
Sea V ∼ GF(m, n; δ, γ; f ). Entonces, la densidad de V es

n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ m−1 ´ ³ n−1 ´ v 1+ v (5.19)
Γ Γ n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y η∗ cos θ + η 2 − 2 y ζ∗ cos θ + ζ 2 ) dy dθ dφ,
0 0 0
110 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

con parámetros de doble no centralidad δ y γ, donde


µ ¶1/2 µ ¶1/2 µ ¶−1/2
2 2 mv n n
η = 2 δ, ζ = 2 γ, η∗ = η y ζ∗ = 1+ ζ.
n + mv mv mv

Demostración. Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ;
h iT
T
ν = νm νnT , νm ∈ IRm , νn ∈ IRn y νm , νn 6= 0. Considere ahora la transformación Y = H X,
con H ∈ O(m + n), de modo que
         
H1 0   H1 0   X1   H1 X1   Y1 
Y=HX=
  X=    =  = ,
0 H2 0 H2 X2 H2 X2 Y2

esto es, Y1 = H1 X1 , H1 ∈ O(m), tal que kY1 k = kH1 X1 k = (XT1 (HT1 H1 ) X1 )1/2 = kX1 k
y Y2 = H2 X2 , H2 ∈ O(n), con kY2 k = kH2 X2 k = (XT2 (HT2 H2 ) X2 )1/2 = kX2 k, de
h iT
manera que Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn ,
µm ∈ IRm , µm = [kνm k 0T ]T , µn ∈ IRn y µn = [kνn k 0T ]T . Ası́
 
Xm n+m
X
gY (Y) = f ((Y−µ)T (Y−µ)) = f  yi2 + kνm k2 − 2kνm k y1 + yi2 + kνn k2 − 2kνn k ym+1  .
i=1 i=m+1

Considere la transformación de coordenadas esféricas generalizadas dada por

(Y1 . . . Ym ) −→ (r θ1 . . . θm−1 ) = (r θ) y (Ym+1 . . . Ym+n ) −→ (s φ1 . . . φm−1 ) = (r φ),

de manera que

gr,θ;s,φ ((r θ); (s φ)) = gY (Y) · |J| = f (r12 + δ 2 − 2δ r1 cos


 1
θ + r22 + γ 2 − 2γ
 2
r cos φ1 )
m−2
Ãn−2 !
Y Y
r1m−1 r2n−1  senm−j−1 θj  senn−k−1 φk ,
j=1 k=1

donde δ = kνm k, γ = kνn k y |J| es le valor absoluto del jacobiano de la transformación. Ası́
la densidad de (r1 , r2 ) es
m+n
−1
4π 2
gr1 ,r2 (r1 , r2 ) = ³ ´ ³ ´ r1m−1 r2n−1
m−1 n−1
Γ 2
Γ 2
5.3. DISTRIBUCIÓN GF DOBLE NO CENTRADA 111

Zπ Zπ
f (r12 + δ 2 − 2δ r1 cos θ1 + r12 + γ 2 − 2γ r2 cos φ1 ) senm−2 θ1 senn−2 φ1 dθ1 d φ1 ; r1 , r2 > 0.
0 0

n r12
Aplicando el cambio de variables w = r y v = , de modo que |J| = (1/2) (n/m)1/2 w v −3/2 ,
m r22
se obtiene que
m+n
−1 µ ¶ n+2
2π 2 n m+n−1 n 2
gV,W (v, w) = ³ ´ ³ ´ w
Γ m−1
Γ n−1 m mv
2 2
Zπ Zπ Ã µ ¶ µ ¶1/2 !
2 n n
f w 1+ − 2 w δ cos θ + δ 2 − 2 w γ cos θ + γ 2
mv mv
0 0
senm−2 θ1 senn−2 φ1 dθ1 dφ1 ;
n r12
con w, v > 0. De este modo, la densidad de V = es
m r22
n+m
−1 µ ¶ n+2 Zπ Zπ Z∞
m n
2π 2 2
gV (v) = ³ ´ ³ ´ senm−2 θ senn−2 φ wm+n−1
Γ m−1 Γ n−1 n m v
2 2 0 0 0
à µ ¶ µ ¶1/2 !
n n
f w2 1+ − 2 w δ cos θ + δ 2 − 2 w γ cos θ + γ 2 dw dθ dφ,
mv mv

donde γi2 = kνi k, i = 1, 2.. Usando ahora el cambio de variables


µ ¶1/2 µ ¶−1/2
n n
y =w 1+ −→ w = 1+
mv mv
y cuyo jacobiano es J = (dw/dy) = (1 + n/(m v))1/2 , se obtiene finalmente
n+m
−1 µ ¶ m−2 µ ¶− m+n
2π 2 m m 2 m 2
gV (v) = ³ ´ ³ ´ v 1+ v
Γ m−1
Γ n−1 n n n
2 2
Zπ Zπ Z∞
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y δ∗ cos θ + δ 2
0 0 0
−2 y γ∗ cos θ + γ 2 ) dy dθ dφ
µ ¶1/2 µ ¶1/2 µ ¶−1/2
mv n n
donde δ∗ = δ y γ∗ = 1+ γ.
n + mv mv mv
Similarmente, se puede obtener la distribución GF doble no centrada bajo una distribución
Elı́ptica singular, cuya singularidad afecta los g.l. de la distribución de V , tal como en los
casos anteriores.
112 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA

Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; ν ∈ IRm+n , ν T =


h i Σm 0 
νnT νm
T
, νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = 
 ,
0 Σn
Σm ∈ IRm×m y rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces,

s XT1 Σm X1
V = ∼ GF(r, s; δ, γ; f ), (5.20)
r XT2 Σ−
n X2

− −
T
con parámetros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn .
−1 − −1 −
Demostración. Es análoga a la del Teorema 9, reemplazando Σm por Σm y Σn por Σn ;
considerando además que rk Σm = r < m y rk Σn = s < n, con lo cual la distribución

GF no centrada tiene r y s g.l. y parámetros de no centralidad δ = (1/2) µTm Σm µm y

γ = (1/2) µTn Σn µn .
Chapter 6

Inferencias para el CV bajo una Ley


Elı́ptica

6.1 Introducción

Se sabe que las medidas de dispersión se utilizan para evaluar la variabilidad de un conjunto
de datos, siendo la desviación estándar la más utilizada. Sin embargo, ésta entrega poca
información de la variabilidad del conjunto si es interpretada en forma aislada, sólo cuando se
la relaciona con la media su interpretación tiene mayor sentido. Por esta razón el coeficiente
de variación (CV), que relaciona ambas medidas, se emplea habitualmente.

Considere una población de media µ y desviación estándar σ. Entonces el CV se define como


el cociente entre la desviación estándar y la media de esta población, es decir, γ = σ/µ, con
µ 6= 0.

El CV mide la dispersión u homogeneidad de un conjunto de datos asociados a una variable


aleatoria y es una medida de variabilidad relativa, es decir, es adimensional, pues representa
a la desviación estándar por una unidad de media y resulta de particular interés cuando se
desea comparar la variabilidad entre grupos cuyas medias y varianzas difieren.

El CV ha sido utilizado frecuentemente para medir la variabilidad relativa en diversas áreas y

113
114 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

situaciones. A continuación se presenta una detallada lista de aplicaciones. En experimentos


quı́micos el CV se ha empleado para evaluar la precisión de las mediciones realizadas y para
comparar dos métodos de medición (vea [64]). En Finanzas el CV se usa para medir el riesgo
relativo de rentas variables, ya que a inversión (vea [63]). En Teorı́a de Inventarios se ha
utilizado el CV para comparar la variabilidad de dos niveles de almacenamiento, evaluando ası́
el riesgo de quedar desabastecidos y por ende incurrir en un costo de oportunidad (vea [64]). El
CV también se ha usado en Ciencias Fı́sicas, Biológicas y Médicas (vea [40]). Especı́ficamente,
en el área Biomédica se ha ocupado el CV en la evaluación de la homogeneidad de muestras
óseas realizadas por un método especı́fico, ya que para evaluar la efectividad de un tratamiento
sobre las propiedades del hueso es deseable obtener muestras que sean homogéneas (vea [42]).
En telecomunicaciones el CV es utilizado para evaluar el ruido de señales y el inverso del CV
es denominado ”razón señal a ruido” (vea [60, p. 78]). Dentro del contexto de la Estadı́stica se
pueden encontrar también aplicaciones del CV. Concretamente, en un problema de muestreo
cuando se desea estimar la media de una población, es posible expresar el cálculo del tamaño
de la muestra por n = ((Z(1−α/2) γ)/q)2 , donde q(100)% es el porcentaje que se espera que
difiera la media de su estimador; note que la expresión para calcular n queda en función del
CV, γ (vea [68, p. 254]). Ası́, si se asume que la variable es positiva y tiene distribución
Normal, entonces la media es aproximadamente igual a tres desviaciones estándar, con lo cual
se puede suponer que γ ≈ 1/3. Otra alternativa es asumir que la desviación estándar es tan
grande como la media y ası́ γ = 1; aunque en estricto rigor se sabe que numéricamente la
desviación estándar puede ser mayor que la media, una situación ası́ es algo inusual; de hecho
en distribuciones de gran variabilidad como la de Poisson, por ejemplo, el CV es igual 1.
En este último caso se estarı́a considerando una situación muy similar al criterio de máxima
varianza que se presenta en el caso de la estimación de una proporción, es decir, cuando se
desconoce cualquier información a priori respecto de la variabilidad de la población. Por otro
lado, en Modelos Lineales y Análisis de Varianza el CV se emplea habitualmente para evaluar
la bondad del ajuste de los datos al modelo. En Análisis de Confiabilidad se han planteado
también diversos usos del CV, como por ejemplo. En [14] se muestra que si la vida de una
6.1. INTRODUCCIÓN 115

máquina tiene distribución Inversa Gaussiana, entonces dado que la máquina ha sobrevivido a
un tiempo t, la vida media residual excederá la vida media original si el CV de esta población

es mayor a 1/ 2. En [13] se demuestra que si la distribución de vida pertenece a la clase-l,
entonces el CV es menor o igual a 1, siendo exactamente 1 cuando la función de distribución es
exponencial. Asimismo, a pesar del limitado uso de la distribución Normal en Confiabilidad,
ésta ha demostrado ser útil modelar datos de vida si µ > 0 y el CV γ = σ/µ es pequeño, con
particular éxito en modelación de la vida de filamentos eléctricos (por ejemplo de ampolletas)
y resistencia de nudos de alambres de circuitos integrados (vea [60, pp. 81-82]). De igual
forma, el gráfico del coeficiente de curtosis versus el CV se emplea para detectar la bondad de
ajuste de distribuciones de vida (vea [60, p.110]), entre otras aplicaciones.

Los primeros resultados distribucionales del CV de una población Normal se remontan a los
estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi cuatro décadas,
en [44] se retoma el tema comparando aproximaciones de percentiles del CV muestral con los
resultados hasta ahı́ propuestos. Posteriormente en [6] se plantea un contraste aproximado
para probar la homogeneidad de coeficientes de variación. En [7] se encuentra un test basado
en el estadı́stico de razón de verosimilitud para contrastar estas mismas hipótesis. Luego en
[63] se propone un nuevo contraste para la igualdad de dos coeficientes de variación, en [30] se
generaliza a k muestras, y en [77] se presentan estudios de simulación de estos contrates. Por
su parte, en [43] se realiza inferencia para el CV de una distribución Inversa Gaussiana. En
[62], y posteriormente en [35], se presentan pruebas de hipótesis asintóticas para el coeficiente
de variación de una, dos y k muestras, junto con estudios de simulación. En [40] se entregan
diversos resultados que permiten probar la igualdad de coeficientes de variación de k muestras
provenientes de poblaciones normales basados en la revisión de contrastes ya conocidos, como
lo son las pruebas de Bennet, de razón de verosimilitud, de la t no centrada, de Wald -la
que extienden a k muestras y para distintos tamaños de éstas- y además presentan un nuevo
contraste basado en la prueba de Score. En [64] se hace inferencia asintótica para el CV
de una población Normal presentando fórmulas para estadı́sticos de prueba, a través de los
cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de los
116 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

resultados planteados para el CV de una población Normal son extendidos en [54] al caso de
una población Elı́ptica.

En este capı́tulo se propone un coeficiente de variación generalizado, como una medida de


varia-bilidad relativa, válido para poblaciones cuya distribución carece de primer y segundo
momento (los momentos de una distribución Elı́ptica pueden verse en [32][p. 67])). Esta
medida se puede entender como una generalización del CV y se define como la raı́z cuadrada
del parámetro de escala dividido por el parámetro de posición. Se analizan aspectos dis-
tribucionales e inferenciales de este CV generalizado bajo dos modelos Elı́pticos, como lo son
el modelo dependiente (el vector aleatorio tiene una estructura dependiente con distribución
Elı́ptica multivariada) y el modelo independiente (cada variable aleatoria del vector es indepen-
diente e idénticamente distribuida Elı́ptica univariada). Especı́ficamente, para ambos modelos
(dependiente e independiente) se encuentra el estimador de verosimilitud máxima (EVM) y,
en forma alternativa, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda
expresado en términos de las funciones f y φ asociadas a cada ley Elı́ptica, por lo cual en esta
sección sólo es posible hallar una expresión general para este estimador. Posteriormente se
presenta la distribución exacta del inverso del EVM del CV para el modelo dependiente y la
distribución asintótica del EVM y del EM del CV bajo el modelo independiente. A partir de
estas distribuciones se obtienen intervalos de confianza y pruebas de hipótesis para el CV. Los
resultados obtenidos bajo el modelo dependiente son ilustrados a través de dos subfamilias de
distribuciones Elı́pticas, como lo son la distribución de Pearson Tipo VII y la distribución de
Tipo Kotz, permitiendo encontrar ası́ expresiones explı́citas para los resultados planteados;
particularmente se estudian las distribuciones t-multivariada y de Cauchy (esta última dis-
tribución carece de momentos), como casos particulares de la subfamilia Elı́ptica de Pearson
Tipo VII, y la distribución Normal, como caso particular de la subfamilia de Tipo Kotz. Los
resultados encontrados bajo el modelo independiente se particularizan para la distribuciones
univariadas t con s grados de libertad (g.l.) y Normal, incluyendo además la eficiencia relativa
asintótica (ERA) de los estimadores hallados.
6.2. ESPECIFICACIÓN DE LOS MODELOS 117

6.2 Especificación de los Modelos


En la inferencia para el CV de una población Elı́ptica se analizarán los modelos Elı́pticos con
estructura dependiente e independiente, los que se presentan a continuación.

6.2.1 Modelo Elı́ptico con Estructura Dependiente

Denominaremos modelo elı́ptico con estructura dependiente (Modelo D) a un vector aleatorio


conjuntamente dependiente con distribución Elı́ptica multivariada. Especı́ficamente, sea X =
(X1 X2 . . . Xn )T una muestra de tamaño n de una población Elı́ptica bajo el Modelo D, esto
es, X ∼ ECn (ν, Σ; f ). Entonces X tendrá:

1. Parámetro de posición ν = µ 1n , con ν ∈ IRn , µ ∈ IR y 1n ∈ IRn , donde 1n = (1 1 . . . 1)T .


El parámetro de posición coincidirá con la media cuando exista el primer momento del
modelo.

2. Parámetro de escala Σ = σ 2 In , con Σ ∈ IRn×n y σ 2 > 0.

3. Matriz de covarianzas (si existe) Σ0 , proporcional al parámetro de escala, definida por

Σ0 = c0 Σ = c0 σ 2 In , con c0 = −2 φ0 (0), φ dada en (2.2.1) y φ0 es su derivada.


(6.1)

6.2.2 Modelo Elı́ptico con Estructura Independiente

Denominaremos modelo elı́ptico con estructura independiente (Modelo I) a un vector aleatorio


compuesto por variables aleatorias independientes e idénticamente distribuidas Elı́ptica uni-
variada. Concretamente, sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n de una
i.i.d.
población Elı́ptica bajo el Modelo I, esto es, Xi ∼ EC1 (µ, σ 2 ; f ), con i=1,2,...,n. Entonces
Xi tendrá:

1. Parámetro de posición µ ∈ IR y coincidirá con la media al existir el primer momento


del modelo.
118 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

2. Parámetro de escala σ 2 > 0.

3. Varianza (si existe) σ02 , proporcional a σ 2 y definida por σ02 = c0 σ 2 , con c0 dado en
(6.2.1).

Para los dos modelos planteados (D e I), la población tendrá coeficiente de variación
generalizado definido por γ = σ/µ, esto es, la raı́z cuadrada del parámetro de escala sobre el
parámetro de posición. De este modo, siempre es posible construir una medida adimensional
de variabilidad relativa, existan o no los dos primeros momentos del modelo subyacente. Ası́,
en adelante, se trate del CV o de su versión generalizada, simplemente se referirá a él como
”coeficiente de variación” (CV), denotándolo por γ.

En lo posterior también considere lo siguiente. Sean


à n ! µ ¶
1X n
1 T 2 1 X 2 1 1 √
X= Xi = X 1n , S = 2
Xi − nX = XT I − 1n 1n T X y S = S 2 .
n i=1 n n i=1 n n
(6.2)
Además asuma que µ > 0 y que IP (X < 0) es muy pequeña (vea [40, Sección 2]).

6.3 Estimadores del CV de una Población Elı́ptica

En esta sección se presentan dos estimadores para el CV basados en una muestra de una
población Elı́ptica bajos los Modelos D e I, restringiendo el análisis a la estimación puntual.

6.3.1 Estimadores del CV bajo el Modelo D

Para obtener el EVM del CV de una población Elı́ptica bajo el Modelo D, se procede de
manera análoga al caso Normal (vea [36]), sólo que en este caso se obtiene una expresión
general que depende de las funciones f y φ asociadas a toda ley Elı́ptica, que al especificarse
permiten encontrar una expresión explı́cita para el estimador del CV.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γ el CV.
6.3. ESTIMADORES DEL CV DE UNA POBLACIÓN ELÍPTICA 119

Entonces el EVM de γ bajo el Modelo D es


q
γcD = n λ(f ) S/X, (6.3)

donde λ(f ) es el máximo de la función f ∗ (λ) = λ−n/2 f (1/λ) y que corresponde a una constante
que depende de cada ley Elı́ptica, f está dada en (2.2.2).

Demostración. La función de verosimilitud de una muestra proveniente de una población


Elı́ptica bajo el Modelo D puede expresarse por
à !n/2 à !
1 n
L(µ, γ, X) = f (S 2 + (X − µ)2 ) . (6.4)
µ γ2
2 µ γ2
2

Al ser f una función monótona, entonces L(µ, γ, X) como función de µ alcanza un máximo
en µ = X (vea [32, p. 129]), con lo cual la verosimilitud se reduce a
µ ¶n/2 Ã !n/2 Ã ! µ ¶n/2 Ã !
1 n S2 n S2 1 n S2
L(X, γ, X) = 2 f 2 = h 2 ,
n S2 X γ2 X γ2 n S2 X γ2
³ 2
´
esto es, L(X, γ, X) ∝ h (nS 2 )/(X γ 2 ) , donde h(x) = xn/2 f (x), con x = (n S 2 )/(X γ)2 y
x ≥ 0. Como f es no decreciente y continua, entonces haciendo uso del Lema 4.1.2 en [32, p.
129] el EVM de γ viene dado por la solución de f 0 (x) + f (x)(n/2x) = 0, y ésta es
q
γcD = n λ(f ) S/X,

donde λ(f ) es el máximo de f ∗ (λ) = λ−n/2 f (1/λ), f está dada en (2.2.2) y f 0 es su derivada.

Alternativamente el Teorema 3.124 puede demostrarse haciendo uso de la propiedad de


invarianza de los estimadores de verosimilitud máxima. Para ello considere los EVM de µ y
σ (vea [32, pp. 129 y 132]), dados por

EVM(µ) = µb = X y EVM(σ 2 ) = σc2 = n λ(f ) S 2 ,

donde λ(f ) es el máximo de f ∗ (λ) = λ−n/2 f (1/λ), con f dada en (2). Entonces el EVM de
γ es
µh iT ¶ σb q S
γcD = Td b =T
(θ) = T (θ) c
µb σ 2 = = n λ(f ) .
µb X
Como un estimador alternativo al de verosimilitud máxima (γcD ) se puede proponer uno
de ”tipo momentos” (EM) dado por γfD = S/X, con X y S dados en (4).
120 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

6.3.2 Estimadores del CV bajo el Modelo I

Para obtener el EVM del CV de una población Elı́ptica bajo el Modelo I, se procede de la
misma manera que en el Modelo D, sólo que en este caso la expresión general que se obtiene
debe resolverse numéricamente, tal como se verá a continuación.
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), y γ el CV. Entonces el EVM de γ bajo el Modelo I es

γcI = σb /µ,
b (6.5)

donde µb y σb son los estimadores de verosimilitud máxima de µ y σ, respectivamente, dados


por
n Pn
1 X wi Xi
σc2 = b 2
wi (Xi − µ) y µb = i=1
Pn , (6.6)
n i=1 i=1 wi

con wi = −2Wf (Ui ), Wf (Ui ) = f 0 (Ui )/f (Ui ) y Ui = ((Xi − µ)/


b σ b )2 , i = 1, 2, ..., n, (6.7)

f dada en (2.2.2) y f 0 es su derivada.

Demostración.Es directa al aplicar [2, Sección 5.1] y la propiedad de invarianza de los


estimadores de verosimilitud máxima.
La expresión (6.3.3) no puede resolverse de forma explı́cita, pero la solución se puede
aproximar numéricamente.
Similarmente al Modelo D, un estimador alternativo al de verosimilitud máxima bajo el
Modelo I es γfI = S/X, con X y S dados en (4).

6.4 Distribuciones Asociadas al Estimador del CV

En esta sección se presentan algunos resultados distribucionales asociados a los estimadores


propuestos para el CV (γ) de una población Elı́ptica bajo los Modelos D e I antes planteados.
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV 121

6.4.1 Distribución del EVM del CV bajo el Modelo D

A continuación se presenta la distribución exacta del inverso del EVM del CV de una población
Elı́ptica bajo el Modelo D, la que está relacionada con la distribución t generalizada no cen-
trada. Este resultado es análogo al planteado en [40, Sección 2.3] para el caso Normal.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n, η = 1/γ y
ηcD el EVM de η bajo el Modelo D. Entonces

√ q
T = n (X/S) = n λ(f ) ηcD ∼ Gt(n − 1, δ; f ), (6.8)


con λ(f ) dada en (6.3.1) y δ = n η es el parámetro de no centralidad de la distribución t
generalizada (Gt) no centrada con (n − 1) g.l.

Demostración. Para X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) considere la transfor-


mación
        
√ T

(1/ n σ) 1 X Y
 1  n µ/σ 1 0
Y = AX =       
n n
 =  ∼ EC(n+1)  ,   ; f
(1/σ) DX Y2 0 0 D
(6.9)
donde A ∈ IR(n+1)×n y D = (In − (1/n)1n 1Tn ) = D2 = DT , con D ∈ IRn×n . Note que Y tiene

una distribución Elı́ptica singular (vea [25]) y ΣY es un inverso generalizado de ΣY2 . Ası́, en
2

base a las representaciones matriciales de X y S dadas en (5.2.2), se obtiene que

Y1 √ 1 1T X √ 1 T
1 X √ X̄
n σ n n n
T =q =r ³ ´T ³ ´ = nq = n ,
1
Y2T ΣY Y2

1 1 1
1
XT D X S
n−1 2
n−1 σ
DX D σ
DX n−1

(6.10)
√ √ q
con lo cual, finalmente T = n (X̄/S) ∼ Gt(n − 1, δ; f ), donde δ = n µ/σ = µ/ σ 2 /n.
Para los detalles de esta demostración vea [25].

6.4.2 Distribución Asintótica del CV bajo el Modelo I

Otro resultado distribucional interesante tiene relación con el problema de muestras grandes.
A continuación se presenta la distribución asintótica del EVM y del EM del CV de una
122 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

población Elı́ptica bajo el Modelo I. Este resultado es análogo al planteado en [64, Sección 2]
para una población Normal. Note que ahora se requiere de la existencia de los cuatro primeros
momentos de la distribución, pues la ley Elı́ptica incide sobre esta distribución asintótica a
través del parámetro de curtosis(κ).
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), γ el CV y γcI el EVM de γ bajo el Modelo I. Entonces si n → ∞

n (γcI − γ) d
Z=v u à ! −→ N (0, 1), (6.11)
2
u
tγ 2 γ 1
+
4 a(f ) 4 b(f ) − 1

donde a(f ) = IE(U Wf2 (U )) y b(f ) = IE(U 2 Wf2 (U )), U 1/2 ∼ EC1 (0, 1; f ), (6.12)
d
con U y Wf (U ) dados en (5.3.5), γcI en (5.3.3) y ” −→ ” denota la convergencia en distribución.

Demostración. De [61, Sección 3], y como se sabe,


  
 



 σ2 

√ µ ¶    0 
d  0   4 a(f ) 
n X − µS 2 − σ 2 −→ N2  ,   ≡ N2 (0, F−1 ) ,




 4 σ4 

  0
0 4 b(f ) − 1 

con a(f ) y b(f ) dadas en (5.4.4). Ahora note que γ = T (θ) = T (µ, σ 2 ) = σ/µ es función de
µ y de σ 2 . Análogamente el EVM de γ, γcI , es función de µb y de σc2 , tal como puede verse en
(7). Entonces

√ b − T (θ)) =
√ c2 ) − T (µ, σ 2 )) = √ √
n (T (θ) n (T (µ,
b σ n (σb /µb − σ/µ) = n (γb − γ).

A partir de esto y aplicando el método-delta (vea [69, pp. 387-388]), se tiene que
 Ã ! Ã !T 
√ d ∂ T (θ) ∂ T (θ)
n (γcI − γ) −→ N 0, F−1 ,
∂θ ∂θ

donde à ! à !T à !
∂ T (θ) ∂ T (θ) γ2 1
F−1 =γ 2
+ .
∂θ ∂θ 4 a(f ) 4 b(f ) − 1
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV 123

Finalmente, √
n (γcI − γ) d
Z=v
u à ! −→ N (0, 1).
u
tγ 2 γ2 1
+
4 a(f ) 4 b(f ) − 1

i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i=1,2,...,n), γ el CV y γe el EM de γ bajo el Modelo I. Entonces si n → ∞

n (γfI − γ) d
Z=v u à ! −→ N (0, 1), (6.13)
2
tc γ 2 4c0 γ + 3κ + 2
u
0
4

con γfI dada en la Observación 3.129,

κ = φ00 (0)/φ0 (0))2 − 1 = k0 /c20 − 1 (6.14)

es el parámetro de curtosis de X, k0 = 4φ00 (0), φ está dada en (2.2.1) y φ00 es su segunda


derivada.

Demostración. De [2, Sección 4.2], y como se sabe,


   
µ ¶ 2
√ d  0   σ0 0 
n X − µS 2 − σ02 −→ N2  ,   ≡ N2 (0, V) .
0 0 (3κ + 2) σ04

Ahora note que γ = T (θ) = T (µ, σ 2 ) = σ/µ es función de µ y de σ 2 . Análogamente, el EM


de γ, γfI , es función de µe = X y de σf2 = S 2 , tal como puede verse en la Observación 5, con X
y S dados en (4). Entonces
√ e − T (θ)) =
√ √ √
n ((T (θ) n (T (X, S 2 ) − T (µ, σ 2 )) = n (S/X − σ/µ) = n (γfI − γ).

A partir de esto y aplicando el método-delta (vea [69, pp. 387-388]), se tiene que
 Ã ! Ã !T 
√ d ∂ T (θ) ∂ T (θ)
n (γe − γ) −→ N 0, V ,
∂θ ∂θ

donde
à ! à !T à !
∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) 2 4c0 γ 2 + 3κ + 2
V = c0 γ .
∂µ ∂ σ2 ∂µ ∂ σ2 4
124 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

Finalmente, √
n (γfI − γ) d
Z=q −→ N (0, 1).
c0 γ 2 ((4c0 γ 2 + 3κ + 2)/4)

El parámetro de curtosis κ, dado en (5.4.7), puede estimarse por el método de los momentos
basado en el resultado dado en [58] (en [2, Sección 4.5]) y está dado por:
P
n n (Xi − X)4
e = Pn i=1
κ − 1. (6.15)
3( i=1 (Xi − X)2 )2

6.5 Intervalos de Confianza para el CV de una población


Elı́ptica
En esta sección se plantean intervalos de confianza del 100(1 − α)% para el CV (γ) de una
población Elı́ptica bajo los modelos D e I antes planteados.

6.5.1 Intervalo de Confianza para el CV bajo el Modelo D

Basados en la distribución del inverso del EVM del CV de una población Elı́ptica bajo el
Modelo D y el estadı́stico t generado a partir de (11), se presenta a continuación un intervalo
de confianza (IC) del 100(1 − α)% para el CV.
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γcD el EVM
de γ bajo el Modelo D. Entonces un IC aproximado del 100(1 − α)% para γ es
 −1  −1 
 t% t%  
 (γc
D
)−1 + q  ; (γcD )−1 − q , (6.16)
n λ(f ) n λ(f )
con λ(f ) dada en (6.3.2) y t% es el percentil (1 − α/2) de la distribución t con (n − 1) g.l.

Demostración. A partir de la expresión dada en (5.4.6) y usando la invarianza del estadı́stico


t bajo leyes ECn (0, In ; f ) (vea [32, p. 63]) se obtiene que
√ √ √
Y1 − (µ/σ) n n X/σ − n (µ/σ) √ X − µ
t= q 1 = = n ∼ t(n − 1). (6.17)
Y 0 Σ− Y
2 2 S/σ S
n−1 2Y
6.5. INTERVALOS DE CONFIANZA PARA EL CV DE UNA POBLACIÓN ELÍPTICA125

Ahora observe que t es una cantidad pivotal para γ = σ/µ, con lo cual, al aplicar el método
de la cantidad pivotal, se obtiene que
à !
σ σ
IP √ )<γ< √ = 1 − α.
X + t% S/ n X − t% S/ n
q
Por tanto y como σb = n λ(f ) S es un estimador consistente de σ, un IC aproximado
para γ es  −1  −1 
 t% t%  
 (γc
D
)−1 + q  ; (γcD )−1 − q .
n λ(f ) n λ(f )

6.5.2 Intervalo de Confianza para el CV bajo el Modelo I

Basados en la distribución asintótica del EMV y del EM del CV de una población Elı́ptica bajo
el Modelo I, y usando también el método de la cantidad pivotal, se presentan a continuación
intervalos de confianza asintóticos del 100(1 − α)% para el CV.
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i = 1, 2, ..., n), y γcI el EVM de γ bajo el Modelo I. Entonces si n → ∞, un IC asintótico del
100(1 − α)% para γ es
 v !
u 2Ã
uγc γcI 2 1
cI ± Z% t I
γ + , (6.18)
n 4 a(f ) 4 b(f ) − 1

con a(f ) y b(f ) dadas en (5.4.4) y Z% es el percentil (1 − α/2) de la distribución N(0, 1).

Demostración. Es inmediata al aplicar el método de la cantidad pivotal usando (5.4.6).


i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i = 1, 2, ..., n), y γfI el EM de γ bajo el Modelo I. Entonces si n → ∞, un IC asintótico del
100(1 − α)% para γ es
 v à !
u 2 2
u γ f 4c γ
f
0 I + 3 κ
e + 2
fI ± Z% tc0 I
γ , (6.19)
n 4

con c0 en (5.2.1), κ
e en (5.4.8) y Z% es el percentil (1 − α/2) de la distribución N(0, 1).

Demostración. Es inmediata al aplicar el método de la cantidad pivotal.


126 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

6.6 Pruebas de Hipótesis para el CV de una Población


Elı́ptica

En esta sección se presentan estadı́sticos para contrastar las hipótesis

H0 : γ = γ0 versus H1 : γ 6= γ0 , (6.20)

(o una alternativa unilateral) para un γ0 dado. En el caso de una muestra proveniente de una
población Elı́ptica bajo el Modelo D la prueba se basa en el estadı́stico t generado a partir
de (11); mientras que para el de una muestra proveniente de una población Elı́ptica bajo el
Modelo I, se plantea una prueba asintótica basada en el estadı́stico Z.

6.6.1 Prueba de Hipótesis para el CV bajo el Modelo D

A continuación se presenta una prueba de hipótesis para el CV de una población Elı́ptica bajo
el Modelo D basada en el estadı́stico t generado a partir de (5.5.2).
Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tamaño n y γcD el EVM
de γ bajo el Modelo D. Entonces a través del estadı́stico

³ ´
t = n λ(f ) γcD −1 − γ −1 ∼ t(n − 1), (6.21)

con λ(f ) dada en (6.4.4), se puede contrastar las hipótesis dadas en (6.6.1) mediante la
siguiente regla de decisión: Rechace H0 si |t| > t% , donde t% es el percentil (1 − α/2) de
la distribución t con (n − 1) g.l.

6.6.2 Prueba de Hipótesis para el CV bajo el Modelo I

A partir de la distribución asintótica del EM del CV de una población Elı́ptica bajo el Modelo
I se plantea a continuación una prueba de hipótesis para el CV. Este resultado es análogo al
obtenido en [64, Sección 2] para una población Normal.
6.7. EJEMPLOS 127

i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tamaño n, con Xi ∼ EC1 (µ, σ 2 ; f )
(i = 1, 2, ..., n), y γe el EM de γ bajo el Modelo D. Entonces a través del estadı́stico


n (γfI − γ) d
Z=v
u à ! −→ N (0, 1), (6.22)
2
tc γ 2 4c0 γ + 3κ + 2
u
0
4

con c0 en (5.2.1), se puede contrastar las hipótesis dadas en (6.6.1) mediante la siguiente regla
de decisión: Rechace H0 si |Z| > Z% , donde Z% es el percentil (1 − α/2) de la distribución
N (0, 1).

6.7 Ejemplos

A continuación se aplican los resultados obtenidos para el CV bajo el Modelo D a dos sub-
familias Elı́pticas, como lo son familia de Tipo Kotz, que contiene a la distribución Normal
multivariada, y la familia de Pearson Tipo VII, que contiene a la distribuciones t-multivariada
y de Cauchy (para esta última distribución no existen sus momentos), permitiendo encon-
trar ahora expresiones explı́citas. Los resultados obtenidos bajo el Modelo I son ilustrados
basándose en las distribuciones univariadas Normal y t con s g.l., para s = 5, 30 y 100. Estos
resultados se resumen en la Tabla 2 para el Modelo D, y en las Tablas 4 y 5 para el Modelo I.

Tabla 3 Constante λ(f ), EVM(γ), IC(γ) y estadı́stico t para contrastar las hipótesis
H0 : γ = γ0 versus H1 : γ 6= γ0 ,
para las distribuciones especificadas bajo el Modelo D.
128 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

donde t% es el percentil (1 − α/2) de la distribución t con (n − 1) g.l.

Similarmente, para el Modelo I se entregan algunos de los resultados obtenidos, además de


la eficiencia relativa asintótica, para γ = 1, de los estimadores de verosimilitud máxima y de
”tipo momentos” para el CV para las distribuciones univariadas Normal y t con s g.l.

Tabla 4 Constantes κ, c0 , k0 , a(f ), b(f ) y w = −2Wf (u), con Wf (u) dado en (?), para las
distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.

Distribución λ(f ) EVM(γ) = γc


D IC(γ) t

r · ¸−1 µ ¶
2m − n 2m − n S t% p √ X p
Pearson VII γc
D
± λ(f )−1 n − n λ(f ) γ0−1
ns s X n S

· ¸−1 µ ¶
1 S X t% √ X
t(s) − n-variada ±√ n − γ0−1
n X S n S

· ¸−1 µ ¶
1 S X t% √ X
Cauchy ±√ n − γ0−1
n X S n S

µ ¶1/t · ¸−1 µ ¶
2st p S t% p X p
Tipo Kotz nλ(f ) γc
D ± λ(f )−1 n − λ(f ) γ0−1
n + 2m − 2 X n S

· ¸−1 µ ¶
1 S X t% X γ −1
Normal ±√ n − √0
n X S n S n
6.7. EJEMPLOS 129

Distribución κ c0 k0 a(f ) b(f ) w

2 s s2 s+1 3(s + 1) s+1


t(s)
s−4 s−2 (s − 2)(s − 4) 4(s + 3) 4(s + 3) s+u

Normal 0 1 1 1/4 3/4 1


130 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELÍPTICA

Tabla 5 EM(γ) = γfI , ERA(γ = 1), IC(γ) y estadı́stico Z para contrastar las hipótesis
H0 : γ = γ0 versus H1 : γ 6= γ0
para las distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.

Distribución EM(γ) ERA IC100(1−α)% (γ) Z

" s µ ¶# √
S Var(γbI ) S S n (S/X − γ0 )
t(s) ± Z% Var p
X Var(γeI ) X X Var(γeI )

 s 
µ ¶2 √
S Z% S
S ± √ S  n (S/X − γ0 )
t(5) 0.3491 3.333 + 2.778 p
X X nX X γ02 (3.333 + 2.778 γ02 )

 s 
µ ¶2 √
S Z% S
S ± √ S  n (S/X − γ0 )
t(30) 0.9255 0.598 + 1.148 p
X X nX X γ02 (0.598 + 1.148 γ02 )

 s 
µ ¶2 √
S Z% S
S ± √ S  n (S/X − γ0 )
t(100) 0.9796 0.526 + 1.041 p
X X nX X γ02 (0.526 + 1.041 γ02 )

 s 
µ ¶2 √
S  S ± Z% S S  n (S/X − γ0 )
Normal 1.0000 0.5 + p
X X n X X γ02 (0.5 + γ02 )

donde Z% es el percentil (1 − α/2) de la distribución Normal estándar y las varianzas asintóticas del EVM y
del EM de γ para la distribución t con s g.l. son, respectivamente,
µ 2 ¶ µ ¶
2 γ 1 2 s s 2 s−1
Var(γbI ) = γ (s + 3) + y Var(γeI ) = γ γ + .
s+1 2 s s−2 s−2 2(s − 4)

Para obtener expresiones para el EVM de γ bajo el Modelo I, se debe hacer uso de métodos
numéricos.
Bibliography

[1] Anderson, T. W. and Fang, K-T. (1990). Statistical Inference in Elliptically Contoured
and Related Distributions. Allerton Press, Inc.

[2] Anderson, T. W. (1993). Nonnormal Multivariate Distributions Inference Based on El-


liptically Contoured Distributions. Pag. 1-24. In Rao, R. (1993). Multivariate Analysis:
Future Directions. Elsevier Science Publishers B . V.

[3] Anderson,T. W., Fang, K-T. and Hsu, H. (1986). Maximun-likelihood Estimators and
Likelihood ratio Criteria for Multivariate Elliptically Contoured Distributions. The
Canad. J. Statist, 14, 55-59.

[4] Anderson,T. W. and Fang, K-T. (1987). Cochran’s Theorem for Elliptically Contoured
Distributions. Sankhya, Ser A, 49, 305-315.

[5] Arellano, R. Distribucoes Elipticas: Propriedades, Inferencia Aplicacoes a Modelos de


Regressao, Tesis Doctoral, Universidad de Sao Paulo: Brasil 1994 (en Portugués).

[6] Bennett, B. M. (1976). On an Approximate Test for Homogeneity of Coefficients of Varia-


tion. Contribution to Applied Statistics, edited by Water John Ziegler, Birhauser Verlag,
Bsel and Stuttgart, 169-171.

[7] Bennett, B. M. (1977). LR Test for Homogeneity of Coefficients of Variation in Repeated


Samples. Sankhya, 39B, 400-405.

[8] Billingsley, P. (1979). Probability and Measure. John Wiley & Sons, New York.

131
132 BIBLIOGRAPHY

[9] Bulgren, W. G. and Amos, D. E. A Note on Representation of the Doubly Non-ccentral


t Distribution. J. Amer. Statist. Ass., Vol. 63, (September 1968), 1013-19.

[10] Bulgren, W. G. (1971). On Representation of the Doubly Non-central F Distribution. J.


Amer. Statist. Ass., Vol. 66, No. 333. Theory and Methods Section.

[11] Cacoullos, T. and Koutras, M. (1984). Quadratic form in spherical random variables
generalized noncentral χ2 -distributions. Naval Res. Logist. Quart., 31, 447-461.

[12] Cambanis S., Huang, S., and Simons, G. (1981). On the theory of elliptically contoured
distributions. J. of Multivariate Analysis, 11, 365-385.

[13] Chaudhuri, G. Coefficient of Variation for the l-Class of Life Distributions, Commun.
Statist.: Theory Meth. 1993, 22(9), 2619-2622.

[14] Chhikara, R. S.; Folks, J. L. The Inverse Gaussian Distribution as Lifetime Model, Tech-
nometrics 1977, 19, 461-468.

[15] Chmielewski, M.A. (1980). Invariant Scale Matriz Hypothesis Tests under Elliptical Sym-
metry. J. of Mult. Analysis, 10, 343-350.

[16] Chu, K. C.(1973). Estimation and Decision for Linear Systems with Elliptical Random
Process. IEEE Transaction on Automatic Control, 18, 499-505.

[17] Cramer, H. (1970). M’todos Matemáticos en Estadı́stica. Aguilar Ediciones, Madrid.

[18] Dawid, A. P. (1977). Spherical Matrix Distribtutions and a Multivariate Model. J. of the
Royal Stat. Soc., Ser. B, 39, 254-261.

[19] Dı́az, G., J. A. y Gutiérrez, J. R. (1996). Cálculo Diferencial Matricial y Momentos de


Matrices Aleatorias Elı́pticas. Ed. Universidad de Granada. Granada.

[20] Dı́az, G., J. A. y Leiva, S., V. (1997). Distribución χ2 No Centrada, Obtenida a Partir
de una Distribución Elı́ptica Singular. Proceedings of the COMPUMAT’97 . Cienfuegos,
Cuba.
BIBLIOGRAPHY 133

[21] Dı́az, G., J. A., Leiva S., V. y Gutiérrez, J., R. (1998). Densidad del Coeficiente de
Variación Muestral en Poblaciones Elı́pticas. Proceedings of the XXIV Congreso Nacional
de Estadı́stica e I.O.. Almerı́a, España.

[22] Dı́az, G. J.A. y Leiva, S., V (1999). ”Estimador Máximo Verosı́mil del Coeficiente de
Variación bajo Poblaciones Elı́pticas”. Proceedings of IV Congreso Latinoamericano de
Sociedades Estadı́sticas, Mendoza, Argentina.

[23] Dı́az, G. J.A. y Leiva, S., V (1999). ”Distribución e Intervalo de Confianza Asintótico
para el Coeficiente de Variación bajo Poblaciones Elı́pticas”. Proceedings of IV Congreso
Latinoamericano de Sociedades Estadı́sticas, Mendoza, Argentina.

[24] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000a). ”Distribución Elı́ptica Singular:
Densidad y Aplicaciones”. Informe Técnico UV-EST-0002-00. Universidad de Valparaı́so,
Chile.

[25] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2000b). ”Singular Elliptical Distribution:
Density and Applicacions”. Submited

[26] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000c). ”Distribución Elı́ptica Singular:
Densidad y Aplicaciones”. Proceedings of XXIII Jornadas Nacionales de Estadı́stica,
Valdivia, Chile.

[27] Dı́az, G. J.A. , Leiva, S., V y Galea, R., M. (2000d). ”Inferencia para el Coeficiente de
Variación de una Población Elı́ptica”. Informe Técnico UV-EST-0004-00. Universidad de
Valparaı́so, Chile.

[28] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Inference for the Coefficient of
Variation of an Elliptic Population”. Submited.

[29] Dı́az, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Doubly Non-Central t and
F Distribution under Singular and Non-Singular Elliptical Distribution: Density and
Applicacions”. In preparation.
134 BIBLIOGRAPHY

[30] Doornbos, R and Dijkstra, J. B. (1983). A Multi Sample Test for the Equality of Coeffi-
cients of Variations in Normal Populations. Commun. Statist.: Simul. and Comput., 12,
2, 147-158.

[31] Fang, K. T., Kotz, S. and Ng, K. W. (1990). Symetric, Multivariate and Related Distri-
bution. Chapman and Hall. London.

[32] Fang, K. T. and Zhang, Y.T. (1990). Generalized Multivariate Analysis. Sciences Press,
Beijing. Springer-Verlag, Berlin

[33] Fan, J. (1984). Generalized Non-Central t−, F, and T 2 − Distributions. (in Anderson,
T. W. and Fang, K-T. (1989). Statistical Inference in Elliptically Contoured and Related
Distributions. Allerton Press, Inc.)

[34] Fang, K. T. and Wu, Y. (1984). Distribution of Cuadratic Forms and Cochran’s Theorem.
Mathematics in Economics, 1, 29-48.

[35] Feltz, C. J. and Miller, G. E. (1996). An Asymptotic Test for Equality of Coefficients of
Variation in k Populations. Statistics in Medicine, 15, 647-658.

[36] Gerig, M. T. and Sen, R. A. (1980). MLE in Two Normal Samples With Equal but
Unknow Population Coefficients of Variaton. J. Amer. Statist. Ass. Vol. 75, No. 371,
Theory and Methods Section. 704-708

[37] Graybill, F.A. (1976). Theory and Application of the Linear Models. Duxbury Press.
California.

[38] Graybill, F.A. (1969). Introduction to Matrices with Applications in Statistics. Wadsworth
Pub. Company, Inc., Belmont, California.

[39] Gupta, A.K. and Varga, T. (1993). Elliptically Contoured Models in Statistics. Kluwer
Academic Publishers, Boston.
BIBLIOGRAPHY 135

[40] Gupta, R. C. and Ma, S. (1996). Testing tha Equality of Coefficients of Variation in k
Normal Populations. Commun. in Statist.: Theory and Methods. 20, 10, 3351-3363.

[41] Gutiérrez, J. R., González, C. A. (1996). ”Estadı́stica Multivariable: Introducción al


Análisis Multivariante”. Volumen I. Ediciones Universidad de Granada.

[42] Hamer, A. J., Strachan, J. R. Black, M. M., Ibbotson, C. and Elson, R. A. (1995). A
New Method of Comparative Bone Strenght Measurement. J. Medical Engineering and
Technology, 19, 1, 1-5.

[43] Hsieh, H. K. (1990). Inferences on the Coefficient of Variation of an Inverse Gaussian


Distribution. Commun. in Statist.: Theory and Methods. 19, 5, 1589-1605.

[44] Iglewicz, B. and Myers, R. H. (1970). Comparisons of Approximations to the Percentage


Points of Sample Coefficients of Variaton. Technometrics, 12, 1, 166-169.

[45] Johnson, M. (1987) Multivariate Statistical Simulation. John Wiley and Sons. New York.

[46] Johnson, N.L. and Kotz, S. (1970) Continuos Univariate Distributions. Houghton Miffin
Co. Houston.

[47] Johnson, N.L. and Kotz, S. (1975) Distributions in Statistics: Continuos Multivariate
Distributions. John Wiley. New York.

[48] Kailath, T. (1961). Optimum receivers for randomly varying channels. Information The-
ory, pp. 109- 22

[49] Kariya, T and Eaton, M.L. (1977). Robust Tests for Spherical Symmetry. The Annals of
Statistics, 5, 206-215.

[50] Kelker, D. (1970). Distribution Theory os Spherical Distributions and a Location Scale
Parameter Generalization. Sankhya, Ser. A, 32, 419-430.

[51] Larsen, D., H. (1965). Rinehart Mathematical Tables, Formulas and Curves. Holt, Rine-
hart and Winston. N-Y.
136 BIBLIOGRAPHY

[52] Leiva, S., V., Dı́az, G., J. A. y Gutiérrez, J. R. (1997). Densidad de una Distribución
Elı́ptica Singular. Actas del XXIII Congreso Nacional de Estadı́stica e I.O., Valencia,
España, 46.9-46.10.

[53] Leiva, S. V. (1998). Distribuciones Elı́pticas y Distribución de Formas Cuadráticas Aso-


ciadas. Universidad de Granada. Trabajo de Investigación.

[54] Leiva, S., V. (1999). ”Inferencias sobre el Coeficiente de Variación bajo Poblaciones
Elı́pticas”. Tesis Doctoral, Universidad de Granada, España.

[55] Lehmann, E. L. (1991). Testing Statistical Hypothesis. Wadsworth y Brooks/Cole. Cali-


fornia.

[56] Lord, R. D. (1954). The Use of Hankel Transform in Statistics. I. General Theory and
Examples. Biometrika, 41, 44-45

[57] Madow, W. G. (1948). On a Source of Downward Bias in the Analysis of Variance and
Covariance. Annals of Mathematical Statistics, 19, 351-359.

[58] Mardia. K. V. Measures of Multivariate Skewness and Kurtosis with Applications,


Biometrika 1970, 57, 519-530.

[59] McKay, A. T. (1932). Distribution of the Coefficient of Variation and the Extended t
distribution. J. Royal Stat. Soc., 95, 695-698.

[60] Meeker, W.Q.; Escobar, L.A. Statistical Methods for Reliability Data, John Wiley &
Sons Inc., New York 1998.

[61] Mitchell, A, F. S. Statistical Manifold of Univariate Elliptic Distributions, International


Statistical Review 1988, 56, 1, 1-16.

[62] Miller, G. E. (1991). Asymptotic Test Statistics for Coefficients of Variation. Commun.
in Statist.: Theory and Methods. 20, 10, 3351-3363.
BIBLIOGRAPHY 137

[63] Miller, E. C. and Karson, M. J. (1977). Testing Equality de Two Coefficients of Variation.
Amer. Stat. Asoc.: Proceeding of the Business and Economics Section, Part I, 278-283.

[64] Miller, G. E. and Feltz, C. J. (1997). Asymptotic Inference for Coefficients of Variation.
Commun. in Statist.: Theory and Methods. 26, 3, 715-726.

[65] Muirhead, R. J. (1982). Aspects of Multivariate Statistical Theory. J. Wiley, N.Y.

[66] Pearson, E. S. (1932). Comparison de A. T. McKays Approximation with Experimentals


Sampling Results. Journal of the Royal Statistical Society, 95, 703-704.

[67] Price, R. (1962). Error Probabilities for Adaptive Multichannel Reception of Binary Sig-
nals. IRE Transc. On Information Theory, It-8, 387-389.

[68] Raj, D. Sampling Theory, McGraw Hill: Bombay, New Delhi 1968.

[69] Rao, C.R. (1965). Linear Statistical Inference and its Applications. Wiley, New York.

[70] Rao, C. R. Multivariate Analysis: Future Directions, Elsevier Science Publishers B. V.


1993.

[71] Rao, K. A. and Vidya, R. (1992). On the Performance of a Test for the Coefficient of
Variation. Calcutta Stat. Asoc. Bulletin, 42, March and June, Nos. 165-66, 87-95.

[72] Schoenberg, I. J. (1938). Metric Spaces and Completely Monotone Functions Variates.
Australian J. Stat., 7, 110-114.

[73] Scheffé, H. (1959). The Analysis of Variance. N.Y.: John Wiley and Sons, Inc.

[74] Searle, S.R. (1971). Linear Models. John Wiley and Sons, Inc., New York.

[75] Sebestyen, G. S. (1961). Recognition of membership in classes. IRE Trans. on Inf. Th.
IT-7, 44-50.
138 BIBLIOGRAPHY

[76] Sen, A. R. and Gerig, T. M. (1980). MLE in Two Normal Samples with Equal but
Unknown Population Coefficient of Variation. J. Amer. Statist. Asoc., 75, 371, Sept.,
704-708.

[77] Shafer, N. J. and Sullivan, J. A. (1986). A Simulation Study of a Test for the Equality of
the Coefficients of Variation. Commun. in Statist.: Simul. and Comput., 15, 3, 681-695.

[78] Smith, M. D. (1989). On the Expectation of a Ratio of Cuadratic Forms in Normal


Variables. J. Mult. Analysis, 31, 244-257.

[79] Srivastava, M. S. and Khatri, C. G. (1979). An Introduction to Multivariate Statistics.


North Holland.

[80] Teng, Ch., Fang H. and Deng W. (1989). The Generalized Wishart Distribution. J. of
Mathematical Research and Exposition. 9, 4. 36, 9-106 (supplement).

[81] Tiku, M. L. Series Expansions for the Doubly Non-central F Distribution. Australian
Journal of Statistics, 7 (November 1965), 78-99.

[82] Turin, G. L. (1959). Some computations of error rates for selectively fading multipath
channels. Proc. Nat. Electron. Conf. 15, 431-40.

[83] Tyler, D. E. (1982). Radial estimates and the Test for Sphericity. Biometrika, 69, 429-436.

[84] Umphrey, G. J. (1983). A Comment on McKay’s Approximation for the Coefficient of


Variation. Commun. in Statist.: Simul. and Comput., 12, 5, 629-635.

[85] Wadsworth, G. P. y Bryan, J. G. (1979). Aplicaciones de la Teorı́a de Probabilidad y


Variables Aleatorias. Ed. Alhambra. Madrid.

[86] Weibull, M. (1953). The Distribution of t− and F -Statistics and of Correlation and
Regression Coefficients in Stratified Samples from Normal Populations with Different
Means. Skandinavisk Aktuarietidskrift, 36, 9-106 (supplement).
BIBLIOGRAPHY 139

[87] Wishner, R. P. (1962). Distribution of the normalizad periodogram detector. IRE Trans.
on Inf. Th. IT-8, 342-9.

[88] Zellner, A. (1976). Bayesian and Non-Bayesian of the Regression Model with Multivariate
Student-t Error Terms. Journal of the American Statistical Association, 71, 400-405.
140 BIBLIOGRAPHY
ANEXO

Densidad de la distribución Gt doble No Centrada

Teorema. Sea T ∼ Gt(n, δ, γ; f ), con parámetros de doble no centralidad δ y γ. Entonces,


la densidad de T es
n−1
2π 2 (6.23)
gT (t) = 1/2 n−2
n Γ( 2 )
 
Z∞ Zπ Ã Ã ! !
 vn
1 + t2 2 δ
f v −2 + γ cos φ1 v + δ2 + γ 2) senn−2 φ1 dφ1  dv,
n n1/2
0 0
con v > 0, donde δ y γ son los parámetros de doble no centralidad.

Demostración. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, In+1 ; f ), con X1 ∈ IR, X2 ∈ IRn , ν = (µ µTn )T ,
q
ν ∈ IRn+1 , µ ∈ IR, µ 6= 0, µn ∈ IRn , µn 6= 0 y defina T = X1 / ||X2 ||2 /n. Además, sea
 
1 0 
Q ∈ O(n + 1), Q =  , P ∈ O(n), tal que QX = Y = (Y1 Y2T )T = (X1 Y2T )T
0 P
y Q ν = (µ ||µn || 0T )T , esto es, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR, Y2 =
(Y2 ... Yn+1 )T ∈ IRn y η = (µ ||µn || 0T )T . Note que ||Y|| = ||X|| y ||Y2 || = ||X2 ||, con lo
q
cual T = Y1 / ||Y2 ||2 /n. Ası́,

Ãn+1 !
X
gY (Y) = f ((Y − η)T (Y − η)) = f yi2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k Y2 .
i=1

Considere la transformación de coordenadas esféricas generalizadas dada por (Y2 . . . Yn+1 ) −→

141
142 BIBLIOGRAPHY
 
n−2
Y
(r φ1 . . . φn−2 θ) = (r φ θ), cuyo jacobiano es rn−1  senn−j−1 φj , de manera que
j=1

 
³ ´ n−2
Y
gy1 ,r,θ (Y1 , r φ θ) = f y12 + r2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k cos φ1 rn−1  senn−j−1 φj  .
j=1

Entonces, la densidad de (Y1 r) es


n−2 Zπ ³ ´
2rn−1 π 2
gy1 ,r (Y1 , r) = ³
n−2
´ f y12 + r2 + δ 2 + γ 2 − 2γ r cos φ1 − 2δ y1 senn−2 φ1 d φ1 ,
Γ 2 0

con r > 0, δ = µ y γ = kµn k.


q
Aplicando el cambio de variables v = r y T = Y1 / r2 /n, de modo que |J| = v/n1/2 , se
obtiene que
n−2
2v n−1 π 2
gT,V (t, v) = ³
n−2
´
Γ 2
Zπ " Ã 2 2 ! #
v t tv v
f − 2δ 1/2 + δ 2 + γ 2 − 2 v γ cos φ1 + v 2 senn−2 φ1 dφ1 1/2 ;
n n n
0
con v > 0.

Finalmente, la densidad de T es
n−1
2π 2
gT (t) = 1/2 n−2
n Γ( 2 ) 
Z∞ Zπ Ã Ã ! !
 vn f
1 + t2 2 δ
v −2 1/2
+ γ cos φ1 v + δ2 + γ 2) senn−2 φ1 dφ1  dv,
n n
0 0
con v > 0, δ = µ y γ = kµn k.

También podría gustarte