Está en la página 1de 5

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/317178846

Distribución del Máximo y del Mínimo de una muestra aleatoria de una variable
aleatoria X.

Research · May 2017


DOI: 10.13140/RG.2.2.29472.17923

CITATIONS READS
0 5,726

1 author:

Claudia Castro-Kuriss
Instituto Tecnológico de Buenos Aires
27 PUBLICATIONS   89 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Hybrid and Progressively Type-II Censoring View project

All content following this page was uploaded by Claudia Castro-Kuriss on 28 May 2017.

The user has requested enhancement of the downloaded file.


Distribución de la v.a. Máximo y de la v.a.
Mı́nimo de una muestra aleatoria de una
v.a. X
Claudia Castro-Kuriss
Departamento de Matemáticas, Instituto Tecnológico de Buenos Aires.
ccastro@itba.edu.ar

Introducción
Este problema se plantea en el ejercicio 32 del libro de Jay Devore, séptima edición y
también en el ejemplo 6.4 página 232 del mencionado libro. Tambin se propone en el
ejercicio 17 del Trabajo Práctico 6, 2016.
Sea una muestra aleatoria X1 , X2 , . . . , Xn , de una variable aleatoria X, que supondremos
continua, y sea
X(n) = max(X1 , X2 , . . . , Xn ) , es decir, la variable aleatoria que representa el Máximo de
la muestra.
Sea también la variable aleatoria X(1) = min(X1 , X2 , . . . , Xn ) ,es decir, la variable aleato-
ria que representa el Mı́nimo de la muestra.
Hallaremos la función de distribución acumulada (FDA) de estas variables aleatorias y
sus densidades a partir de derivar las correspondientes FDA.
Primero lo haremos en general y luego aplicaremos los resultados obtenidos al caso par-
ticular de una muestra aleatoria de X ∼ U (0, θ).

1 Distribución de la v.a. Máximo de una muestra


aleatoria de X
FX(n) (x) = p(X(n) ≤ x) = p(X1 ≤ x, X2 ≤ x, . . . , Xn ≤ x) = (p(X ≤ x))n = (FX (x))n
(1)
Para deducir lo anterior (1 ) hemos usado el hecho de que las variables son independientes

1
y que tienen la misma distribución.
Derivando esta expresión, obtenemos la densidad de la variable aleatoria, Máximo de una
muestra aleatoria.

fX(n) (x) = n(FX (x))n−1 f (x) (2)

Siendo f (x) la densidad de la variable aleatoria X.

2 Distribución de la v.a. Mı́nimo de una muestra


aleatoria de X
SX(1) (x) = 1 − FX(1) = p(X(1) > x) = p(X1 > x, X2 > x, . . . , Xn > x) = (p(X > x))n =
(3)
= (SX (x))n = (1 − FX (x))n

Luego,
FX(1) = 1 − (1 − FX (x))n (4)
Para deducir lo anterior (4 ) hemos usado el hecho de que las variables son independi-
entes y que tienen la misma distribución.
Además hemos utilizado la función de sobrevida definida como SX (x) = P (X > x) =
1 − FX (x).
Derivando la expresión 4, obtenemos la densidad de la variable aleatoria, Mı́nimo de una
muestra aleatoria.

fX(1) (x) = n(1 − FX (x))n−1 (f (x)) (5)

Siendo f (x) la densidad de la variable aleatoria X.

3 V.A. Máximo: caso particular de la distribución


Uniforme U (0, θ)
Supongamos ahora que X ∼ U (0, θ), entonces se tiene que, en (1), vale que:

 0 si x ≤ 0
FX(n) (x) = ( xθ )n si 0 ≤ x ≤ θ (6)
 1 si x ≥ θ

Y por lo tanto, derivando en este caso particular, se obtiene,

2
xn−1

n θn
si 0 ≤ x ≤ θ
fX(n) (x) = (7)
0 sino

3.1 Esperanza del Máximo de una muestra aleatoria uniforme


U (0, θ)
De acuerdo a lo anterior, podemos hallar la esperanza de la variable aleatoria X(n) en el
caso particular que estamos analizando X ∼ U (0, θ), pues ya tenemos su densidad. En
efecto,
n
E[X(n) ] = θ (8)
n+1
Como se obtiene fácilmente integrando entre 0 y θ, la expresión (7)multiplicada por x, o
n
sea, integrando entre 0 y θ la función n xθn . Por lo tanto θb = X(n) no es un estimador
insesgado de θ, es asintóticamente insesgado. Para construir un estimador insesgado de θ
a partir de X(n) , basta considerar la constante obtenida en (8). En efecto, n+1
n
X(n) resulta
un estimador insesgado de θ, según (8).

4 V. A. Mı́nimo: caso particular de la distribución


Uniforme U (0, θ)
Supongamos ahora que X ∼ U (0, θ), entonces se tiene que, en (4), vale que:

 0 si x ≤ 0
FX(1) (x) = 1 − (1 − xθ )n si 0 ≤ x ≤ θ (9)
 1 si x ≥ θ
Y por lo tanto, derivando en este caso particular, se obtiene,


n(1 − xθ )n−1 1θ si 0 ≤ x ≤ θ
fX(1) (x) = (10)
0 sino

4.1 Esperanza del Mı́nimo de una muestra aleatoria uniforme


U (0, θ)
De acuerdo a lo obtenido en la expresión anterior 10, podemos hallar la esperanza de la
variable aleatoria X(1) en el caso particular que estamos analizando X ∼ U (0, θ), pues ya
tenemos su densidad. En efecto en este caso se obtiene que,
θ
E[X(1) ] = (11)
n+1
3
Para obtener esta esperanza hemos integrando por partes entre 0 y θ, la expresión
nx
(10)multiplicada por x, o sea, integrando entre 0 y θ la función θ
(1 − xθ )n−1 . Por

lo tanto θb = X(1) no es un estimador insesgado de θ,tampoco es asintóticamente inses-


gado. Para construir un estimador insesgado de θ a partir de X(1) , basta considerar la
constante obtenida en (11). En efecto, (n + 1)X(1) resulta un estimador insesgado de θ,
según (11).

5 Ejemplo de aplicación.
La siguiente Tabla 1 contiene 30 observaciones. Se trata de una muestra generada al
azar de una distribución U (0, 1) obtenida a partir del programa Excel. Supongamos que
sabemos que provienen de una distribución U (0, θ) y queremos estimar dicho parámetro θ.

Table 1: Muestra ordenada de tamaño 30 generada al azar de una distribución U (0, 1).
0,03952147 0,09710990 0,10501419 0,11990722 0,14117862
0,15335551 0,16446425 0,20990631 0,28782006 0,28962065
0,32230598 0,45457320 0,46867275 0,47193823 0,49955748
0,53028962 0,53221229 0,55687124 0,58757286 0,61375774
0,69789727 0,70848720 0,72719504 0,74617756 0,75249489
0,76702170 0,82412183 0,83684805 0,84182257 0,89461959

De acuerdo a lo desarrollado en las secciones anteriores podemos estimar al parámetro


θ puntualmente mediante dos estimadores, uno basado en el máximo de la muestra X(30)
y otro basado en el mı́nimo de la misma X(1) .
En el primer caso la estimación puntual que obtenemos a partir del máximo observado
de la muestra es 31
30
∗ 0, 89461959 = 0, 92444024.
En el segundo caso analizado, la estimación puntual obtenida basada en el mı́nimo obser-
vado es 31 ∗ 0, 03952147 = 1, 225165563 .
Como sabemos que el valor de θ a partir del cual generamos la muestra es 1, vemos que
tiene menos error la primera estimación.

La pregunta que nos podrı́amos formular ahora es cual estimador es mejor, en principio
el basado en el Máximo es un estimador asintóticamente insesgado por lo tanto este
serı́a en un sentido mejor. Otra forma de determinarlo es comparar los dos estimadores
insesgados que hemos deducido a partir de las v.a. Máximo y Mı́nimo y por lo tanto lo
que habrı́a que comparar es la varianza de los estimadores y elegir aquel cuya varianza
sea menor. Queda como ejercicio para el lector hallar la varianza de ambos estimadores
insesgados basados en las variables que estudiamos y ver cuál resulta menor.
Como ayuda indicamos que,
n+1 θ2
V[ X(n) ] = (12)
n (n + 2)(n)

View publication stats

También podría gustarte