Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadı́stica
(Teorı́a y problemas)
I. Espejo Miranda
F. Fernández Palacı́n
M. A. López Sánchez
M. Muñoz Márquez
A. M. Rodrı́guez Chı́a
A. Sánchez Navas
C. Valero Franco
°c Servicio de Publicaciones. Universidad de Cádiz
I. Espejo Miranda, F. Fernández Palacı́n, M. A. López Sánchez, M. Muñoz
Márquez, A. M. Rodrı́guez Chı́a, A. Sánchez Navas, C. Valero Franco
ISBN: 978-84-9828-131-6
Se concede permiso para copiar, distribuir y/o modificar este documento bajo los
términos de la Licencia de Documentación Libre de GNU, Versión 1.2 o cualquier
otra versión posterior publicada por la Free Software Foundation. Una traducción
de la licencia está incluida en la sección titulada “Licencia de Documentación
Libre de GNU”.
Permission is granted to copy, distribute and/or modify this document under the
terms of the GNU Free Documentation License, Version 1.2 or any later version
published by the Free Software Foundation. A copy of the license is included in
the section entitled “GNU Free Documentation License”.
Inferencia Estadı́stica (Revisión: Marzo 2007)
I. Espejo Miranda, F. Fernández Palacı́n, M. A. López Sánchez,
M. Muñoz Márquez, A. M. Rodrı́guez Chı́a, A. Sánchez Navas,
C. Valero Franco
c
°2007 Servicio de Publicaciones de la Universidad de Cádiz
http://www.uca.es/teloydisren
Capı́tulo 2
Estimación puntual
1. Introducción
3. La función de verosimilitud
L(x, θ) = fθ (x),
4. Suficiencia
y
g(t, p) = pt (1 − p)n−t ,
P
se obtiene que ni=1 Xi es un estimador suficiente
para p.
Cuando el sesgo b(θ) es tal que lı́m b(θ) = 0, se dice que el esti-
n→∞
mador es asintóticamente insesgado.
Ejemplo 2.5 Anteriormente se estudió que la varianza muestral
era un estimador sesgado de la varianza poblacio-
nal, siendo su sesgo b(σ) = − n1 σ 2 . Se observa que
cuando n → ∞ el sesgo b(σ) → 0. Con lo cual,
se tiene que la varianza muestral es un estimador
asintóticamente insesgado del parámetro σ.
Observación 2.1 Para poder aplicar esta cota es necesario que se cum-
plan ciertas condiciones de regularidad de fθ (x). Son las conocidas con-
diciones de regularidad de Fisher–Wolfowitz:
Cuando un estimador es más eficiente que otro pero a su vez tiene más
sesgo, en general, se decide por aquel que tenga menor error cuadrático
medio (ECM). El error cuadrático medio de un estimador se define como:
£ ¤
ECM (T ) = E (T − θ)2 = V[T ] + (θ − E[T ])2 = V[T ] + b(θ)2 ,
1. lı́m E(Tn ) = θ
n→∞
2. lı́m V(Tn ) = 0
n→∞
Sea X una variable aleatoria tal que existen los r primeros mo-
mentos poblacionales con respecto al origen y cuya distribución de-
pende de una serie de parámetros θ1 , . . . , θk desconocidos. En el ca-
so de que el parámetro i-ésimo se pueda expresar en función de los
r primeros momentos poblacionales con respecto al origen, es decir,
θi = gi (α1 , . . . , αr ), para una muestra (X1 , . . . , Xn ) el estimador ob-
tenido a través del método de los momentos para dicho parámetro viene
dado por θ̂i (X) = gi (a1 , . . . , ar ), donde
n
X
Xis
i=1
αs = E[Xis ] as = .
n
Ejemplo 2.9 Sea X una variable aleatoria que sigue una B(p).
Para encontrar el estimador máximo–verosı́mil pa-
ra p, se construye en primer lugar la función de
verosimilitud:
Pn Pn
L(x, p) = p i=1 xi (1 − p)n− i=1 xi .
luego
n
X n
X
xi n− xi
∂log L(x, p) i=1 i=1
= − = 0.
∂p p 1−p
22 Capı́tulo 2. Estimación puntual
n
1X
De donde se obtiene que p̂ = xi .
n
i=1
Propiedades 2.3
m 2m2 (m + n − 2)
E[Fn,m ] = V[Fn,m ] = .
m−2 n(m − 2)2 (m − 4)
Propiedades 2.4
1
1. De la definición se deduce que si X ∼ Fn,m ⇒ X ∼ Fm,n .
Z Z2
tn = q ⇒ t2n = χ2n
χ2n
n n
luego
2.7 Estimación de parámetros en poblaciones Normales 27
1 1
P (F20,7 > ) = 00 01 ⇒ = 60 15.
b b
De donde b = 00 162.
2 n−1 2 2 2(n − 1) 4
E[S ] = σ V[S ] = σ .
n n2
8. Ejercicios
Solución:
a) A partir de la m.a.s. de tamaño n, se construye la función
de verosimilitud:
½ Pn 2¾
2 2 −n i=1 (xi − µ)
L = L(x; µ, σ ) = (2πσ ) exp −
2 .
2σ 2
Para encontrar los estimadores de máxima verosimilitud de µ y σ 2 , hay
que encontrar los máximos de la función de verosimilitud, L, o equiva-
lentemente, los máximos de la función log L:
n
X
(xi − µ)2
n n
log L = − log (σ 2 ) − log 2π − i=1 .
2 2 2σ 2
Para ello, habrá que resolver el siguiente sistema:
n
X
(xi − µ)
∂log L i=1
= =0
∂µ σ2
n
X
(xi − µ)2
∂log L n
2
= − 2 + i=1 =0
∂σ 2σ 2σ 4
cuya solución proporciona los estimadores máximo–verosı́miles de µ y
σ2 :
µ̂ = X
2.8 Ejercicios 31
n
X
(Xi − X)2
σˆ2 = i=1
= S2.
n
1
CF CR = ·³ ´ ¸.
∂ log fµ (X) 2
nE ∂µ
Haciendo cálculos,
1 (x − µ)2
log fµ (x) = − log σ − log 2π − ,
2 2σ 2
µ ¶
∂ log fµ (x) x−µ ∂ log fµ (x) 2 (x − µ)2
= ⇒ = ,
∂µ σ2 ∂µ σ4
"µ ¶ #
∂ log fµ (X) 2 1
E = 2.
∂µ σ
1 σ2
CF CR = = ,
n σ12 n
σ2
y puesto que V[T (X)] = V[X] = n , se deduce que T (X) = X es
eficiente para µ.
1 1
Y1 (X) = (X1 + X2 ) + (X3 + X4 )
6 3
34 Capı́tulo 2. Estimación puntual
X1 + 2X2 + 3X3 + 4X4
Y2 (X) =
5
X1 + X2 + X3 + X4
Y3 (X) = ,
4
estudie cuáles son insesgados para θ.
2.8. Sea X una variable aleatoria distribuida según una N (µ, σ).
Calcule un estimador insesgado de µ2 + 6µ.
1 −x
fθ (x) = e θ, x≥0
θ
2.22. Dada una m.a.s. extraı́da de una población que sigue una
Exp( 1θ ), encuentre un estimador máximo-verosı́mil para el parámetro θ.
2(a − x)
fa (x) = 0 < x < a.
a2
38 Capı́tulo 2. Estimación puntual
Pθ (X = x) = θ(1 − θ)x−1 x = 1, 2, . . . 0 ≤ θ ≤ 1.
2.31. Sea X una variable una variable aleatoria que tiene por
función de densidad
fθ (x) = e−(x−θ) , x ≥ θ,