Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ÉSTIMACIÓN PUNTUAL v5 PDF
ÉSTIMACIÓN PUNTUAL v5 PDF
1
Mapa conceptual
ESTADÍSTICA
Conceptos Básicos
Estadística
Descriptiva
Población Muestra
Parámetro Estimador
PROBABILIDAD
Conceptos Básicos
INFERENCIA
Particularmente
4
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
Pasos:
1. Conocer la población, la distribución que sigue la variable poblacional y el
parámetro p a estimar
La población es el universo compuesto por M elementos o individuos del que
se desea conocer el valor de determinado parámetro p
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá un
nuevo producto?
Si la variable aleatoria X se define como “disposición a consumir el nuevo
producto”, su distribución será Bernoulli de parámetro p desconocido
b) las v.a son independientes, lo que implica que el valor que toma una variable es
independiente del que tome otra
6
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
Estimación puntual
Teoría de la estimación
Simples
Paramétricas
Compuestas
Contrastaste de hipótesis
No Paramétricas
7
ESTADÍSTICOS Y DISTRIBUCIONES MUESTRALES
8
9
Notación
Momentos muestrales: desconocidos, no constantes
MUESTRA
n
1
ALEATORIA
Mk =
n
∑X
i =1
k
i X, Σ 2n , S2n
E M k = m k
Relación entre momentos muestrales y momentos poblacionales σ2
Var M k = n
Se espera que el k-ésimo momento muestral coincida con el k-ésimo momento poblacional
La varianza del k-ésimo momento muestral es la varianza poblacional dividida por n
10
Ejemplo
11
Ejercicio
12
TEORÍA DE LA ESTIMACIÓN
Sea X una v.a.
¿Cómo se determina
el valor de γ?
Conjunto paramétrico: Γ
Estimación Estimación
puntual por intervalos
Cálculo de la estimación γ̂
Definición de estimador
(estadístico muestral) Γ̂ Muestra
13
MÉTODOS DE OBTENCIÓN DE ESTIMADORES
El estimador se obtiene maximizando la
MÉTODO DE LA función de verosimilitud L (probabilidad de
MÁXIMA VEROSIMILTUD (MV) observar la muestra observada para cada
valor asignado al parámetro)
n
∏ P ( X = x i ) , caso discreto
L ( γ ) = i =n1
f (x ),
∏
i =1
X i caso continuo
El valor que maximice esta función (la estimación) coincidirá con aquel para el que la
probabilidad de observar la muestra realmente observada sea máxima
a) Caso unidimensional (un parámetro a estimar). Ya sea el caso discreto o continuo, se
deberá derivar la función L respecto al parámetro desconocido.
b) Caso bidimensional (dos parámetros a estimar). Ya sea el caso discreto o continuo, se
deberá derivar la función L respecto a los dos parámetros desconocidos.
Los estimadores MV son los más usados porque basan la estimación en la información
muestral (función de verosimilitud) y porque cumplen algunas propiedades deseables.
14
Procedimiento
15
Si de una población cualquiera hemos obtenido una muestra
particular, es razonable pensar que la muestra obtenida era
la que mayor probabilidad tenía de ser escogida.
Función
máxima
verosimilitud
θˆ θˆ
MV Valor del estimador máxima
verosimilitud 16
Si los valores posibles de θ son discretos, el procedimiento
es evaluar L(x,θ) para cada valor posible y elegir el valor de
θ para el cual L alcanza su máximo.
17
3. Derivamos respecto al parámetro-objetivo.
18
Ejercicio
Supongamos que los tiempos de fallos de ciertas
componentes electrónicas, X, provienen de una
distribución exponencial de parámetro θ. Dada una
muestra de n componentes, obtenga el E.M.V. de θ.
19
Solución
La función de densidad es:
20
Resolviendo la ecuación de verosimilitud
21
Ejercicio
22
Solución
23
24
Ejercicio
25
Solución
26
27
28
EL MÉTODO DE LOS MOMENTOS
Fue introducido por K. Pearson y es el método general más antiguo y sencillo
para la obtención de estimadores de parámetros poblacionales. En algunas
ocasiones se suele utilizar para obtener una primera aproximación de los
estimadores. Este método consiste en igualar tantos momentos muestrales
como parámetros haya que estimar, a los correspondientes momentos
poblacionales, que son funciones de los parámetros desconocidos, y
resolviendo el sistema de ecuaciones resultante tendríamos los estimadores de
los parámetros.
Procedimiento
29
30
31
Ejemplo
Solución:
32
Luego igualando
33
34
Ejemplo
Solución:
35
36
37
38
Realizada la estimación de un parámetro cabe
preguntarse:
• ¿ Es exacta la estimación?
• ¿Es probable que la estimación sea alta o baja?
• ¿Con otra muestra se obtendría el mismo resultado, o
bastante diferente?
• ¿La calidad de un procedimiento de estimación mejora
bastante si la estadística de la muestra es menos variable e
insesgada a la vez?
39
Propiedades de los estimadores
El estimador es un estadístico muestra, y, como tal, es cualquier función de la muestra. Por
tanto, y aunque los derivados de alguno de los métodos de estimación sean siempre más
apropiados, dependiendo del parámetro desconocido, la elección del estimador generará una
mejor o peor aproximación al verdadero valor del parámetro. De ahí, la importancia de
definir propiedades de los estimadores que permitan realizar la elección del estimador de
forma más adecuada. Un estimador será mejor cuantas más propiedades cumpla.
1. Insesgadez
Definición : Γˆ es insesgado si E Γˆ =γ Estima exactamente
Si E Γˆ ≠ γ : b(Γˆ =
) E Γˆ − γ (sesgo de Γˆ )
40
41
2. Eficiencia y Preferibilidad
42
Nota:
−1
∂ ln f ( y, γ )
[]
2
ˆ = nE
a) Si Var Γ ⇒ θˆ es eficiente
∂γ
b) Sean θˆ1 ~
y θ 2 dos estimadores de θ. Se llama
ECM 2 ) (θ
~
ef (θ 2 ,θ1 ) =
~ ˆ
ECM (θˆ1 )
43
Ejemplo
44
Solución
45
46
47
Ejemplo
Demostrar que dada una población N(µ, σ2) se verifica que la media
muestral X es un estimador eficiente de la media poblacional µ
Solución
En efecto
1 ( x−µ )2
1 −
ln f ( x; µ ) = ln + ln e 2 σ2
σ 2π
1 1 ( x − µ )2
= ln −
σ 2π 2 σ 2
∂ ln( f ( x; µ ) x − µ
=
∂µ σ2
48
∂ ln( f ( x; µ ) 2 X − µ 2
nE = nE
∂µ σ
2
=
n
σ 4
[
E (X − µ )
2
]
n n n
= Var ( X ) = σ = 2
σ 4
σ 4
σ2
Luego
1 σ2
Var ( µˆ ) = Var ( X ) = =
∂ ln( f ( x; µ ) 2
n
nE
∂µ
49
Ejemplo
Solución
50
´´´´´´´´´´´´´´´´´´´´´´´´´´´
51
52
53
3. Consistencia
n →∞
( )
Definición : Γˆ es un estimador consistente de γ ⇔ ∀ε > 0 : lím P Γˆ − γ > ε = 0 ⇔ Γˆ
P
→γ
Si Γˆ
m.c
→ γ ⇒ Γˆ
P
→ γ ⇒ Γˆ es consistente
lím Var Γˆ
n →∞ () Γˆ es un estimador
(
→ γ ⇔ lím E Γˆ − γ ) =
2
n →∞
Si Γˆ
m.c
0 ⇒ ECM →0 ⇔ ⇒
n →∞
lím b Γ
n →∞
ˆ () fuertementeconsistente
54
55
Ejemplo
Solución
56
57
Resumen práctico
58
59
PROPIEDADES DE LOS ESTIMADORES OBTENIDOS
POR EL MÉTODO DE LOS MOMENTOS
60
EJERCICIOS RESUELTOS
Ejercicio 1
61
Solución
62
Ejercicio 2
63
Solución
64
Ejercicio 3
si
65
Solución
como
tenemos
66
Luego
67
Ejercicio 4
68
Solución
69
Ejercicio 5
70
Solución
71
72
73
Ejercicio 6
La v. a. X sigue distribución U(0, θ), donde θ es un
valor positivo y desconocido. Se extrae una m. a. s.
de tamaño n (n>2). ¿Dado los estimadores siguientes
de θ, ¿Cuáles de los siguientes errores cuadráticos
medios son correctos?
74